Kundendienstmitarbeiter
Dieser Leitfaden erklärt, wie man Claudes fortschrittliche Konversationsfähigkeiten nutzen kann, um Kundenanfragen in Echtzeit zu bearbeiten, 24/7-Support zu bieten, Wartezeiten zu reduzieren und hohe Support-Volumen mit präzisen Antworten und positiven Interaktionen zu bewältigen.
Vor dem Aufbau mit Claude
Entscheiden Sie, ob Sie Claude für Support-Chats einsetzen sollten
Hier sind einige wichtige Indikatoren dafür, dass Sie ein LLM wie Claude einsetzen sollten, um Teile Ihres Kundensupport-Prozesses zu automatisieren:
Einige Überlegungen für die Wahl von Claude gegenüber anderen LLMs:
- Sie priorisieren natürliche, nuancierte Konversation: Claudes ausgefeiltes Sprachverständnis ermöglicht natürlichere, kontextbewusstere Gespräche, die menschlicher wirken als Chats mit anderen LLMs.
- Sie erhalten oft komplexe und offene Anfragen: Claude kann ein breites Spektrum an Themen und Anfragen bearbeiten, ohne vorgefertigte Antworten zu generieren oder eine umfangreiche Programmierung von Permutationen von Benutzeräußerungen zu erfordern.
- Sie benötigen skalierbare mehrsprachige Unterstützung: Claudes mehrsprachige Fähigkeiten ermöglichen Gespräche in über 200 Sprachen, ohne dass separate Chatbots oder umfangreiche Übersetzungsprozesse für jede unterstützte Sprache erforderlich sind.
Definieren Sie Ihre ideale Chat-Interaktion
Skizzieren Sie eine ideale Kundeninteraktion, um zu definieren, wie und wann der Kunde mit Claude interagieren soll. Diese Skizze wird helfen, die technischen Anforderungen Ihrer Lösung zu bestimmen.
Hier ist ein Beispiel für eine Chat-Interaktion im Kfz-Versicherungs-Kundensupport:
- Kunde: Startet die Support-Chat-Erfahrung
- Claude: Begrüßt den Kunden herzlich und leitet das Gespräch ein
- Kunde: Fragt nach Versicherung für sein neues Elektroauto
- Claude: Liefert relevante Informationen zur Elektrofahrzeug-Versicherung
- Kunde: Stellt Fragen zu speziellen Bedürfnissen bei Elektrofahrzeug-Versicherungen
- Claude: Antwortet mit genauen und informativen Antworten und stellt Links zu den Quellen bereit
- Kunde: Stellt themenfremde Fragen, die nicht mit Versicherung oder Autos zusammenhängen
- Claude: Stellt klar, dass es keine nicht verwandten Themen diskutiert und lenkt den Benutzer zurück zum Thema Autoversicherung
- Kunde: Zeigt Interesse an einem Versicherungsangebot
- Claude: Stellt eine Reihe von Fragen, um das passende Angebot zu ermitteln, und passt sich an die Antworten an
- Claude: Sendet eine Anfrage zur Nutzung des Angebotsgenerator-API-Tools zusammen mit den notwendigen Informationen, die vom Benutzer gesammelt wurden
- Claude: Erhält die Antwortinformationen aus der API-Tool-Nutzung, synthetisiert die Informationen zu einer natürlichen Antwort und präsentiert dem Benutzer das bereitgestellte Angebot
- Kunde: Stellt Folgefragen
- Claude: Beantwortet Folgefragen nach Bedarf
- Claude: Führt den Kunden zu den nächsten Schritten im Versicherungsprozess und beendet das Gespräch
Unterteilen Sie die Interaktion in einzelne Aufgaben
Der Kundensupport-Chat ist eine Sammlung mehrerer verschiedener Aufgaben, vom Beantworten von Fragen über das Abrufen von Informationen bis hin zum Ausführen von Aktionen auf Anfragen, die in einer einzigen Kundeninteraktion zusammengefasst sind. Bevor Sie mit dem Aufbau beginnen, unterteilen Sie Ihre ideale Kundeninteraktion in jede Aufgabe, die Claude ausführen soll. Dies stellt sicher, dass Sie Claude für jede Aufgabe anweisen und bewerten können und gibt Ihnen einen guten Überblick über die Bandbreite der Interaktionen, die Sie beim Schreiben von Testfällen berücksichtigen müssen.
Hier sind die wichtigsten Aufgaben im Zusammenhang mit dem obigen Versicherungsinteraktionsbeispiel:
-
Begrüßung und allgemeine Anleitung
- Den Kunden herzlich begrüßen und das Gespräch einleiten
- Allgemeine Informationen über das Unternehmen und die Interaktion bereitstellen
-
Produktinformationen
- Informationen über Elektrofahrzeug-Versicherung bereitstellen
Dies erfordert, dass Claude die notwendigen Informationen in seinem Kontext hat, und könnte bedeuten, dass eine RAG-Integration notwendig ist.
- Fragen zu speziellen Bedürfnissen bei Elektrofahrzeug-Versicherungen beantworten
- Folgefragen zum Angebot oder zu Versicherungsdetails beantworten
- Bei Bedarf Links zu Quellen anbieten
- Informationen über Elektrofahrzeug-Versicherung bereitstellen
-
Gesprächsmanagement
- Beim Thema bleiben (Autoversicherung)
- Themenfremde Fragen zurück zu relevanten Themen lenken
-
Angebotserstellung
- Geeignete Fragen stellen, um die Angebotsberechtigung zu ermitteln
- Fragen basierend auf Kundenantworten anpassen
- Gesammelte Informationen an die Angebotsgenerator-API übermitteln
- Das bereitgestellte Angebot dem Kunden präsentieren
Erfolgskriterien festlegen
Arbeiten Sie mit Ihrem Support-Team zusammen, um klare Erfolgskriterien zu definieren und detaillierte Bewertungen mit messbaren Benchmarks und Zielen zu erstellen.
Hier sind Kriterien und Benchmarks, die verwendet werden können, um zu bewerten, wie erfolgreich Claude die definierten Aufgaben ausführt:
Hier sind Kriterien und Benchmarks, die verwendet werden können, um die geschäftlichen Auswirkungen des Einsatzes von Claude für den Support zu bewerten:
Wie man Claude als Kundendienstmitarbeiter implementiert
Wählen Sie das richtige Claude-Modell
Die Wahl des Modells hängt von den Kompromissen zwischen Kosten, Genauigkeit und Antwortzeit ab.
Für Kundensupport-Chats ist claude-opus-4-20250514
gut geeignet, um Intelligenz, Latenz und Kosten auszubalancieren. Für Fälle, in denen Sie einen Gesprächsablauf mit mehreren Prompts haben, einschließlich RAG, Tool-Nutzung und/oder Prompts mit langem Kontext, kann claude-3-haiku-20240307
besser geeignet sein, um die Latenz zu optimieren.
Erstellen Sie einen starken Prompt
Die Verwendung von Claude für den Kundensupport erfordert, dass Claude genügend Anweisungen und Kontext hat, um angemessen zu antworten, während er genügend Flexibilität hat, um eine breite Palette von Kundenanfragen zu bearbeiten.
Beginnen wir mit dem Schreiben der Elemente eines starken Prompts, beginnend mit einem System-Prompt:
User
-Turn geschrieben wird (mit der einzigen Ausnahme des Rollen-Promptings). Lesen Sie mehr unter Claude eine Rolle mit einem System-Prompt geben.Es ist am besten, komplexe Prompts in Unterabschnitte zu unterteilen und einen Teil nach dem anderen zu schreiben. Für jede Aufgabe könnten Sie größeren Erfolg haben, wenn Sie einem schrittweisen Prozess folgen, um die Teile des Prompts zu definieren, die Claude benötigen würde, um die Aufgabe gut zu erledigen. Für dieses Beispiel zum Kfz-Versicherungs-Kundensupport werden wir stückweise alle Teile für einen Prompt schreiben, beginnend mit der Aufgabe “Begrüßung und allgemeine Anleitung”. Dies macht auch das Debugging Ihres Prompts einfacher, da Sie einzelne Teile des Gesamtprompts schneller anpassen können.
Wir werden all diese Teile in einer Datei namens config.py
ablegen.
Wir werden dann dasselbe für unsere Autoversicherungs- und Elektroautoversicherungsinformationen tun.
Nachdem wir unseren statischen Inhalt haben, fügen wir mindestens 4-5 Beispiele für “gute” Interaktionen hinzu, um Claudes Antworten zu lenken. Diese Beispiele sollten repräsentativ für Ihre ideale Kundeninteraktion sein und können Leitplanken, Tool-Aufrufe usw. enthalten.
Sie sollten auch wichtige Anweisungen einbeziehen, die Do’s und Don’ts für die Art und Weise beschreiben, wie Claude mit dem Kunden interagieren sollte. Dies kann aus Marken-Leitplanken oder Support-Richtlinien abgeleitet werden.
Jetzt kombinieren wir alle diese Abschnitte zu einem einzigen String, den wir als unseren Prompt verwenden.
Fügen Sie dynamische und agentische Fähigkeiten mit Tool-Nutzung hinzu
Claude ist in der Lage, Aktionen auszuführen und Informationen dynamisch abzurufen, indem er die clientseitige Tool-Nutzungsfunktionalität verwendet. Beginnen Sie mit der Auflistung aller externen Tools oder APIs, die der Prompt nutzen sollte.
Für dieses Beispiel beginnen wir mit einem Tool zur Berechnung des Angebots.
Beispiel für einen Versicherungsangebotsrechner:
Stellen Sie Ihre Prompts bereit
Es ist schwer zu wissen, wie gut Ihr Prompt funktioniert, ohne ihn in einer Test-Produktionsumgebung bereitzustellen und Bewertungen durchzuführen. Lassen Sie uns also eine kleine Anwendung mit unserem Prompt, dem Anthropic SDK und Streamlit für eine Benutzeroberfläche erstellen.
In einer Datei namens chatbot.py
beginnen wir mit der Einrichtung der ChatBot-Klasse, die die Interaktionen mit dem Anthropic SDK kapselt.
Die Klasse sollte zwei Hauptmethoden haben: generate_message
und process_user_input
.
Bauen Sie Ihre Benutzeroberfläche
Testen Sie die Bereitstellung dieses Codes mit Streamlit unter Verwendung einer Hauptmethode. Diese main()
-Funktion richtet eine Streamlit-basierte Chat-Schnittstelle ein.
Wir werden dies in einer Datei namens app.py
tun
Führen Sie das Programm mit folgendem Befehl aus:
Bewerten Sie Ihre Prompts
Prompting erfordert oft Tests und Optimierung, um produktionsreif zu sein. Um die Einsatzbereitschaft Ihrer Lösung zu bestimmen, bewerten Sie die Chatbot-Leistung mit einem systematischen Prozess, der quantitative und qualitative Methoden kombiniert. Die Erstellung einer starken empirischen Bewertung basierend auf Ihren definierten Erfolgskriterien ermöglicht es Ihnen, Ihre Prompts zu optimieren.
Verbessern Sie die Leistung
In komplexen Szenarien kann es hilfreich sein, zusätzliche Strategien zur Leistungsverbesserung über Standard-Prompt-Engineering-Techniken und Leitplanken-Implementierungsstrategien hinaus zu berücksichtigen. Hier sind einige häufige Szenarien:
Reduzieren Sie die Latenz bei langem Kontext mit RAG
Bei der Verarbeitung großer Mengen statischer und dynamischer Kontexte kann das Einbeziehen aller Informationen im Prompt zu hohen Kosten, langsameren Antwortzeiten und dem Erreichen von Kontextfensterlimits führen. In diesem Szenario kann die Implementierung von Retrieval Augmented Generation (RAG)-Techniken die Leistung und Effizienz erheblich verbessern.
Durch die Verwendung von Embedding-Modellen wie Voyage, um Informationen in Vektordarstellungen umzuwandeln, können Sie ein skalierbares und reaktionsschnelleres System erstellen. Dieser Ansatz ermöglicht den dynamischen Abruf relevanter Informationen basierend auf der aktuellen Anfrage, anstatt alle möglichen Kontexte in jeden Prompt einzubeziehen.
Die Implementierung von RAG für Support-Anwendungsfälle RAG-Rezept hat nachweislich die Genauigkeit erhöht, die Antwortzeiten verkürzt und die API-Kosten in Systemen mit umfangreichen Kontextanforderungen reduziert.
Integrieren Sie Echtzeitdaten mit Tool-Nutzung
Bei der Bearbeitung von Anfragen, die Echtzeitinformationen erfordern, wie Kontostand oder Policendetails, sind embedding-basierte RAG-Ansätze nicht ausreichend. Stattdessen können Sie die Tool-Nutzung nutzen, um die Fähigkeit Ihres Chatbots, genaue Echtzeitantworten zu geben, erheblich zu verbessern. Sie können beispielsweise die Tool-Nutzung verwenden, um Kundeninformationen nachzuschlagen, Bestelldetails abzurufen und Bestellungen im Namen des Kunden zu stornieren.
Dieser Ansatz, beschrieben in unserem Tool-Nutzungs-Rezept für Kundendienstmitarbeiter, ermöglicht es Ihnen, Live-Daten nahtlos in die Antworten Ihres Claude zu integrieren und ein personalisierteres und effizienteres Kundenerlebnis zu bieten.
Stärken Sie Eingabe- und Ausgabe-Leitplanken
Bei der Bereitstellung eines Chatbots, insbesondere in Kundendienstszenarien, ist es entscheidend, Risiken im Zusammenhang mit Missbrauch, Anfragen außerhalb des Geltungsbereichs und unangemessenen Antworten zu verhindern. Während Claude von Natur aus widerstandsfähig gegen solche Szenarien ist, hier sind zusätzliche Schritte zur Stärkung Ihrer Chatbot-Leitplanken:
- Reduzieren Sie Halluzinationen: Implementieren Sie Faktenprüfungsmechanismen und Zitationen, um Antworten auf bereitgestellte Informationen zu stützen.
- Überprüfen Sie Informationen: Stellen Sie sicher, dass die Antworten des Agenten mit den Richtlinien Ihres Unternehmens und bekannten Fakten übereinstimmen.
- Vermeiden Sie vertragliche Verpflichtungen: Stellen Sie sicher, dass der Agent keine Versprechungen macht oder Vereinbarungen eingeht, zu denen er nicht autorisiert ist.
- Mildern Sie Jailbreaks: Verwenden Sie Methoden wie Harmlosigkeitsfilter und Eingabevalidierung, um zu verhindern, dass Benutzer Modellschwachstellen ausnutzen, mit dem Ziel, unangemessene Inhalte zu generieren.
- Vermeiden Sie die Erwähnung von Wettbewerbern: Implementieren Sie einen Wettbewerbererwähnungsfilter, um den Markenfokus zu erhalten und keine Produkte oder Dienstleistungen von Wettbewerbern zu erwähnen.
- Halten Sie Claude in seiner Rolle: Verhindern Sie, dass Claude seinen Stil oder Kontext ändert, auch während langer, komplexer Interaktionen.
- Entfernen Sie personenbezogene Daten (PII): Sofern nicht ausdrücklich erforderlich und autorisiert, entfernen Sie alle PII aus den Antworten.
Reduzieren Sie die wahrgenommene Antwortzeit mit Streaming
Bei potenziell langen Antworten kann die Implementierung von Streaming das Benutzerengagement und die Zufriedenheit erheblich verbessern. In diesem Szenario erhalten Benutzer die Antwort schrittweise, anstatt auf die Generierung der gesamten Antwort zu warten.
So implementieren Sie Streaming:
- Verwenden Sie die Anthropic Streaming API, um Streaming-Antworten zu unterstützen.
- Richten Sie Ihr Frontend ein, um eingehende Textblöcke zu verarbeiten.
- Zeigen Sie jeden Block an, sobald er eintrifft, und simulieren Sie so Echtzeit-Tippen.
- Implementieren Sie einen Mechanismus zum Speichern der vollständigen Antwort, damit Benutzer sie ansehen können, wenn sie wegnavigieren und zurückkehren.
In einigen Fällen ermöglicht Streaming die Verwendung fortschrittlicherer Modelle mit höheren Basislatenzzeiten, da die progressive Anzeige die Auswirkungen längerer Verarbeitungszeiten mildert.
Skalieren Sie Ihren Chatbot
Mit zunehmender Komplexität Ihres Chatbots kann sich Ihre Anwendungsarchitektur entsprechend weiterentwickeln. Bevor Sie weitere Schichten zu Ihrer Architektur hinzufügen, erwägen Sie die folgenden weniger umfassenden Optionen:
- Stellen Sie sicher, dass Sie das Beste aus Ihren Prompts herausholen und durch Prompt-Engineering optimieren. Verwenden Sie unsere Prompt-Engineering-Leitfäden, um die effektivsten Prompts zu schreiben.
- Fügen Sie dem Prompt zusätzliche Tools hinzu (die Prompt-Ketten enthalten können) und prüfen Sie, ob Sie die erforderliche Funktionalität erreichen können.
Wenn Ihr Chatbot un glaublich vielfältige Aufgaben bewältigt, sollten Sie in Betracht ziehen, einen separaten Intent-Klassifikator hinzuzufügen, um die erste Kundenanfrage zu leiten. Für die bestehende Anwendung würde dies die Erstellung eines Entscheidungsbaums beinhalten, der Kundenanfragen durch den Klassifikator und dann zu spezialisierten Gesprächen (mit eigenen Tools und System-Prompts) leiten würde. Beachten Sie, dass diese Methode einen zusätzlichen Aufruf an Claude erfordert, der die Latenz erhöhen kann.
Integrieren Sie Claude in Ihren Support-Workflow
Während sich unsere Beispiele auf Python-Funktionen konzentriert haben, die in einer Streamlit-Umgebung aufgerufen werden können, erfordert die Bereitstellung von Claude für Echtzeit-Support-Chatbots einen API-Dienst.
So können Sie vorgehen:
-
Erstellen Sie einen API-Wrapper: Entwickeln Sie einen einfachen API-Wrapper um Ihre Klassifizierungsfunktion. Sie können beispielsweise Flask API oder Fast API verwenden, um Ihren Code in einen HTTP-Dienst zu verpacken. Ihr HTTP-Dienst könnte die Benutzereingabe akzeptieren und die Assistentenantwort vollständig zurückgeben. Ihr Dienst könnte also die folgenden Eigenschaften haben:
- Server-Sent Events (SSE): SSE ermöglicht das Echtzeit-Streaming von Antworten vom Server zum Client. Dies ist entscheidend für ein reibungsloses, interaktives Erlebnis bei der Arbeit mit LLMs.
- Caching: Die Implementierung von Caching kann die Antwortzeiten erheblich verbessern und unnötige API-Aufrufe reduzieren.
- Kontextbeibehaltung: Die Aufrechterhaltung des Kontexts, wenn ein Benutzer wegnavigiert und zurückkehrt, ist wichtig für die Kontinuität in Gesprächen.
-
Bauen Sie eine Webschnittstelle: Implementieren Sie eine benutzerfreundliche Web-UI für die Interaktion mit dem Claude-gestützten Agenten.