Inhaltsmoderation
Inhaltsmoderation ist ein entscheidender Aspekt bei der Aufrechterhaltung einer sicheren, respektvollen und produktiven Umgebung in digitalen Anwendungen. In diesem Leitfaden besprechen wir, wie Claude zur Moderation von Inhalten in Ihrer digitalen Anwendung eingesetzt werden kann.
Besuchen Sie unser Inhaltsmoderationshandbuch, um ein Beispiel für die Implementierung der Inhaltsmoderation mit Claude zu sehen.
Vor dem Aufbau mit Claude
Entscheiden Sie, ob Sie Claude für die Inhaltsmoderation verwenden möchten
Hier sind einige wichtige Indikatoren dafür, dass Sie ein LLM wie Claude anstelle eines traditionellen ML- oder regelbasierten Ansatzes für die Inhaltsmoderation verwenden sollten:
Generieren Sie Beispiele für zu moderierende Inhalte
Bevor Sie eine Inhaltsmoderationsslösung entwickeln, erstellen Sie zunächst Beispiele für Inhalte, die gekennzeichnet werden sollten, und Inhalte, die nicht gekennzeichnet werden sollten. Stellen Sie sicher, dass Sie Grenzfälle und herausfordernde Szenarien einbeziehen, die für ein Inhaltsmoderationsystem schwierig zu handhaben sein könnten. Überprüfen Sie anschließend Ihre Beispiele, um eine klar definierte Liste von Moderationskategorien zu erstellen. Die von einer Social-Media-Plattform generierten Beispiele könnten beispielsweise Folgendes umfassen:
Die effektive Moderation dieser Beispiele erfordert ein nuanciertes Sprachverständnis. In dem Kommentar This movie was great, I really enjoyed it. The main actor really killed it!
muss das Inhaltsmoderationsystem erkennen, dass “killed it” eine Metapher ist und kein Hinweis auf tatsächliche Gewalt. Umgekehrt sollte der Kommentar Delete this post now or you better hide. I am coming after you and your family.
trotz des Fehlens expliziter Gewalterwähnungen vom Inhaltsmoderationsystem gekennzeichnet werden.
Die Liste unsafe_categories
kann an Ihre spezifischen Bedürfnisse angepasst werden. Wenn Sie beispielsweise verhindern möchten, dass Minderjährige Inhalte auf Ihrer Website erstellen, könnten Sie “Underage Posting” zur Liste hinzufügen.
Wie man Inhalte mit Claude moderiert
Wählen Sie das richtige Claude-Modell
Bei der Auswahl eines Modells ist es wichtig, die Größe Ihrer Daten zu berücksichtigen. Wenn Kosten ein Anliegen sind, ist ein kleineres Modell wie Claude Haiku 3 aufgrund seiner Kosteneffizienz eine ausgezeichnete Wahl. Nachfolgend finden Sie eine Schätzung der Kosten für die Moderation von Texten für eine Social-Media-Plattform, die eine Milliarde Beiträge pro Monat erhält:
-
Inhaltsgröße
- Beiträge pro Monat: 1 Mrd.
- Zeichen pro Beitrag: 100
- Gesamtzeichen: 100 Mrd.
-
Geschätzte Tokens
- Input-Tokens: 28,6 Mrd. (unter der Annahme von 1 Token pro 3,5 Zeichen)
- Prozentsatz der gekennzeichneten Nachrichten: 3%
- Output-Tokens pro gekennzeichneter Nachricht: 50
- Gesamtzahl der Output-Tokens: 1,5 Mrd.
-
Claude Haiku 3 geschätzte Kosten
- Kosten für Input-Tokens: 2.860 MTok * 0,25
- Kosten für Output-Tokens: 1.500 MTok * 1,25
- Monatliche Kosten: 715 = 2.590 $
-
Claude Sonnet 4 geschätzte Kosten
- Kosten für Input-Tokens: 2.860 MTok * 3,00
- Kosten für Output-Tokens: 1.500 MTok * 15,00
- Monatliche Kosten: 8.580 = 31.080 $
explanation
aus der Antwort entfernt wird.Erstellen Sie einen starken Prompt
Um Claude für die Inhaltsmoderation zu verwenden, muss Claude die Moderationsanforderungen Ihrer Anwendung verstehen. Beginnen wir mit dem Schreiben eines Prompts, mit dem Sie Ihre Moderationsbedürfnisse definieren können:
In diesem Beispiel enthält die Funktion moderate_message
einen Bewertungsprompt, der die unsicheren Inhaltskategorien und die Nachricht, die wir bewerten möchten, enthält. Der Prompt fordert Claude auf, zu beurteilen, ob die Nachricht moderiert werden sollte, basierend auf den von uns definierten unsicheren Kategorien.
Die Bewertung des Modells wird dann analysiert, um festzustellen, ob ein Verstoß vorliegt. Wenn ein Verstoß vorliegt, gibt Claude auch eine Liste der verletzten Kategorien sowie eine Erklärung zurück, warum die Nachricht unsicher ist.
Bewerten Sie Ihren Prompt
Inhaltsmoderation ist ein Klassifikationsproblem. Daher können Sie die gleichen Techniken verwenden, die in unserem Klassifikationshandbuch beschrieben sind, um die Genauigkeit Ihres Inhaltsmoderationsystems zu bestimmen.
Eine zusätzliche Überlegung ist, dass Sie die Inhaltsmoderation nicht als binäres Klassifikationsproblem behandeln, sondern stattdessen mehrere Kategorien erstellen können, um verschiedene Risikoniveaus darzustellen. Die Erstellung mehrerer Risikoniveaus ermöglicht es Ihnen, die Aggressivität Ihrer Moderation anzupassen. Beispielsweise möchten Sie möglicherweise Benutzeranfragen, die als hochriskant eingestuft werden, automatisch blockieren, während Benutzer mit vielen mittelriskanten Anfragen für eine manuelle Überprüfung gekennzeichnet werden.
Dieser Code implementiert eine Funktion assess_risk_level
, die Claude verwendet, um das Risikoniveau einer Nachricht zu bewerten. Die Funktion akzeptiert eine Nachricht und eine Liste unsicherer Kategorien als Eingaben.
Innerhalb der Funktion wird ein Prompt für Claude generiert, der die zu bewertende Nachricht, die unsicheren Kategorien und spezifische Anweisungen zur Bewertung des Risikoniveaus enthält. Der Prompt weist Claude an, mit einem JSON-Objekt zu antworten, das das Risikoniveau, die verletzten Kategorien und eine optionale Erklärung enthält.
Dieser Ansatz ermöglicht eine flexible Inhaltsmoderation durch Zuweisung von Risikoniveaus. Er kann nahtlos in ein größeres System integriert werden, um die Inhaltsfilterung zu automatisieren oder Kommentare basierend auf ihrem bewerteten Risikoniveau für eine manuelle Überprüfung zu kennzeichnen. Beispielsweise wird bei der Ausführung dieses Codes der Kommentar Delete this post now or you better hide. I am coming after you and your family.
aufgrund seiner gefährlichen Drohung als hochriskant eingestuft. Im Gegensatz dazu wird der Kommentar Stay away from the 5G cellphones!! They are using 5G to control you.
als mittelriskant eingestuft.
Setzen Sie Ihren Prompt ein
Sobald Sie von der Qualität Ihrer Lösung überzeugt sind, ist es Zeit, sie in die Produktion zu bringen. Hier sind einige Best Practices, die Sie bei der Verwendung von Inhaltsmoderation in der Produktion befolgen sollten:
-
Geben Sie den Benutzern klares Feedback: Wenn Benutzereingaben blockiert oder eine Antwort aufgrund von Inhaltsmoderation gekennzeichnet wird, geben Sie informatives und konstruktives Feedback, um den Benutzern zu helfen, zu verstehen, warum ihre Nachricht gekennzeichnet wurde und wie sie sie angemessen umformulieren können. In den obigen Codebeispielen geschieht dies durch das Tag
explanation
in der Claude-Antwort. -
Analysieren Sie moderierte Inhalte: Verfolgen Sie die Arten von Inhalten, die von Ihrem Moderationssystem gekennzeichnet werden, um Trends und potenzielle Verbesserungsbereiche zu identifizieren.
-
Kontinuierliche Bewertung und Verbesserung: Bewerten Sie regelmäßig die Leistung Ihres Inhaltsmoderationsystems anhand von Metriken wie Präzision und Recall-Tracking. Verwenden Sie diese Daten, um Ihre Moderationsprompts, Schlüsselwörter und Bewertungskriterien iterativ zu verfeinern.
Leistung verbessern
In komplexen Szenarien kann es hilfreich sein, zusätzliche Strategien zur Leistungsverbesserung über die Standard-Prompt-Engineering-Techniken hinaus zu berücksichtigen. Hier sind einige fortgeschrittene Strategien:
Themen definieren und Beispiele bereitstellen
Zusätzlich zur Auflistung der unsicheren Kategorien im Prompt können weitere Verbesserungen erzielt werden, indem Definitionen und Phrasen zu jeder Kategorie bereitgestellt werden.
Die Funktion moderate_message_with_definitions
erweitert die frühere Funktion moderate_message
, indem sie es ermöglicht, jede unsichere Kategorie mit einer detaillierten Definition zu koppeln. Dies geschieht im Code, indem die Liste unsafe_categories
aus der ursprünglichen Funktion durch ein Wörterbuch unsafe_category_definitions
ersetzt wird. Dieses Wörterbuch ordnet jeder unsicheren Kategorie ihre entsprechende Definition zu. Sowohl die Kategorienamen als auch ihre Definitionen sind im Prompt enthalten.
Bemerkenswert ist, dass die Definition für die Kategorie Specialized Advice
nun die Arten von Finanzberatung spezifiziert, die verboten sein sollten. Infolgedessen löst der Kommentar It's a great time to invest in gold!
, der zuvor die Bewertung von moderate_message
bestanden hat, jetzt einen Verstoß aus.
Erwägen Sie die Stapelverarbeitung
Um Kosten in Situationen zu senken, in denen keine Echtzeitmoderation erforderlich ist, erwägen Sie die Moderation von Nachrichten in Stapeln. Fügen Sie mehrere Nachrichten in den Kontext des Prompts ein und bitten Sie Claude zu beurteilen, welche Nachrichten moderiert werden sollten.
In diesem Beispiel behandelt die Funktion batch_moderate_messages
die Moderation eines gesamten Stapels von Nachrichten mit einem einzigen Claude API-Aufruf.
Innerhalb der Funktion wird ein Prompt erstellt, der die Liste der zu bewertenden Nachrichten, die definierten unsicheren Inhaltskategorien und ihre Beschreibungen enthält. Der Prompt weist Claude an, ein JSON-Objekt zurückzugeben, das alle Nachrichten auflistet, die Verstöße enthalten. Jede Nachricht in der Antwort wird durch ihre ID identifiziert, die der Position der Nachricht in der Eingabeliste entspricht.
Beachten Sie, dass das Finden der optimalen Stapelgröße für Ihre spezifischen Bedürfnisse einige Experimente erfordern kann. Während größere Stapelgrößen die Kosten senken können, können sie auch zu einer leichten Qualitätsminderung führen. Zusätzlich müssen Sie möglicherweise den Parameter max_tokens
im Claude API-Aufruf erhöhen, um längere Antworten zu ermöglichen. Einzelheiten zur maximalen Anzahl von Tokens, die Ihr gewähltes Modell ausgeben kann, finden Sie auf der Modellvergleichsseite.