Defina se deve usar o Claude para roteamento de tickets

Aqui estão alguns indicadores-chave de que você deve usar um LLM como o Claude em vez de abordagens tradicionais de ML para sua tarefa de classificação:


Construa e implemente seu fluxo de trabalho de suporte com LLM

Entenda sua abordagem atual de suporte

Antes de mergulhar na automação, é crucial entender seu sistema de tickets existente. Comece investigando como sua equipe de suporte atualmente lida com o roteamento de tickets.

Considere perguntas como:

  • Quais critérios são usados para determinar qual SLA/oferta de serviço é aplicada?
  • O roteamento de tickets é usado para determinar para qual nível de suporte ou especialista de produto um ticket vai?
  • Existem regras ou fluxos de trabalho automatizados já em vigor? Em quais casos eles falham?
  • Como são tratados os casos extremos ou tickets ambíguos?
  • Como a equipe prioriza os tickets?

Quanto mais você souber sobre como os humanos lidam com certos casos, melhor poderá trabalhar com o Claude para realizar a tarefa.

Defina categorias de intenção do usuário

Uma lista bem definida de categorias de intenção do usuário é crucial para a classificação precisa de tickets de suporte com o Claude. A capacidade do Claude de rotear tickets efetivamente dentro do seu sistema é diretamente proporcional a quão bem definidas são as categorias do seu sistema.

Aqui estão algumas categorias e subcategorias de intenção do usuário de exemplo.

Além da intenção, o roteamento e a priorização de tickets também podem ser influenciados por outros fatores, como urgência, tipo de cliente, SLAs ou idioma. Certifique-se de considerar outros critérios de roteamento ao construir seu sistema de roteamento automatizado.

Estabeleça critérios de sucesso

Trabalhe com sua equipe de suporte para definir critérios claros de sucesso com referências mensuráveis, limiares e metas.

Aqui estão alguns critérios e referências padrão ao usar LLMs para roteamento de tickets de suporte:

Aqui estão alguns critérios comuns de sucesso que podem ser úteis independentemente de um LLM ser usado:

Escolha o modelo Claude certo

A escolha do modelo depende dos trade-offs entre custo, precisão e tempo de resposta.

Muitos clientes consideram o claude-3-5-haiku-20241022 um modelo ideal para roteamento de tickets, pois é o modelo mais rápido e econômico da família Claude 3, enquanto ainda entrega excelentes resultados. Se seu problema de classificação requer profunda expertise no assunto ou um grande volume de categorias de intenção com raciocínio complexo, você pode optar pelo modelo Sonnet maior.

Construa um prompt forte

O roteamento de tickets é um tipo de tarefa de classificação. O Claude analisa o conteúdo de um ticket de suporte e o classifica em categorias predefinidas com base no tipo de problema, urgência, expertise necessária ou outros fatores relevantes.

Vamos escrever um prompt de classificação de tickets. Nosso prompt inicial deve conter o conteúdo da solicitação do usuário e retornar tanto o raciocínio quanto a intenção.

Experimente o gerador de prompts no Console Anthropic para que o Claude escreva um primeiro rascunho para você.

Aqui está um exemplo de prompt de classificação para roteamento de tickets:

def classify_support_request(ticket_contents):
    # Define the prompt for the classification task
    classification_prompt = f"""You will be acting as a customer support ticket classification system. Your task is to analyze customer support requests and output the appropriate classification intent for each request, along with your reasoning. 

        Here is the customer support request you need to classify:

        <request>{ticket_contents}</request>

        Please carefully analyze the above request to determine the customer's core intent and needs. Consider what the customer is asking for has concerns about.

        First, write out your reasoning and analysis of how to classify this request inside <reasoning> tags.

        Then, output the appropriate classification label for the request inside a <intent> tag. The valid intents are:
        <intents>
        <intent>Support, Feedback, Complaint</intent>
        <intent>Order Tracking</intent>
        <intent>Refund/Exchange</intent>
        </intents>

        A request may have ONLY ONE applicable intent. Only include the intent that is most applicable to the request.

        As an example, consider the following request:
        <request>Hello! I had high-speed fiber internet installed on Saturday and my installer, Kevin, was absolutely fantastic! Where can I send my positive review? Thanks for your help!</request>

        Here is an example of how your output should be formatted (for the above example request):
        <reasoning>The user seeks information in order to leave positive feedback.</reasoning>
        <intent>Support, Feedback, Complaint</intent>

        Here are a few more examples:
        <examples>
        <example 2>
        Example 2 Input:
        <request>I wanted to write and personally thank you for the compassion you showed towards my family during my father's funeral this past weekend. Your staff was so considerate and helpful throughout this whole process; it really took a load off our shoulders. The visitation brochures were beautiful. We'll never forget the kindness you showed us and we are so appreciative of how smoothly the proceedings went. Thank you, again, Amarantha Hill on behalf of the Hill Family.</request>

        Example 2 Output:
        <reasoning>User leaves a positive review of their experience.</reasoning>
        <intent>Support, Feedback, Complaint</intent>
        </example 2>
        <example 3>

        ...

        </example 8>
        <example 9>
        Example 9 Input:
        <request>Your website keeps sending ad-popups that block the entire screen. It took me twenty minutes just to finally find the phone number to call and complain. How can I possibly access my account information with all of these popups? Can you access my account for me, since your website is broken? I need to know what the address is on file.</request>

        Example 9 Output:
        <reasoning>The user requests help accessing their web account information.</reasoning>
        <intent>Support, Feedback, Complaint</intent>
        </example 9>

        Remember to always include your classification reasoning before your actual intent output. The reasoning should be enclosed in <reasoning> tags and the intent in <intent> tags. Return only the reasoning and the intent.
        """

Vamos decompor os componentes-chave deste prompt:

  • Usamos f-strings do Python para criar o modelo de prompt, permitindo que o ticket_contents seja inserido nas tags <request>.
  • Damos ao Claude um papel claramente definido como um sistema de classificação que analisa cuidadosamente o conteúdo do ticket para determinar a intenção e necessidades principais do cliente.
  • Instruímos o Claude sobre a formatação adequada de saída, neste caso para fornecer seu raciocínio e análise dentro das tags <reasoning>, seguido pelo rótulo de classificação apropriado dentro das tags <intent>.
  • Especificamos as categorias válidas de intenção: “Support, Feedback, Complaint”, “Order Tracking” e “Refund/Exchange”.
  • Incluímos alguns exemplos (também conhecido como few-shot prompting) para ilustrar como a saída deve ser formatada, o que melhora a precisão e consistência.

A razão pela qual queremos que o Claude divida sua resposta em várias seções de tags XML é para que possamos usar expressões regulares para extrair separadamente o raciocínio e a intenção da saída. Isso nos permite criar próximos passos direcionados no fluxo de trabalho de roteamento de tickets, como usar apenas a intenção para decidir para qual pessoa rotear o ticket.

Implemente seu prompt

É difícil saber quão bem seu prompt funciona sem implantá-lo em um ambiente de produção de teste e executar avaliações.

Vamos construir a estrutura de implantação. Comece definindo a assinatura do método para encapsular nossa chamada ao Claude. Vamos pegar o método que já começamos a escrever, que tem ticket_contents como entrada, e agora retornar uma tupla de reasoning e intent como saída. Se você tem uma automação existente usando ML tradicional, você vai querer seguir essa assinatura de método.

import anthropic
import re

# Create an instance of the Anthropic API client
client = anthropic.Anthropic()

# Set the default model
DEFAULT_MODEL="claude-3-5-haiku-20241022"

def classify_support_request(ticket_contents):
    # Define the prompt for the classification task
    classification_prompt = f"""You will be acting as a customer support ticket classification system. 
        ...
        ... The reasoning should be enclosed in <reasoning> tags and the intent in <intent> tags. Return only the reasoning and the intent.
        """
    # Send the prompt to the API to classify the support request.
    message = client.messages.create(
        model=DEFAULT_MODEL,
        max_tokens=500,
        temperature=0,
        messages=[{"role": "user", "content": classification_prompt}],
        stream=False,
    )
    reasoning_and_intent = message.content[0].text

    # Use Python's regular expressions library to extract `reasoning`.
    reasoning_match = re.search(
        r"<reasoning>(.*?)</reasoning>", reasoning_and_intent, re.DOTALL
    )
    reasoning = reasoning_match.group(1).strip() if reasoning_match else ""

    #Similarly, also extract the `intent`.
    intent_match = re.search(r"<intent>(.*?)</intent>", reasoning_and_intent, re.DOTALL)
    intent = intent_match.group(1).strip() if intent_match else ""

    return reasoning, intent

Este código:

  • Importa a biblioteca Anthropic e cria uma instância de cliente usando sua chave de API.
  • Define uma função classify_support_request que recebe uma string ticket_contents.
  • Envia o ticket_contents para o Claude para classificação usando o classification_prompt
  • Retorna o reasoning e intent do modelo extraídos da resposta.

Como precisamos esperar que todo o texto de raciocínio e intenção seja gerado antes de analisar, definimos stream=False (o padrão).


Avalie seu prompt

O prompting frequentemente requer testes e otimização para estar pronto para produção. Para determinar a prontidão da sua solução, avalie o desempenho com base nos critérios de sucesso e limiares que você estabeleceu anteriormente.

Para executar sua avaliação, você precisará de casos de teste para executá-la. O restante deste guia assume que você já desenvolveu seus casos de teste.

Construa uma função de avaliação

Nossa avaliação de exemplo para este guia mede o desempenho do Claude ao longo de três métricas-chave:

  • Precisão
  • Custo por classificação

Você pode precisar avaliar o Claude em outros eixos, dependendo dos fatores que são importantes para você.

Para avaliar isso, primeiro temos que modificar o script que escrevemos e adicionar uma função para comparar a intenção prevista com a intenção real e calcular a porcentagem de previsões corretas. Também temos que adicionar funcionalidade de cálculo de custo e medição de tempo.

import anthropic
import re

# Create an instance of the Anthropic API client
client = anthropic.Anthropic()

# Set the default model
DEFAULT_MODEL="claude-3-5-haiku-20241022"

def classify_support_request(request, actual_intent):
    # Define the prompt for the classification task
    classification_prompt = f"""You will be acting as a customer support ticket classification system. 
        ...
        ...The reasoning should be enclosed in <reasoning> tags and the intent in <intent> tags. Return only the reasoning and the intent.
        """

    message = client.messages.create(
        model=DEFAULT_MODEL,
        max_tokens=500,
        temperature=0,
        messages=[{"role": "user", "content": classification_prompt}],
    )
    usage = message.usage  # Get the usage statistics for the API call for how many input and output tokens were used.
    reasoning_and_intent = message.content[0].text

    # Use Python's regular expressions library to extract `reasoning`.
    reasoning_match = re.search(
        r"<reasoning>(.*?)</reasoning>", reasoning_and_intent, re.DOTALL
    )
    reasoning = reasoning_match.group(1).strip() if reasoning_match else ""

    # Similarly, also extract the `intent`.
    intent_match = re.search(r"<intent>(.*?)</intent>", reasoning_and_intent, re.DOTALL)
    intent = intent_match.group(1).strip() if intent_match else ""

      # Check if the model's prediction is correct.
    correct = actual_intent.strip() == intent.strip()

    # Return the reasoning, intent, correct, and usage.
    return reasoning, intent, correct, usage

Vamos decompor as edições que fizemos:

  • Adicionamos o actual_intent dos nossos casos de teste no método classify_support_request e configuramos uma comparação para avaliar se a classificação de intenção do Claude corresponde à nossa classificação de intenção dourada.
  • Extraímos estatísticas de uso para a chamada de API para calcular o custo com base nos tokens de entrada e saída usados

Execute sua avaliação

Uma avaliação adequada requer limiares claros e referências para determinar o que é um bom resultado. O script acima nos dará os valores de tempo de execução para precisão, tempo de resposta e custo por classificação, mas ainda precisaríamos de limiares claramente estabelecidos. Por exemplo:

  • Precisão: 95% (de 100 testes)
  • Custo por classificação: 50% de redução em média (em 100 testes) do método de roteamento atual

Ter esses limiares permite que você determine rápida e facilmente em escala, e com empirismo imparcial, qual método é melhor para você e quais mudanças podem precisar ser feitas para melhor atender às suas necessidades.


Melhore o desempenho

Em cenários complexos, pode ser útil considerar estratégias adicionais para melhorar o desempenho além das técnicas padrão de engenharia de prompts e estratégias de implementação de guardrails. Aqui estão alguns cenários comuns:

Use uma hierarquia taxonômica para casos com mais de 20 categorias de intenção

À medida que o número de classes cresce, o número de exemplos necessários também se expande, potencialmente tornando o prompt difícil de manejar. Como alternativa, você pode considerar implementar um sistema de classificação hierárquico usando uma mistura de classificadores.

  1. Organize suas intenções em uma estrutura de árvore taxonômica.
  2. Crie uma série de classificadores em cada nível da árvore, permitindo uma abordagem de roteamento em cascata.

Por exemplo, você pode ter um classificador de nível superior que categoriza amplamente os tickets em “Problemas Técnicos”, “Questões de Faturamento” e “Consultas Gerais”. Cada uma dessas categorias pode então ter seu próprio subclassificador para refinar ainda mais a classificação.

  • Prós - maior nuance e precisão: Você pode criar diferentes prompts para cada caminho pai, permitindo classificação mais direcionada e específica ao contexto. Isso pode levar a uma precisão melhorada e tratamento mais nuançado das solicitações dos clientes.

  • Contras - latência aumentada: Esteja ciente de que múltiplos classificadores podem levar a uma latência aumentada, e recomendamos implementar esta abordagem com nosso modelo mais rápido, o Haiku.

Use bancos de dados vetoriais e recuperação de pesquisa de similaridade para lidar com tickets altamente variáveis

Apesar de fornecer exemplos ser a maneira mais eficaz de melhorar o desempenho, se as solicitações de suporte são altamente variáveis, pode ser difícil incluir exemplos suficientes em um único prompt.

Neste cenário, você poderia empregar um banco de dados vetorial para fazer pesquisas de similaridade a partir de um conjunto de dados de exemplos e recuperar os exemplos mais relevantes para uma determinada consulta.

Esta abordagem, detalhada em nossa receita de classificação, mostrou melhorar o desempenho de 71% de precisão para 93% de precisão.

Considere especificamente casos extremos esperados

Aqui estão alguns cenários onde o Claude pode classificar incorretamente tickets (pode haver outros que são únicos para sua situação). Nestes cenários, considere fornecer instruções explícitas ou exemplos no prompt de como o Claude deve lidar com o caso extremo:


Integre o Claude em seu fluxo de trabalho de suporte maior

A integração adequada requer que você tome algumas decisões sobre como seu script de roteamento de tickets baseado no Claude se encaixa na arquitetura do seu sistema de roteamento de tickets maior. Existem duas maneiras de fazer isso:

  • Baseado em push: O sistema de ticket de suporte que você está usando (por exemplo, Zendesk) aciona seu código enviando um evento de webhook para seu serviço de roteamento, que então classifica a intenção e a roteia.
    • Esta abordagem é mais escalável para web, mas precisa que você exponha um endpoint público.
  • Baseado em pull: Seu código puxa os últimos tickets com base em uma programação e os roteia no momento do pull.
    • Esta abordagem é mais fácil de implementar, mas pode fazer chamadas desnecessárias para o sistema de tickets de suporte quando a frequência de pull é muito alta ou pode ser excessivamente lenta quando a frequência de pull é muito baixa.

Para qualquer uma dessas abordagens, você precisará envolver seu script em um serviço. A escolha da abordagem depende de quais APIs seu sistema de tickets de suporte fornece.