Antes de implementar embeddings

Al seleccionar un proveedor de embeddings, hay varios factores que puedes considerar según tus necesidades y preferencias:

  • Tamaño del conjunto de datos y especificidad del dominio: tamaño del conjunto de datos de entrenamiento del modelo y su relevancia para el dominio que deseas embeber. Datos más grandes o más específicos del dominio generalmente producen mejores embeddings en el dominio
  • Rendimiento de inferencia: velocidad de búsqueda de embeddings y latencia de extremo a extremo. Esta es una consideración particularmente importante para implementaciones de producción a gran escala
  • Personalización: opciones para continuar el entrenamiento con datos privados o especialización de modelos para dominios muy específicos. Esto puede mejorar el rendimiento en vocabularios únicos

Cómo obtener embeddings con Anthropic

Anthropic no ofrece su propio modelo de embedding. Un proveedor de embeddings que tiene una amplia variedad de opciones y capacidades que abarcan todas las consideraciones anteriores es Voyage AI.

Voyage AI crea modelos de embedding de última generación y ofrece modelos personalizados para dominios industriales específicos como finanzas y salud, o modelos ajustados a medida para clientes individuales.

El resto de esta guía es para Voyage AI, pero te animamos a evaluar una variedad de proveedores de embeddings para encontrar la mejor opción para tu caso de uso específico.

Modelos Disponibles

Voyage recomienda usar los siguientes modelos de embedding de texto:

ModeloLongitud de ContextoDimensión del EmbeddingDescripción
voyage-3-large32,0001024 (predeterminado), 256, 512, 2048La mejor calidad de recuperación para propósito general y multilingüe.
voyage-332,0001024Optimizado para calidad de recuperación de propósito general y multilingüe. Ver publicación del blog para más detalles.
voyage-3-lite32,000512Optimizado para latencia y costo. Ver publicación del blog para más detalles.
voyage-code-332,0001024 (predeterminado), 256, 512, 2048Optimizado para recuperación de código. Ver publicación del blog para más detalles.
voyage-finance-232,0001024Optimizado para recuperación y RAG de finanzas. Ver publicación del blog para más detalles.
voyage-law-216,0001024Optimizado para recuperación y RAG legal y de contexto largo. También mejoró el rendimiento en todos los dominios. Ver publicación del blog para más detalles.

Adicionalmente, se recomiendan los siguientes modelos de embedding multimodal:

ModeloLongitud de ContextoDimensión del EmbeddingDescripción
voyage-multimodal-3320001024Modelo de embedding multimodal rico que puede vectorizar texto intercalado e imágenes ricas en contenido, como capturas de pantalla de PDFs, diapositivas, tablas, figuras y más. Ver publicación del blog para más detalles.

¿Necesitas ayuda para decidir qué modelo de embedding de texto usar? Consulta las FAQ.

Comenzando con Voyage AI

Para acceder a los embeddings de Voyage:

  1. Regístrate en el sitio web de Voyage AI
  2. Obtén una clave API
  3. Configura la clave API como una variable de entorno para mayor comodidad:
export VOYAGE_API_KEY="<tu clave secreta>"

Puedes obtener los embeddings usando el paquete oficial de Python voyageai o mediante solicitudes HTTP, como se describe a continuación.

Paquete Python de Voyage

El paquete voyageai se puede instalar usando el siguiente comando:

pip install -U voyageai

Luego, puedes crear un objeto cliente y comenzar a usarlo para embeber tus textos:

import voyageai

vo = voyageai.Client()
# Esto usará automáticamente la variable de entorno VOYAGE_API_KEY.
# Alternativamente, puedes usar vo = voyageai.Client(api_key="<tu clave secreta>")

texts = ["Texto de ejemplo 1", "Texto de ejemplo 2"]

result = vo.embed(texts, model="voyage-3", input_type="document")
print(result.embeddings[0])
print(result.embeddings[1])

result.embeddings será una lista de dos vectores de embedding, cada uno conteniendo 1024 números de punto flotante. Después de ejecutar el código anterior, los dos embeddings se imprimirán en la pantalla:

[0.02012746, 0.01957859, ...]  # embedding para "Texto de ejemplo 1"
[0.01429677, 0.03077182, ...]  # embedding para "Texto de ejemplo 2"

Al crear los embeddings, también puedes especificar algunos otros argumentos para la función embed(). Puedes leer más sobre la especificación aquí

API HTTP de Voyage

También puedes obtener embeddings solicitando la API HTTP de Voyage. Por ejemplo, puedes enviar una solicitud HTTP a través del comando curl en una terminal:

curl https://api.voyageai.com/v1/embeddings \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $VOYAGE_API_KEY" \
  -d '{
    "input": ["Texto de ejemplo 1", "Texto de ejemplo 2"],
    "model": "voyage-3"
  }'

La respuesta que obtendrías es un objeto JSON que contiene los embeddings y el uso de tokens:

{
  "object": "list",
  "data": [
    {
      "embedding": [0.02012746, 0.01957859, ...],
      "index": 0
    },
    {
      "embedding": [0.01429677, 0.03077182, ...],
      "index": 1
    }
  ],
  "model": "voyage-3",
  "usage": {
    "total_tokens": 10
  }
}

Puedes leer más sobre el endpoint de embedding en la documentación de Voyage

AWS Marketplace

Los embeddings de Voyage también están disponibles en AWS Marketplace. Las instrucciones para acceder a Voyage en AWS están disponibles aquí.

Ejemplo de Inicio Rápido

Ahora que sabemos cómo obtener embeddings, veamos un breve ejemplo.

Supongamos que tenemos un pequeño corpus de seis documentos para recuperar

documents = [
    "La dieta mediterránea enfatiza el pescado, aceite de oliva y verduras, se cree que reduce las enfermedades crónicas.",
    "La fotosíntesis en las plantas convierte la energía luminosa en glucosa y produce oxígeno esencial.",
    "Las innovaciones del siglo XX, desde radios hasta smartphones, se centraron en avances electrónicos.",
    "Los ríos proporcionan agua, irrigación y hábitat para especies acuáticas, vitales para los ecosistemas.",
    "La conferencia telefónica de Apple para discutir los resultados del cuarto trimestre fiscal y actualizaciones comerciales está programada para el jueves 2 de noviembre de 2023 a las 2:00 p.m. PT / 5:00 p.m. ET.",
    "Las obras de Shakespeare, como 'Hamlet' y 'Sueño de una noche de verano', perduran en la literatura."
]

Primero usaremos Voyage para convertir cada uno de ellos en un vector de embedding

import voyageai

vo = voyageai.Client()

# Embeber los documentos
doc_embds = vo.embed(
    documents, model="voyage-3", input_type="document"
).embeddings

Los embeddings nos permitirán hacer búsqueda semántica / recuperación en el espacio vectorial. Dado un ejemplo de consulta,

query = "¿Cuándo está programada la conferencia telefónica de Apple?"

lo convertimos en un embedding y realizamos una búsqueda de vecinos más cercanos para encontrar el documento más relevante basado en la distancia en el espacio de embedding.

import numpy as np

# Embeber la consulta
query_embd = vo.embed(
    [query], model="voyage-3", input_type="query"
).embeddings[0]

# Calcular la similitud
# Los embeddings de Voyage están normalizados a longitud 1, por lo tanto
# el producto punto y la similitud del coseno son lo mismo.
similarities = np.dot(doc_embds, query_embd)

retrieved_id = np.argmax(similarities)
print(documents[retrieved_id])

Ten en cuenta que usamos input_type="document" y input_type="query" para embeber el documento y la consulta, respectivamente. Puedes encontrar más especificaciones aquí.

La salida sería el quinto documento, que de hecho es el más relevante para la consulta:

La conferencia telefónica de Apple para discutir los resultados del cuarto trimestre fiscal y actualizaciones comerciales está programada para el jueves 2 de noviembre de 2023 a las 2:00 p.m. PT / 5:00 p.m. ET.

Si estás buscando un conjunto detallado de guías sobre cómo hacer RAG con embeddings, incluyendo bases de datos vectoriales, consulta nuestro libro de recetas RAG.

Preguntas Frecuentes

Precios

Visita la página de precios de Voyage para obtener los detalles de precios más actualizados.