Los embeddings de texto son representaciones numéricas del texto que permiten medir la similitud semántica. Esta guía introduce los embeddings, sus aplicaciones y cómo usar modelos de embedding para tareas como búsqueda, recomendaciones y detección de anomalías.
Modelo | Longitud de Contexto | Dimensión del Embedding | Descripción |
---|---|---|---|
voyage-3-large | 32,000 | 1024 (predeterminado), 256, 512, 2048 | La mejor calidad de recuperación para propósito general y multilingüe. |
voyage-3 | 32,000 | 1024 | Optimizado para calidad de recuperación de propósito general y multilingüe. Ver publicación del blog para más detalles. |
voyage-3-lite | 32,000 | 512 | Optimizado para latencia y costo. Ver publicación del blog para más detalles. |
voyage-code-3 | 32,000 | 1024 (predeterminado), 256, 512, 2048 | Optimizado para recuperación de código. Ver publicación del blog para más detalles. |
voyage-finance-2 | 32,000 | 1024 | Optimizado para recuperación y RAG de finanzas. Ver publicación del blog para más detalles. |
voyage-law-2 | 16,000 | 1024 | Optimizado para recuperación y RAG legal y de contexto largo. También mejoró el rendimiento en todos los dominios. Ver publicación del blog para más detalles. |
Modelo | Longitud de Contexto | Dimensión del Embedding | Descripción |
---|---|---|---|
voyage-multimodal-3 | 32000 | 1024 | Modelo de embedding multimodal rico que puede vectorizar texto intercalado e imágenes ricas en contenido, como capturas de pantalla de PDFs, diapositivas, tablas, figuras y más. Ver publicación del blog para más detalles. |
voyageai
o mediante solicitudes HTTP, como se describe a continuación.
voyageai
se puede instalar usando el siguiente comando:
result.embeddings
será una lista de dos vectores de embedding, cada uno conteniendo 1024 números de punto flotante. Después de ejecutar el código anterior, los dos embeddings se imprimirán en la pantalla:
embed()
. Puedes leer más sobre la especificación aquí
curl
en una terminal:
input_type="document"
y input_type="query"
para embeber el documento y la consulta, respectivamente. Puedes encontrar más especificaciones aquí.
La salida sería el quinto documento, que de hecho es el más relevante para la consulta:
¿Por qué los embeddings de Voyage tienen una calidad superior?
¿Qué modelos de embedding están disponibles y cuál debería usar?
voyage-3-large
: Mejor calidadvoyage-3-lite
: Menor latencia y costovoyage-3
: Rendimiento equilibrado con calidad de recuperación superior a un precio competitivoinput_type
para especificar el tipo de consulta o documento.Modelos específicos de dominio:voyage-law-2
voyage-code-3
voyage-finance-2
¿Qué función de similitud debería usar?
¿Cómo debería usar el parámetro input_type?
input_type
como “query” o “document”. Esta optimización mejora la calidad de recuperación a través de prefijos de prompt especializados:Para consultas:input_type
o lo configures como None
para tareas de recuperación.voyage-large-2-instruct
, sigue las instrucciones en nuestro repositorio de GitHub.¿Qué opciones de cuantización están disponibles?
output_dtype
):Tipo | Descripción | Reducción de Tamaño |
---|---|---|
float | Punto flotante de precisión simple de 32 bits (predeterminado) | Ninguna |
int8 /uint8 | Enteros de 8 bits (-128 a 127 / 0 a 255) | 4x |
binary /ubinary | Valores de un solo bit empaquetados | 32x |
binary
usando el método binario desplazado.¿Cómo puedo truncar embeddings Matryoshka?