Embeddings
Text-Embeddings sind numerische Darstellungen von Text, die es ermöglichen, semantische Ähnlichkeit zu messen. Dieser Leitfaden stellt Embeddings vor, ihre Anwendungen und wie man Embedding-Modelle für Aufgaben wie Suche, Empfehlungen und Anomalieerkennung verwendet.
Vor der Implementierung von Embeddings
Bei der Auswahl eines Embedding-Anbieters gibt es mehrere Faktoren, die Sie je nach Ihren Bedürfnissen und Präferenzen berücksichtigen können:
- Datensatzgröße & Domänenspezifität: Größe des Modell-Trainingsdatensatzes und seine Relevanz für die Domäne, die Sie einbetten möchten. Größere oder domänenspezifischere Daten produzieren im Allgemeinen bessere domänenspezifische Embeddings
- Inferenz-Performance: Embedding-Abrufgeschwindigkeit und End-to-End-Latenz. Dies ist besonders wichtig für Produktionsumgebungen im großen Maßstab
- Anpassung: Optionen für fortgesetztes Training mit privaten Daten oder Spezialisierung von Modellen für sehr spezifische Domänen. Dies kann die Leistung bei einzigartigen Vokabularen verbessern
Wie man Embeddings mit Anthropic erhält
Anthropic bietet kein eigenes Embedding-Modell an. Ein Embedding-Anbieter, der eine große Vielfalt an Optionen und Fähigkeiten bietet, die alle oben genannten Überlegungen umfassen, ist Voyage AI.
Voyage AI entwickelt modernste Embedding-Modelle und bietet angepasste Modelle für spezifische Industriebereiche wie Finanzen und Gesundheitswesen oder maßgeschneiderte feinabgestimmte Modelle für einzelne Kunden.
Der Rest dieses Leitfadens bezieht sich auf Voyage AI, aber wir ermutigen Sie, verschiedene Embedding-Anbieter zu prüfen, um die beste Lösung für Ihren spezifischen Anwendungsfall zu finden.
Verfügbare Modelle
Voyage empfiehlt die Verwendung der folgenden Text-Embedding-Modelle:
Model | Context Length | Embedding Dimension | Description |
---|---|---|---|
voyage-3-large | 32.000 | 1024 (Standard), 256, 512, 2048 | Die beste allgemeine und mehrsprachige Abrufqualität. |
voyage-3 | 32.000 | 1024 | Optimiert für allgemeine und mehrsprachige Abrufqualität. Siehe Blog-Beitrag für Details. |
voyage-3-lite | 32.000 | 512 | Optimiert für Latenz und Kosten. Siehe Blog-Beitrag für Details. |
voyage-code-3 | 32.000 | 1024 (Standard), 256, 512, 2048 | Optimiert für Code-Abruf. Siehe Blog-Beitrag für Details. |
voyage-finance-2 | 32.000 | 1024 | Optimiert für Finanz-Abruf und RAG. Siehe Blog-Beitrag für Details. |
voyage-law-2 | 16.000 | 1024 | Optimiert für juristische und lange Kontext-Abruf und RAG. Auch verbesserte Leistung über alle Domänen hinweg. Siehe Blog-Beitrag für Details. |
Zusätzlich werden die folgenden multimodalen Embedding-Modelle empfohlen:
Model | Context Length | Embedding Dimension | Description |
---|---|---|---|
voyage-multimodal-3 | 32000 | 1024 | Reichhaltiges multimodales Embedding-Modell, das verschachtelte Texte und inhaltsreiche Bilder wie Screenshots von PDFs, Präsentationen, Tabellen, Abbildungen und mehr vektorisieren kann. Siehe Blog-Beitrag für Details. |
Brauchen Sie Hilfe bei der Entscheidung, welches Text-Embedding-Modell Sie verwenden sollen? Schauen Sie sich die FAQ an.
Erste Schritte mit Voyage AI
Um auf Voyage Embeddings zuzugreifen:
- Registrieren Sie sich auf der Voyage AI Website
- Erhalten Sie einen API-Schlüssel
- Setzen Sie den API-Schlüssel als Umgebungsvariable für die Bequemlichkeit:
Sie können die Embeddings entweder über das offizielle voyageai
Python-Paket oder HTTP-Anfragen erhalten, wie unten beschrieben.
Voyage Python-Paket
Das voyageai
-Paket kann mit folgendem Befehl installiert werden:
Dann können Sie ein Client-Objekt erstellen und es verwenden, um Ihre Texte einzubetten:
result.embeddings
wird eine Liste von zwei Embedding-Vektoren sein, die jeweils 1024 Fließkommazahlen enthalten. Nach Ausführung des obigen Codes werden die beiden Embeddings auf dem Bildschirm ausgegeben:
Bei der Erstellung der Embeddings können Sie auch einige andere Argumente für die embed()
-Funktion angeben. Hier können Sie mehr über die Spezifikation lesen
Voyage HTTP API
Sie können Embeddings auch durch Anfragen an die Voyage HTTP API erhalten. Zum Beispiel können Sie eine HTTP-Anfrage über den curl
-Befehl in einem Terminal senden:
Die Antwort, die Sie erhalten würden, ist ein JSON-Objekt, das die Embeddings und die Token-Nutzung enthält:
Mehr über den Embedding-Endpunkt können Sie in der Voyage-Dokumentation lesen
AWS Marketplace
Voyage Embeddings sind auch im AWS Marketplace verfügbar. Anweisungen für den Zugriff auf Voyage auf AWS finden Sie hier.
Schnellstart-Beispiel
Nachdem wir nun wissen, wie man Embeddings erhält, schauen wir uns ein kurzes Beispiel an.
Angenommen, wir haben einen kleinen Korpus von sechs Dokumenten, aus denen wir abrufen möchten
Wir werden zuerst Voyage verwenden, um jeden von ihnen in einen Embedding-Vektor umzuwandeln
Die Embeddings ermöglichen uns semantische Suche / Abruf im Vektorraum. Gegeben eine Beispielanfrage,
wandeln wir sie in ein Embedding um und führen eine Nächste-Nachbarn-Suche durch, um das relevanteste Dokument basierend auf der Distanz im Embedding-Raum zu finden.
Beachten Sie, dass wir input_type="document"
und input_type="query"
für das Einbetten des Dokuments bzw. der Anfrage verwenden. Weitere Spezifikationen finden Sie hier.
Die Ausgabe wäre das 5. Dokument, das tatsächlich am relevantesten für die Anfrage ist:
Wenn Sie nach einem detaillierten Satz von Kochbüchern suchen, wie man RAG mit Embeddings durchführt, einschließlich Vektordatenbanken, schauen Sie sich unser RAG-Kochbuch an.
FAQ
Preisgestaltung
Besuchen Sie Voyage’s Preisseite für die aktuellsten Preisdetails.
Was this page helpful?