21. November 2024

  • Wir haben die Admin-API veröffentlicht, die es Benutzern ermöglicht, die Ressourcen ihrer Organisation programmatisch zu verwalten.

20. November 2024

13. November 2024

  • Wir haben PDF-Unterstützung für alle Claude 3.5 Sonnet Modelle hinzugefügt. Lesen Sie mehr in unserer Dokumentation.

6. November 2024

4. November 2024

  • Claude 3.5 Haiku ist jetzt als reines Textmodell in der Anthropic API verfügbar.

1. November 2024

  • Wir haben PDF-Unterstützung für die Verwendung mit dem neuen Claude 3.5 Sonnet hinzugefügt. Lesen Sie mehr in unserer Dokumentation.
  • Wir haben auch Token-Zählung hinzugefügt, mit der Sie die Gesamtzahl der Token in einer Nachricht bestimmen können, bevor Sie sie an Claude senden. Lesen Sie mehr in unserer Dokumentation.

22. Oktober 2024

  • Wir haben von Anthropic definierte Computer-Nutzungs-Tools zu unserer API für die Verwendung mit dem neuen Claude 3.5 Sonnet hinzugefügt. Lesen Sie mehr in unserer Dokumentation.
  • Claude 3.5 Sonnet, unser bisher intelligentestes Modell, wurde gerade aktualisiert und ist jetzt in der Anthropic API verfügbar. Lesen Sie mehr hier.

8. Oktober 2024

  • Die Messages Batching API ist jetzt in der Beta-Version verfügbar. Verarbeiten Sie große Mengen von Anfragen asynchron in der Anthropic API für 50% weniger Kosten. Lesen Sie mehr in unserer Dokumentation.
  • Wir haben die Einschränkungen für die Reihenfolge von user/assistant-Durchgängen in unserer Messages API gelockert. Aufeinanderfolgende user/assistant-Nachrichten werden zu einer einzigen Nachricht zusammengefasst, anstatt einen Fehler zu erzeugen, und wir verlangen nicht mehr, dass die erste Eingabenachricht eine user-Nachricht sein muss.
  • Wir haben die Build- und Scale-Pläne zugunsten einer Standard-Feature-Suite (früher als Build bezeichnet) eingestellt, zusammen mit zusätzlichen Funktionen, die über den Vertrieb verfügbar sind. Lesen Sie mehr hier.

3. Oktober 2024

  • Wir haben die Möglichkeit hinzugefügt, die parallele Tool-Nutzung in der API zu deaktivieren. Setzen Sie disable_parallel_tool_use: true im tool_choice-Feld, um sicherzustellen, dass Claude höchstens ein Tool verwendet. Lesen Sie mehr in unserer Dokumentation.

10. September 2024

  • Wir haben Workspaces zur Developer Console hinzugefügt. Workspaces ermöglichen es Ihnen, benutzerdefinierte Ausgaben- oder Ratenlimits festzulegen, API-Schlüssel zu gruppieren, die Nutzung nach Projekten zu verfolgen und den Zugriff mit Benutzerrollen zu steuern. Lesen Sie mehr in unserem Blog-Beitrag.

4. September 2024

22. August 2024

  • Wir haben die Unterstützung für die Verwendung des SDK in Browsern durch Rückgabe von CORS-Headern in den API-Antworten hinzugefügt. Setzen Sie dangerouslyAllowBrowser: true bei der SDK-Instanziierung, um diese Funktion zu aktivieren.

19. August 2024

  • Wir haben 8.192 Token-Ausgaben von der Beta-Version in die allgemeine Verfügbarkeit für Claude 3.5 Sonnet überführt.

14. August 2024

  • Prompt-Caching ist jetzt als Beta-Funktion in der Anthropic API verfügbar. Speichern und wiederverwenden Sie Prompts, um die Latenzzeit um bis zu 80% und die Kosten um bis zu 90% zu reduzieren.

15. Juli 2024

  • Generieren Sie Ausgaben von bis zu 8.192 Token Länge von Claude 3.5 Sonnet mit dem neuen anthropic-beta: max-tokens-3-5-sonnet-2024-07-15 Header. Weitere Details hier.

9. Juli 2024

  • Generieren Sie automatisch Testfälle für Ihre Prompts mit Claude in der Developer Console. Lesen Sie mehr in unserem Blog-Beitrag.
  • Vergleichen Sie die Ausgaben verschiedener Prompts nebeneinander im neuen Ausgabevergleichsmodus in der Developer Console.

27. Juni 2024

20. Juni 2024

  • Claude 3.5 Sonnet, unser bisher intelligentestes Modell, ist jetzt allgemein verfügbar über die Anthropic API, Amazon Bedrock und Google Vertex AI.

30. Mai 2024

  • Tool-Nutzung ist jetzt allgemein verfügbar über die Anthropic API, Amazon Bedrock und Google Vertex AI.

10. Mai 2024

  • Unser Prompt-Generator-Tool ist jetzt in der Developer Console verfügbar. Der Prompt-Generator macht es einfach, Claude bei der Generierung hochwertiger Prompts für Ihre spezifischen Aufgaben anzuleiten. Lesen Sie mehr in unserem Blog-Beitrag.