Конфигурация LLM шлюза
Узнайте, как настроить Claude Code с решениями LLM шлюза, включая настройку LiteLLM, методы аутентификации и корпоративные функции, такие как отслеживание использования и управление бюджетом.
LLM шлюзы предоставляют централизованный прокси-слой между Claude Code и поставщиками моделей, предлагая:
- Централизованная аутентификация - Единая точка для управления API ключами
- Отслеживание использования - Мониторинг использования по командам и проектам
- Контроль затрат - Внедрение бюджетов и ограничений скорости
- Журналирование аудита - Отслеживание всех взаимодействий с моделями для соответствия требованиям
- Маршрутизация моделей - Переключение между поставщиками без изменения кода
Конфигурация LiteLLM
LiteLLM является сторонним прокси-сервисом. Anthropic не поддерживает, не обслуживает и не проводит аудит безопасности или функциональности LiteLLM. Это руководство предоставляется в информационных целях и может устареть. Используйте на свой страх и риск.
Предварительные требования
- Claude Code обновлен до последней версии
- LiteLLM Proxy Server развернут и доступен
- Доступ к моделям Claude через выбранного поставщика
Базовая настройка LiteLLM
Настройка Claude Code:
Методы аутентификации
Статический API ключ
Простейший метод с использованием фиксированного API ключа:
Это значение будет отправлено как заголовки Authorization
и Proxy-Authorization
, хотя Authorization
может быть перезаписан (см. Vertex “Учетные данные, указанные клиентом” ниже).
Динамический API ключ с помощником
Для ротации ключей или аутентификации по пользователям:
- Создайте скрипт-помощник для API ключа:
- Настройте параметры Claude Code для использования помощника:
- Установите интервал обновления токена:
Это значение будет отправлено как заголовки Authorization
, Proxy-Authorization
и X-Api-Key
, хотя Authorization
может быть перезаписан (см. Google Vertex AI через LiteLLM). apiKeyHelper
имеет более низкий приоритет, чем ANTHROPIC_AUTH_TOKEN
или ANTHROPIC_API_KEY
.
Конфигурации для конкретных поставщиков
Anthropic API через LiteLLM
Использование сквозной конечной точки:
Amazon Bedrock через LiteLLM
Использование сквозной конечной точки:
Google Vertex AI через LiteLLM
Использование сквозной конечной точки:
Рекомендуется: Учетные данные, указанные прокси
Альтернатива: Учетные данные, указанные клиентом
Если вы предпочитаете использовать локальные учетные данные GCP:
- Аутентифицируйтесь с GCP локально:
- Установите окружение Claude Code:
- Обновите конфигурацию заголовков LiteLLM:
Убедитесь, что ваша конфигурация LiteLLM имеет general_settings.litellm_key_header_name
установленным в Proxy-Authorization
, поскольку сквозной токен GCP будет расположен в заголовке Authorization
.
Унифицированная конечная точка
Использование конечной точки формата Anthropic LiteLLM:
Выбор модели
По умолчанию модели будут использовать те, которые указаны в Конфигурации модели.
Если вы настроили пользовательские имена моделей в LiteLLM, установите вышеупомянутые переменные окружения в эти пользовательские имена.
Для получения более подробной информации обратитесь к документации LiteLLM.