Skip to content

Интеграция Codex CLI

Подключите Codex CLI — официальный open-source кодинг-агент OpenAI — к AITUNNEL и работайте с gpt-5.3-codex и другими моделями прямо в терминале без VPN, без аккаунта OpenAI и без зарубежных карт.

Что такое Codex CLI?

Codex CLI — это open-source локальный кодинг-агент OpenAI, который запускается в терминале. Он поддерживает разных провайдеров моделей, включая AITUNNEL, поэтому через единый API-ключ AITUNNEL вы получаете доступ к семейству gpt-5-codex и десяткам других моделей в агентных сценариях Codex.

Быстрый старт

Шаг 1: Установка Codex CLI

Следуйте инструкции по установке Codex CLI. Самые быстрые варианты:

bash
npm install -g @openai/codex
bash
brew install --cask codex

Шаг 2: Получение API-ключа AITUNNEL

  1. Зарегистрируйтесь или войдите на aitunnel.ru
  2. Перейдите на страницу API ключей
  3. Создайте новый API-ключ
  4. Скопируйте ключ — он начинается с sk-aitunnel-

Шаг 3: Настройте Codex для AITUNNEL

Codex использует файл config.toml, обычно расположенный по пути ~/.codex/config.toml. Создайте или отредактируйте этот файл со следующей конфигурацией:

toml
model_provider = "aitunnel"
model_reasoning_effort = "high"
model = "gpt-5.3-codex"

[model_providers.aitunnel]
name = "aitunnel"

base_url = "https://api.aitunnel.ru/v1"
env_key = "AITUNNEL_API_KEY"

Шаг 4: Установите API-ключ

Экспортируйте API-ключ AITUNNEL в профиле оболочки:

bash
# Добавьте в ~/.zshrc, ~/.bashrc или ~/.config/fish/config.fish
export AITUNNEL_API_KEY="sk-aitunnel-..."

Примечание

Codex читает API-ключ из переменной окружения, указанной в env_key (в нашем примере — AITUNNEL_API_KEY). Убедитесь, что она задана до запуска Codex.

Шаг 5: Запустите Codex

Перейдите в директорию проекта и запустите:

bash
cd /path/to/your/project
codex

Все запросы теперь будут маршрутизироваться через AITUNNEL.

Справочник конфигурации

Основные настройки

ПараметрОписаниеПример
model_providerПровайдер для запросов к моделям"aitunnel"
modelID модели на AITUNNEL"gpt-5.3-codex"
model_reasoning_effortУровень рассуждений Codex-моделей"low", "medium", "high", "xhigh"
show_raw_agent_reasoningПоказывать токены рассуждений в UItrue или false
personalityСтиль общения агента"pragmatic", "helpful" и др.

Блок провайдера AITUNNEL

toml
[model_providers.aitunnel]
name = "aitunnel"
base_url = "https://api.aitunnel.ru/v1"
env_key = "AITUNNEL_API_KEY"
  • base_url: эндпоинт API AITUNNEL. Используйте https://api.aitunnel.ru/v1 для продакшена.
  • env_key: имя переменной окружения с вашим API-ключом.

Уровни доверия проектам

Codex поддерживает уровни доверия на проект. Добавьте пути к проектам, чтобы контролировать, к чему агенту разрешён доступ:

toml
[projects."/path/to/trusted/project"]
trust_level = "trusted"

[projects."/path/to/untrusted/project"]
trust_level = "untrusted"
  • trusted: у агента полный доступ (например, выполнять команды, редактировать файлы).
  • untrusted: у агента ограниченный доступ для безопасности.

Зачем использовать AITUNNEL с Codex CLI?

Работа в России без VPN

AITUNNEL работает на российском домене api.aitunnel.ru. Ни VPN, ни аккаунт OpenAI, ни зарубежная карта не нужны — регистрация по email или Telegram, оплата рублями.

Failover между провайдерами

AITUNNEL маршрутизирует запросы через несколько провайдеров. Если один из них недоступен или упёрся в rate limit, AITUNNEL переключается на другой — сессии Codex не прерываются.

Контроль расходов

Для команд AITUNNEL даёт централизованное управление бюджетом. Можно устанавливать лимиты расходов, выделять кредиты и предотвращать неожиданные перерасходы между разработчиками, использующими Codex.

Прозрачное использование

Отслеживайте использование Codex в реальном времени через Панель активности AITUNNEL. Видны стоимость, расход токенов и паттерны запросов.

Гибкий выбор моделей

Переключайтесь между Codex-моделями (например, gpt-5.2-codex, gpt-5.3-codex, gpt-5.1-codex-max) или пробуйте другие модели AITUNNEL без переустановки Codex — достаточно обновить config.toml.

Устранение неполадок

  • Ошибки авторизации: убедитесь, что AITUNNEL_API_KEY задан и активен. Проверить можно на aitunnel.ru/panel/keys.
  • Модель не найдена: проверьте ID модели на aitunnel.ru/models. Используйте точный формат (например, gpt-5.3-codex).
  • Приватность: AITUNNEL не логирует промпты с исходным кодом. Подробнее — в политике конфиденциальности.

Ресурсы

AITUNNEL