Интеграция Codex CLI
Подключите Codex CLI — официальный open-source кодинг-агент OpenAI — к AITUNNEL и работайте с
gpt-5.3-codexи другими моделями прямо в терминале без VPN, без аккаунта OpenAI и без зарубежных карт.
Что такое Codex CLI?
Codex CLI — это open-source локальный кодинг-агент OpenAI, который запускается в терминале. Он поддерживает разных провайдеров моделей, включая AITUNNEL, поэтому через единый API-ключ AITUNNEL вы получаете доступ к семейству gpt-5-codex и десяткам других моделей в агентных сценариях Codex.
Быстрый старт
Шаг 1: Установка Codex CLI
Следуйте инструкции по установке Codex CLI. Самые быстрые варианты:
npm install -g @openai/codexbrew install --cask codexШаг 2: Получение API-ключа AITUNNEL
- Зарегистрируйтесь или войдите на aitunnel.ru
- Перейдите на страницу API ключей
- Создайте новый API-ключ
- Скопируйте ключ — он начинается с
sk-aitunnel-
Шаг 3: Настройте Codex для AITUNNEL
Codex использует файл config.toml, обычно расположенный по пути ~/.codex/config.toml. Создайте или отредактируйте этот файл со следующей конфигурацией:
model_provider = "aitunnel"
model_reasoning_effort = "high"
model = "gpt-5.3-codex"
[model_providers.aitunnel]
name = "aitunnel"
base_url = "https://api.aitunnel.ru/v1"
env_key = "AITUNNEL_API_KEY"Шаг 4: Установите API-ключ
Экспортируйте API-ключ AITUNNEL в профиле оболочки:
# Добавьте в ~/.zshrc, ~/.bashrc или ~/.config/fish/config.fish
export AITUNNEL_API_KEY="sk-aitunnel-..."Примечание
Codex читает API-ключ из переменной окружения, указанной в env_key (в нашем примере — AITUNNEL_API_KEY). Убедитесь, что она задана до запуска Codex.
Шаг 5: Запустите Codex
Перейдите в директорию проекта и запустите:
cd /path/to/your/project
codexВсе запросы теперь будут маршрутизироваться через AITUNNEL.
Справочник конфигурации
Основные настройки
| Параметр | Описание | Пример |
|---|---|---|
model_provider | Провайдер для запросов к моделям | "aitunnel" |
model | ID модели на AITUNNEL | "gpt-5.3-codex" |
model_reasoning_effort | Уровень рассуждений Codex-моделей | "low", "medium", "high", "xhigh" |
show_raw_agent_reasoning | Показывать токены рассуждений в UI | true или false |
personality | Стиль общения агента | "pragmatic", "helpful" и др. |
Блок провайдера AITUNNEL
[model_providers.aitunnel]
name = "aitunnel"
base_url = "https://api.aitunnel.ru/v1"
env_key = "AITUNNEL_API_KEY"base_url: эндпоинт API AITUNNEL. Используйтеhttps://api.aitunnel.ru/v1для продакшена.env_key: имя переменной окружения с вашим API-ключом.
Уровни доверия проектам
Codex поддерживает уровни доверия на проект. Добавьте пути к проектам, чтобы контролировать, к чему агенту разрешён доступ:
[projects."/path/to/trusted/project"]
trust_level = "trusted"
[projects."/path/to/untrusted/project"]
trust_level = "untrusted"trusted: у агента полный доступ (например, выполнять команды, редактировать файлы).untrusted: у агента ограниченный доступ для безопасности.
Зачем использовать AITUNNEL с Codex CLI?
Работа в России без VPN
AITUNNEL работает на российском домене api.aitunnel.ru. Ни VPN, ни аккаунт OpenAI, ни зарубежная карта не нужны — регистрация по email или Telegram, оплата рублями.
Failover между провайдерами
AITUNNEL маршрутизирует запросы через несколько провайдеров. Если один из них недоступен или упёрся в rate limit, AITUNNEL переключается на другой — сессии Codex не прерываются.
Контроль расходов
Для команд AITUNNEL даёт централизованное управление бюджетом. Можно устанавливать лимиты расходов, выделять кредиты и предотвращать неожиданные перерасходы между разработчиками, использующими Codex.
Прозрачное использование
Отслеживайте использование Codex в реальном времени через Панель активности AITUNNEL. Видны стоимость, расход токенов и паттерны запросов.
Гибкий выбор моделей
Переключайтесь между Codex-моделями (например, gpt-5.2-codex, gpt-5.3-codex, gpt-5.1-codex-max) или пробуйте другие модели AITUNNEL без переустановки Codex — достаточно обновить config.toml.
Устранение неполадок
- Ошибки авторизации: убедитесь, что
AITUNNEL_API_KEYзадан и активен. Проверить можно на aitunnel.ru/panel/keys. - Модель не найдена: проверьте ID модели на aitunnel.ru/models. Используйте точный формат (например,
gpt-5.3-codex). - Приватность: AITUNNEL не логирует промпты с исходным кодом. Подробнее — в политике конфиденциальности.