Skip to content

Интеграция OpenClaw 🦞

OpenClaw (ранее Moltbot, ранее Clawdbot) — open-source платформа для AI-агентов, которая подключает ИИ к Telegram, Discord, Slack, Signal, iMessage и WhatsApp. Поддерживает несколько LLM-провайдеров и позволяет запускать агентов, которые работают одновременно во всех этих каналах.

Для установки и базовой настройки обратитесь к официальной документации. В этой статье — только интеграция с AITUNNEL.

Получение API ключа

  1. Зарегистрируйтесь на aitunnel.ru
  2. Перейдите в раздел Ключи
  3. Создайте новый API ключ
  4. Скопируйте его — он начинается с sk-aitunnel-

Настройка

Шаг 1: Добавьте провайдера в конфигурацию

Откройте файл ~/.openclaw/openclaw.json и добавьте конфигурацию AITUNNEL:

json
{
  "models": {
    "mode": "merge",
    "providers": {
      "aitunnel": {
        "baseUrl": "https://api.aitunnel.ru/v1",
        "apiKey": "sk-aitunnel-xxx",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-sonnet-4-5",
            "name": "Claude Sonnet 4.5",
            "reasoning": true,
            "input": ["text", "image"]
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "aitunnel/claude-sonnet-4-5"
      },
      "models": {
        "aitunnel/claude-sonnet-4-5": {}
      }
    }
  }
}

Замените sk-aitunnel-xxx на ваш реальный ключ.

TIP

AITUNNEL использует единый baseUrl для всех моделей — не нужно настраивать отдельные endpoints для Anthropic, Google, OpenAI и других.

Шаг 2: Выберите модель

Обновите поле primary и добавьте модели в список. Популярные варианты:

Anthropic Claude:

json
"model": { "primary": "aitunnel/claude-sonnet-4-5" },
"models": { "aitunnel/claude-sonnet-4-5": {} }

Google Gemini:

json
"model": { "primary": "aitunnel/gemini-2.5-flash" },
"models": { "aitunnel/gemini-2.5-flash": {} }

OpenAI GPT:

json
"model": { "primary": "aitunnel/gpt-4o" },
"models": { "aitunnel/gpt-4o": {} }

DeepSeek:

json
"model": { "primary": "aitunnel/deepseek-chat" },
"models": { "aitunnel/deepseek-chat": {} }

Актуальный список ID моделей — на странице моделей.

Шаг 3: Запустите OpenClaw

bash
openclaw gateway run

Агенты начнут использовать AITUNNEL для обработки запросов.

Формат модели

OpenClaw обращается к AITUNNEL-моделям в формате aitunnel/<model-id>. Например:

  • aitunnel/claude-sonnet-4-5
  • aitunnel/claude-opus-4-5
  • aitunnel/gpt-4o
  • aitunnel/gemini-2.5-pro
  • aitunnel/deepseek-chat

Несколько моделей с резервными вариантами

OpenClaw поддерживает fallback-модели. Если основная модель недоступна, автоматически используется следующая в списке:

json
{
  "models": {
    "mode": "merge",
    "providers": {
      "aitunnel": {
        "baseUrl": "https://api.aitunnel.ru/v1",
        "apiKey": "sk-aitunnel-xxx",
        "api": "openai-completions",
        "models": [
          {
            "id": "claude-sonnet-4-5",
            "name": "Claude Sonnet 4.5",
            "reasoning": true,
            "input": ["text", "image"]
          },
          {
            "id": "claude-haiku-4-5",
            "name": "Claude Haiku 4.5",
            "input": ["text", "image"]
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "aitunnel/claude-sonnet-4-5",
        "fallbacks": [
          "aitunnel/claude-haiku-4-5"
        ]
      },
      "models": {
        "aitunnel/claude-sonnet-4-5": {},
        "aitunnel/claude-haiku-4-5": {}
      }
    }
  }
}

Это дополнительный уровень надёжности поверх встроенного failover AITUNNEL между провайдерами.

Настройка по каналу

Вы можете использовать разные модели для разных мессенджеров:

json
{
  "telegram": {
    "agents": {
      "defaults": {
        "model": {
          "primary": "aitunnel/gemini-2.5-flash"
        }
      }
    }
  },
  "discord": {
    "agents": {
      "defaults": {
        "model": {
          "primary": "aitunnel/claude-sonnet-4-5"
        }
      }
    }
  }
}

Например, быстрая и дешёвая модель для Telegram и более мощная — для Discord.

Безопасное хранение ключа

Вместо хранения ключа в JSON-файле можно использовать системное хранилище ключей (keychain). Добавьте auth-профиль в openclaw.json:

json
{
  "auth": {
    "profiles": {
      "aitunnel:default": {
        "provider": "aitunnel",
        "mode": "api_key"
      }
    }
  }
}

Затем сохраните ключ через CLI:

bash
openclaw auth set aitunnel:default --key "sk-aitunnel-xxx"

Ключ будет храниться в системном keychain и не попадёт в конфигурационный файл.

Мониторинг использования

Все запросы от OpenClaw отображаются в личном кабинете AITUNNEL:

  • Расход токенов по каждой модели
  • Стоимость запросов
  • История использования
  • Текущий баланс

Устранение неполадок

«No API key found for provider»

OpenClaw не находит ключ AITUNNEL.

Решение:

  1. Убедитесь, что apiKey в секции провайдера aitunnel в openclaw.json заполнен корректно
  2. Или проверьте auth-профиль: openclaw auth list
  3. Убедитесь, что нет лишних пробелов при копировании ключа

Ошибки авторизации (401/403)

Решение:

  1. Проверьте, что ключ действителен в личном кабинете
  2. Убедитесь, что баланс на счету положительный
  3. Проверьте, что baseUrl указан без лишнего слеша: https://api.aitunnel.ru/v1

Модель не работает

Решение:

  1. Проверьте ID модели на странице моделей
  2. Убедитесь, что модель добавлена в массив models в секции провайдера
  3. Обратите внимание на формат: aitunnel/<model-id> в полях агентов

Ошибки лимита контекста

Решение:

  1. Используйте модели с большим контекстным окном (например, gemini-2.5-pro)
  2. Включите очистку истории в настройках OpenClaw
  3. Разбейте сложные задачи на подзадачи

Дополнительные ресурсы

AITUNNEL