Быстрый старт
AITUNNEL даёт доступ к API всем мировым нейросетям через единый API. Всё, что Вам нужно - это стандартная библиотека OpenAI.
Запросы к любой модели от любого провайдера должны быть в формате OpenAI Chat Completion API. Это упрощает смену моделей без переписывания кода.
VPN и прокси
Вам не требуется прокси или VPN: все запросы идут на российский сервер api.aitunnel.ru
Как сделать запросы быстрее
Если вы делаете запрос с сервера не из России, то ваш запрос не будет проходить через дополнительные прокси-сервера и ответ вернется быстрее!
Примеры использования
javascript
const OpenAI = require("openai");
const client = new OpenAI({
apiKey: "sk-aitunnel-xxx", // Ключ из нашего сервиса
baseURL: "https://api.aitunnel.ru/v1/",
});
const chatResult = await client.chat.completions.create({
messages: [{ role: "user", content: "Скажи интересный факт" }],
model: "deepseek-r1",
max_tokens: 50000, // Старайтесь указывать для более точного расчёта цены
});
console.log(chatResult.choices[0]?.message);
python
from openai import OpenAI
client = OpenAI(
api_key="sk-aitunnel-xxx", # Ключ из нашего сервиса
base_url="https://api.aitunnel.ru/v1/",
)
chat_result = client.chat.completions.create(
messages=[{"role": "user", "content": "Скажи интересный факт"}],
model="deepseek-r1",
max_tokens=50000, # Старайтесь указывать для более точного расчёта цены
)
print(chat_result.choices[0].message)
go
package main
import (
"context"
"fmt"
"log"
openai "github.com/sashabaranov/go-openai"
)
func main() {
client := openai.NewClientWithConfig(openai.ClientConfig{
APIKey: "sk-aitunnel-xxx", // Ключ из нашего сервиса
BaseURL: "https://api.aitunnel.ru/v1/",
})
// Базовый запрос
chatResp, err := client.CreateChatCompletion(context.Background(), openai.ChatCompletionRequest{
Model: "deepseek-r1",
Messages: []openai.ChatCompletionMessage{{Role: "user", Content: "Скажи интересный факт"}},
MaxTokens: 50000, // Старайтесь указывать для более точного расчёта цены
})
if err != nil {
log.Fatal(err)
}
fmt.Println(chatResp.Choices[0].Message.Content)
}
php
<?php
$api_key = 'sk-aitunnel-xxx'; // Ключ из нашего сервиса
$api_url = 'https://api.aitunnel.ru/v1/chat/completions';
$data_chat = [
'model' => 'deepseek-r1',
'max_tokens' => 50000, // Старайтесь указывать для более точного расчёта цены
'messages' => [
[
'role' => 'user',
'content' => 'Скажи интересный факт'
]
]
];
$ch = curl_init($api_url);
curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);
curl_setopt($ch, CURLOPT_HTTPHEADER, [
'Content-Type: application/json',
'Authorization: Bearer ' . $api_key
]);
curl_setopt($ch, CURLOPT_POST, true);
curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode($data_chat));
$response_chat = curl_exec($ch);
echo $response_chat;
bash
curl https://api.aitunnel.ru/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-aitunnel-xxx" \
-d '{
"model": "deepseek-r1",
"max_tokens": 50000,
"messages": [
{
"role": "user",
"content": "Скажи интересный факт"
}
]
}'
Список моделей
Актуальный список моделей Вы всегда можете посмотреть на главной странице.
Поддержка
Вы всегда можете связаться с нами по почте support@aitunnel.ru