Chad API
Используйте ChatGPT в своих программах или приложениях
Как это работает?

Вы отправляете HTTP POST запросы (см. пример ниже) и получаете JSON-ответ с текстом от бота.

Поддерживаются: GPT-4o Mini, GPT-4o, Claude 3 (Haiku, Sonnet, Opus), Claude 3.5 Sonnet.
Устаревшие модели: GPT-3.5, GPT-4, Claude 3 Sonnet

Не поддерживается генерация картинок, работа с вашими чатами и шаблонами. Запросы, отправленные через API, не будут видны в списке ваших чатов в интерфейсе Chad.

Тарификация точно такая же, как для запросов на сайте:
  • Для личных аккаунтов: потраченные слова будут списываться из текущего оплаченного пакета;
  • Для корпоративных аккаунтов: будет списываться сумма за потраченные токены по текущему тарифу.
Как начать?

  1. Нужен активный оплаченный аккаунт (корпоративный или личный, подойдёт любой платный тариф).
  2. В личном кабинете нужно перейти в меню "Для разработчиков" и получить ваш персональный API-ключ.
  3. Отправляйте запросы, используя любой удобный вам язык программирования, и получайте сообщение с ответом.

Нужно отправлять POST-запросы на адрес, в зависимости от желаемой версии GPT:
  • https://ask.chadgpt.ru/api/public/gpt-4o-mini
  • https://ask.chadgpt.ru/api/public/gpt-4o
  • https://ask.chadgpt.ru/api/public/claude-3-haiku
  • https://ask.chadgpt.ru/api/public/claude-3-opus
  • https://ask.chadgpt.ru/api/public/claude-3.5-sonnet
В теле запроса нужно указать параметры запроса в формате JSON (см. пример ниже).
В теле ответа будет JSON-строка с ответом от бота или кодом ошибки (см. ниже).
Пример с использованием Python

import requests


# Ключ из личного кабинета, подставьте свой
CHAD_API_KEY = 'chad-fa038d409ca54bc0902da28906aa31bafv3tbkoy'

# Формируем запрос
request_json = {
    "message": "Как думаешь, сколько будет 2+9?",
    "api_key": CHAD_API_KEY
}

# Отправляем запрос и дожидаемся ответа
response = requests.post(url='https://ask.chadgpt.ru/api/public/gpt-3.5',
                         json=request_json)

# Проверяем, отправился ли запрос
if response.status_code != 200:
    print(f'Ошибка! Код http-ответа: {response.status_code}')
else:
    # Получаем текст ответа и преобразовываем в dict
    resp_json = response.json()

    # Если успешен ответ, то выводим
    if resp_json['is_success']:
        resp_msg = resp_json['response']
        used_words = resp_json['used_words_count']
        print(f'Ответ от бота: {resp_msg}\nПотрачено слов: {used_words}')
    else:
        error = resp_json['error_message']
        print(f'Ошибка: {error}')

Пример запроса с историей (JSON)
Можно подставить в request_json в примере выше

{
  "message": "А кто из них самый лучший?",
  "api_key": "ТУТ ВАШ КЛЮЧ",
  "history": [
    { "role": "system", "content": "Ты - полезный ассистент. Отвечай коротко и по делу." },
    { "role": "user", "content": "Назови великих русских писателей" },
    { "role": "assistant", "content": "Фёдор Достоевский, Лев Толстой, Александр Пушкин, Антон Чехов, Николай Гоголь, Михаил Булгаков, Иван Тургенев." }
  ]
}
Пример успешного ответа от API (JSON)

{
  "is_success": true,
  "response": "Я думаю, что 2+2 равняется 4.",
  "used_words_count": 45,
  "used_tokens_count": 0
}
Пример ответа от API с ошибкой (JSON)

{
  "is_success": false,
  "error_code": "VAL-002",
  "error_message": "missing-api-key"
}
Сравнение версий GPT

GPT-4o Mini: контекст - до 16 380 токенов, расход слов - x1. Дешевая, быстрая.
GPT-4o: контекст - до 8184 токенов, расход слов - x5. Умная, средняя скорость.
Claude 3 Haiku: контекст - до 16 380 токенов, расход слов - x1. Сравнимая с GPT-4o Mini по скорости и качеству ответов.
Claude 3.5 Sonnet: контекст - до 16 380 токенов, расход слов - x5. Хорошая скорость, умнее чем Claude 3 Opus.

Устаревшие модели:
GPT-4: контекст - до 8184 токенов, расход слов - x15. Дороже, сильно медленнее чем GPT-4o и при этом примерно настолько же умная. Оставлена только для совместимости старых скриптов.
Claude 3 Sonnet: контекст - до 16 380 токенов, расход слов - x5. "Средняя" по скорости и качеству между Claude 3 Haiku и Opus.
Claude 3 Opus: контекст - до 8184 токенов, расход слов - x30. Самая умная из Claude 3 моделей, но и самая медленная.
GPT-3.5: контекст - до 16 380 токенов, расход слов - x1. Дешевая, быстрая, не очень умная.

Важно: Все указанные модели доступны в тарифах "Опти" и "Plus", а также в корпоративном тарифе. В тарифе "Мини" доступны только GPT-4o Mini, GPT-3.5 и Claude 3 Haiku.

* Допустимый контекст - это сумма токенов ввода и вывода. Это означает, что чем больше ввод, тем меньше максимальный размер ответа.
** В ответе API выводится кол-во потраченных слов/токенов уже с учётом повышенной стоимости для GPT-4.
*** Расход слов x5 означает, что модель расходует в пять раз больше слов, чем было по факту использовано.
Популярные вопросы
При использовании API действуют обычные правила использования сервиса.

Не осуществляем поддержку и консультации по вашему коду или по интеграции в сторонние сервисы/программы.