Вызов функций и скидки на токены: OpenAI презентовала новые версии ChatGPT
Компания OpenAI объявила о релизе новых версий GPT-3.5-turbo и GPT-4, представив новый инструмент — вызов функций, а также заявила о снижении цен для разработчиков.
Об этом говорится в официальном блоге компании.
Основные новшества:
- новые версии GPT-3.5-turbo и GPT-4;
- новая контекстная версия 16k GPT-3.5-turbo
- снижение цен для разработчиков на 75%,
- снижение стоимости входных токенов для GPT-3.5-turbo на 25%.
Вызов функции
Новый сервис позволяет разработчикам описывать функции для GPT-4 и GPT-3.5 Turbo, а модель помогает с выполнением этих функций, создавая код.
Это новый способ более надежной связи возможностей GPT с внешними инструментами и API, отмечает OpenAI.
Это позволит существенно помочь в создании чатов, вызывая внешние инструменты (например, плагины ChatGPT), превращать естественный язык в вызовы API и запросы в базу данных и извлекать структурированные данные из текста.
GPT-4
gpt-4-0613
содержит обновленную и усовершенствованную модель с вызовом функций.
gpt-4-32k-0613
содержит те же усовершенствования, что и gpt-4-0613
, а также расширенную длину контекста для лучшего понимания более крупных текстов.
GPT-3.5 Turbo
gpt-3.5-turbo-0613
содержит тот же вызов функции, что и GPT-4, а также более надежное управление через системное сообщение.
gpt-3.5-turbo-16k
предлагает в 4 раза большую длину контекста gpt-3.5-turbo
за вдвое более низкую цену: $0,003 за 1 Кб входных токенов и $0,004 за 1 Кб выходных токенов. Контекст 16k означает, что модель может теперь поддерживать ~20 страниц текста в одном запросе.
Отметим, что ранее появлялась информация, что OpenAI готовится выпустить новую языковую модель с открытым кодом. Но она, скорее всего, не будет конкурентоспособна с ChatGPT, поскольку ценность заключается в возможности предоставлять доступ к более сложным моделям.
Читайте также:
«GPT-4 может стать последним большим достижением»: CEO OpenAI заявил, что стратегия компании обречена
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: