OpenAI представила флагманскую нейросеть GPT-4 Turbo

На своей первой конференции разработчиков OpenAI представила GPT-4 Turbo, которая, по утверждению компании, является «более мощной» и менее дорогой, чем GPT-4 .

GPT-4 Turbo выпускается в двух версиях: одна предназначена исключительно для анализа текста, а вторая версия понимает контекст как текста, так и изображений. Модель анализа текста доступна в предварительной версии через API, начиная с сегодняшнего дня, и OpenAI заявляет, что планирует сделать обе модели общедоступными «в ближайшие недели».

Их цена составляет 0,01 доллара США за 1000 входных токенов (~750 слов), где «токены» представляют собой фрагменты необработанного текста — например, слово «фантастический», разделенное на «фан», «тас» и «тик»), и 0,03 доллара США за 1000 выходных токенов. Цена на GPT-4 Turbo для обработки изображений будет зависеть от размера изображения. Например, по данным OpenAI, передача изображения размером 1080×1080 пикселей в GPT-4 Turbo будет стоить 0,00765 доллара.

«Мы оптимизировали производительность, поэтому можем предлагать GPT-4 Turbo по цене в 3 раза дешевле для входных токенов и в 2 раза дешевле для выходных токенов по сравнению с GPT-4», — пишет OpenAI в сообщении в блоге, опубликованном на TechCrunch .

GPT-4 Turbo может похвастаться несколькими улучшениями по сравнению с GPT-4, одно из которых — более новая база знаний, которую можно использовать при ответе на запросы. Как и все языковые модели, GPT-4 Turbo по сути является статистическим инструментом для прогнозирования слов. Получив огромное количество примеров, GPT-4 Turbo узнал, насколько вероятно появление слов на основе шаблонов, включая семантический контекст окружающего текста. Например, если типичное электронное письмо заканчивается фрагментом «С нетерпением жду…», GPT-4 Turbo может завершить его словами «… чтобы услышать ответ».

 

А GPT-4 Turbo поддерживает новый «режим JSON», который гарантирует, что модель отвечает действительным JSON — открытым стандартным форматом файлов и форматом обмена данными. По словам OpenAI, это полезно в веб-приложениях, передающих данные, например в тех, которые отправляют данные с сервера клиенту, чтобы их можно было отобразить на веб-странице. Другие связанные новые параметры позволят разработчикам заставить модель чаще возвращать «последовательные» завершения и — для более нишевых приложений — регистрировать вероятности для наиболее вероятных выходных токенов, генерируемых GPT-4 Turbo.

 

Читайте новости первыми в нашем Telegram-канале!

Подписывайтесь на наш канал в Дзен!

Версия для печатиВерсия для печати

Регион: 

Рубрики: 

Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Читайте также