OpenAI, одна из ведущих исследовательских организаций по искусственному интеллекту, недавно объявила о выпуске своей новейшей продвинутой языковой модели GPT-4. В отличие от предшественника GPT-3.5, GPT-4 является мультимодальной моделью, которая может работать как с текстом, так и с изображениями.
По словам разработчиков, в обычных разговорах разница между GPT-3.5 и GPT-4 может быть едва заметна. Однако отличия начинают проявляться, как только сложность задачи достигает определенного порога. GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие запросы, чем GPT-3.5.
Одним из самых значительных улучшений в GPT-4 является его способность принимать изображения в качестве входных данных и генерировать подписи, анализировать изображения и отвечать на вопросы о них. Например, модель может подсказать, какое блюдо приготовить из продуктов на фотографии. Кроме того, GPT-4 способен обрабатывать более 25 000 слов текста, что делает его подходящим для создания резюме, длинных статей для продвижения сайтов, официальных документов и многих других задач.
На данный момент платные подписчики Plus могут опробовать новую модель GPT-4 через бота ChatGPT за $20 в месяц. OpenAI заявляет, что будет корректировать ограничения на использование бота в зависимости от нагрузки и может ввести дополнительные платные тарифы на использование новой модели.
Для тех, кто хочет получить доступ к API, OpenAI выпустила список ожидания, где пользователи могут оставить заявку.
Стоит отметить, что Google недавно объявил о внедрении новых функций на основе генеративного ИИ во все инструменты Workspace.
В заключение, GPT-4 представляет собой значительный прорыв в области искусственного интеллекта и имеет потенциал для революции во многих областях и индустриях. Его универсальность и точность делают его ценным инструментом для широкого спектра задач, и его будущее выглядит невероятно многообещающим.