OpenAI только что выпустила свою последнюю модель ИИ, GPT-4, которая демонстрирует производительность на уровне человека в различных профессиональных и академических тестах.

GPT-4 — это большая мультимодальная модель, которая может принимать изображения и текст на вход и генерировать текст на выходе.

В этой статье мы рассмотрим возможности, ограничения и риски GPT-4, связанные с его использованием.

К концу вы лучше поймете потенциальное влияние GPT-4 и на что он способен, а на что нет.

Возможности

Возможности GPT-4 являются улучшением по сравнению с предыдущей моделью, GPT-3.5, с точки зрения надежности, творчества и обработки сложных инструкций.

OpenAI протестировал модель на различных тестах, включая смоделированные экзамены, предназначенные для людей, и обнаружил, что GPT-4 превосходит существующие модели больших языков.

Он также хорошо работает на языках, отличных от английского, включая языки с низким уровнем ресурсов, такие как латышский, валлийский и суахили.

Визуальные входы

GPT-4 может принимать как текст, так и изображения в качестве входных данных, что позволяет генерировать текстовые выходные данные на основе входных данных, состоящих как из текста, так и из изображений.

Хотя возможности визуального ввода модели все еще находятся на стадии предварительного исследования, она продемонстрировала возможности, аналогичные возможностям ввода только текста.

Управляемость

OpenAI работает над каждым аспектом плана, изложенного в его почта об определении поведения ИИ, включая управляемость.

Разработчики теперь могут предписывать стиль и задачи своего ИИ, описывая направления в «системном» сообщении.

Пользователи API могут настраивать работу своих пользователей в определенных пределах, что позволяет добиться значительной персонализации.

Ограничения

GPT-4 не идеален и имеет те же ограничения, что и более ранние модели GPT.

ЧИТАТЬ  Bing Search тестирует зеленую метку/значок официального сайта

Он по-прежнему может «галлюцинировать» факты и делать ошибки в рассуждениях, поэтому следует соблюдать осторожность при использовании выходных данных языковой модели, особенно в контекстах с высокими ставками.

GPT-4 не знает о событиях после сентября 2021 года, что может привести к простым ошибкам в рассуждениях и принятию ложных утверждений за истинные.

Он также может потерпеть неудачу при решении сложных проблем, таких как люди, например, вводить проблемы безопасности в свой код.

GPT-4 может делать уверенные, но неверные прогнозы и не всегда внимательно проверяет свою работу.

Интересно, что базовая модель хорошо предсказывает точность своих ответов, но эта способность снижается после постобучения.

Риски и меры по их снижению

Хотя возможности GPT-4 значительны, он создает новые риски, такие как генерация вредных советов, ошибочный код или неточная информация.

OpenAI работает над снижением этих рисков, привлекая более 50 экспертов для состязательного тестирования модели и собирая дополнительные данные, чтобы улучшить способность GPT-4 отклонять опасные запросы.

В результате OpenAI внесла множество улучшений в GPT-4, чтобы сделать его более безопасным, чем GPT-3.5.

GPT-4 на 82% реже выдает неприемлемый контент, чем предыдущая версия, и лучше следует правилам в отношении деликатных тем, таких как медицинские консультации и членовредительство.

Хотя OpenAI сделал модель более устойчивой к плохому поведению, создание контента, противоречащего правилам использования, по-прежнему возможно.

OpenAI говорит, что GPT-4 может быть полезен или вреден для общества, поэтому он работает с другими исследователями, чтобы понять потенциальное воздействие.

Учебный процесс

Как и предыдущие модели GPT, базовая модель GPT-4 была обучена предсказывать следующее слово в документе с использованием общедоступных данных и данных, лицензированных OpenAI.

Точная настройка поведения модели с использованием обучения с подкреплением и обратной связью с человеком (RLHF) приводит его в соответствие с намерениями пользователя в пределах ограничений.

ЧИТАТЬ  Это правда – запросы группового чата Microsoft Teams могут быть вредны для вас, поскольку хакеры используют их для распространения вредоносного ПО.

Предсказуемое масштабирование

Значительное внимание в проекте GPT-4 уделялось созданию стека глубокого обучения, который предсказуемо масштабируется.

OpenAI разработал инфраструктуру и оптимизацию с предсказуемым поведением в различных масштабах и может точно предсказать окончательную потерю GPT-4 во время обучения.

Доступность

Майкрософт подтверждает новый интерфейс поиска Bing теперь работает на GPT-4.

Хотя у него есть ограничение на использование, вы также можете получить доступ к GPT-4 с подпиской ChatGPT Plus.

OpenAI может корректировать ограничение использования в зависимости от спроса и производительности системы. Компания рассматривает возможность добавления еще одного уровня подписки, чтобы обеспечить более широкое использование GPT-4.

Чтобы получить доступ к GPT-4 API, вы должны зарегистрироваться в лист ожидания.

Заключение

Создание GPT-4 знаменует собой важную веху в усилиях OpenAI по расширению масштабов глубокого обучения.

Несмотря на несовершенство, он продемонстрировал производительность на уровне человека в различных академических и профессиональных тестах, что делает его мощным инструментом.

Однако следует соблюдать осторожность при использовании выходных данных языковой модели в контекстах с высокими ставками.

OpenAI работает над снижением рисков и созданием стека глубокого обучения, который предсказуемо масштабируется, что будет иметь решающее значение для будущих систем ИИ.


Избранное изображение: Мухаммед S0hail/Shutterstock

Источник: OpenAI





Source link