Согласно отчету OpenAI, компания OpenAI разработала внутреннюю шкалу для отслеживания прогресса своих больших языковых моделей в направлении общего искусственного интеллекта (AGI). Блумберг.
AGI обычно означает ИИ с интеллектом, подобным человеческому, и считается главной целью разработчиков ИИ. В предыдущих источниках OpenAI определял AGI как «высокоавтономную систему, которая превосходит людей в большинстве экономически ценных задач». Это выходит далеко за рамки нынешних возможностей ИИ. Эта новая шкала призвана обеспечить структурированную основу для отслеживания прогресса и установления контрольных показателей в этой области.
Шкала, представленная OpenAI, делит прогресс на пять этапов или этапов на пути к AGI. ChatGPT и конкурирующие с ним чат-боты относятся к уровню 1. OpenAI заявила, что близка к достижению уровня 2, который будет представлять собой систему искусственного интеллекта, способную конкурировать с человеком с докторской степенью в решении фундаментальных проблем. Это может быть отсылкой к GPT-5, который, по словам генерального директора OpenAI Сэма Альтмана, станет «значительным шагом вперед». После этапа 2 этапы становятся все более сложными. Уровень 3 будет представлять собой ИИ-агент, который сможет выполнять задачи за вас без вашего присутствия, а ИИ 4-го уровня фактически будет изобретать новые идеи и концепции. На уровне 5 ИИ может брать на себя задачи не только отдельного человека, но и целых организаций.
Уровень повышен
Идея слоев действительно имеет смысл для OpenAI или любого разработчика. Фактически, комплексная структура не только помогает OpenAI внутри компании, но также может установить универсальный стандарт, который можно применять для оценки других моделей ИИ.
Тем не менее, реализация AGI произойдет не сразу. Предыдущие комментарии Альтмана и других специалистов OpenAI оценивают всего в пять лет, но сроки сильно различаются среди экспертов. Требуемая вычислительная мощность, а также финансовые и технологические проблемы значительны.
К этому добавляются вопросы этики и безопасности, которые поднимает AGI. Существуют обоснованные опасения по поводу того, что ИИ на этом уровне будет означать для общества. И недавние действия OpenAI вряд ли кого-то успокоят. В мае компания распустила свою команду безопасности после того, как ее руководитель и сооснователь OpenAI Илья Суцкевер покинул компанию. Старший исследователь Ян Лейке также подал в отставку, опасаясь, что культура безопасности OpenAI будет проигнорирована. Тем не менее, предоставляя структурированную структуру, OpenAI стремится установить конкретные ориентиры для своих моделей и моделей своих конкурентов, возможно, помогая всем нам подготовиться к тому, что должно произойти.