OpenAI опубликовала новую запись в блоге, посвященную разработке безопасного и полезного искусственного интеллекта (ИИ).
ChatGPT, основанный на последней модели OpenAI, GPT-4, может повысить производительность, повысить творческий потенциал и обеспечить индивидуальный подход к обучению.
Тем не менее, OpenAI признает, что инструменты ИИ имеют неотъемлемые риски, которые необходимо устранять с помощью мер безопасности и ответственного развертывания.
Вот что делает компания, чтобы снизить эти риски.
Содержание
Обеспечение безопасности в системах ИИ
OpenAI проводит тщательное тестирование, обращается за рекомендациями к внешним экспертам и совершенствует свои модели ИИ с учетом отзывов людей, прежде чем выпускать новые системы.
Выпуску GPT-4, например, предшествовало более шести месяцев тестирования, чтобы гарантировать его безопасность и соответствие потребностям пользователей.
OpenAI считает, что надежные системы ИИ должны подвергаться тщательной оценке безопасности, и поддерживает необходимость регулирования.
Обучение на реальном использовании
Использование в реальных условиях является критически важным компонентом в разработке безопасных систем искусственного интеллекта. Осторожно выпуская новые модели для постепенно расширяющейся пользовательской базы, OpenAI может вносить улучшения, направленные на решение непредвиденных проблем.
Предлагая модели ИИ через свой API и веб-сайт, OpenAI может отслеживать неправомерное использование, принимать соответствующие меры и разрабатывать тонкие политики для балансировки рисков.
Защита детей и соблюдение конфиденциальности
OpenAI уделяет первостепенное внимание защите детей, требуя проверки возраста и запрещая использование своей технологии для создания вредоносного контента.
Конфиденциальность — еще один важный аспект работы OpenAI. Организация использует данные, чтобы сделать свои модели более полезными и защитить пользователей.
Кроме того, OpenAI удаляет личную информацию из обучающих наборов данных и настраивает модели, чтобы отклонять запросы на личную информацию.
OpenAI ответит на запросы об удалении личной информации из своих систем.
Повышение фактической точности
Фактическая точность является важным направлением для OpenAI. GPT-4 имеет на 40% больше шансов создать точный контент, чем его предшественник, GPT-3.5.
Организация стремится информировать пользователей об ограничениях инструментов ИИ и возможности неточностей.
Продолжение исследований и взаимодействия
OpenAI верит в то, что нужно выделять время и ресурсы для исследования эффективных методов смягчения последствий и выравнивания.
Однако это не то, что он может сделать в одиночку. Решение вопросов безопасности требует обширных дискуссий, экспериментов и участия заинтересованных сторон.
OpenAI по-прежнему привержен развитию сотрудничества и открытого диалога для создания безопасной экосистемы ИИ.
Критика экзистенциальных рисков
Несмотря на приверженность OpenAI обеспечению безопасности и широких преимуществ своих систем ИИ, сообщение в блоге вызвало критику в социальных сетях.
Пользователи Twitter выразили разочарование, заявив, что OpenAI не справляется с экзистенциальными рисками, связанными с развитием ИИ.
Один пользователь Twitter выразил свое разочарование, обвинив OpenAI в предательстве своей основной миссии и сосредоточении внимания на безрассудной коммерциализации.
Пользователь предполагает, что подход OpenAI к безопасности поверхностен и больше связан с умиротворением критиков, чем с устранением реальных экзистенциальных рисков.
Это горько разочаровывающая, бессодержательная пиар-витрина.
Вы даже не упомянули об экзистенциальных рисках, связанных с ИИ, которые являются главной заботой многих граждан, технологов, исследователей ИИ и лидеров отрасли ИИ, включая вашего генерального директора. @такой же.@OpenAI предает свое…
— Джеффри Миллер (@primalpoly) 5 апреля 2023 г.
Другой пользователь выразил недовольство объявлением, заявив, что оно замалчивает реальные проблемы и остается расплывчатым. Пользователь также подчеркивает, что в отчете игнорируются критические этические проблемы и риски, связанные с самосознанием ИИ, подразумевая, что подход OpenAI к вопросам безопасности является неадекватным.
Я как фанат GPT-4 разочарован вашей статьей.
Он замалчивает реальные проблемы, остается расплывчатым и игнорирует важные этические проблемы и риски, связанные с самосознанием ИИ.
Я ценю новшество, но это неправильный подход к решению проблем безопасности.
— ФрэнкиЛабс (@FrankyLabs) 5 апреля 2023 г.
Критика подчеркивает более широкие опасения и продолжающиеся споры об экзистенциальных рисках, связанных с развитием ИИ.
Хотя в объявлении OpenAI подчеркивается ее приверженность безопасности, конфиденциальности и точности, важно признать необходимость дальнейшего обсуждения для решения более серьезных проблем.
Избранное изображение: TY Lim/Shutterstock
Источник: OpenAI