OpenAI опубликовала новую запись в блоге, посвященную разработке безопасного и полезного искусственного интеллекта (ИИ).

ChatGPT, основанный на последней модели OpenAI, GPT-4, может повысить производительность, повысить творческий потенциал и обеспечить индивидуальный подход к обучению.

Тем не менее, OpenAI признает, что инструменты ИИ имеют неотъемлемые риски, которые необходимо устранять с помощью мер безопасности и ответственного развертывания.

Вот что делает компания, чтобы снизить эти риски.

Обеспечение безопасности в системах ИИ

OpenAI проводит тщательное тестирование, обращается за рекомендациями к внешним экспертам и совершенствует свои модели ИИ с учетом отзывов людей, прежде чем выпускать новые системы.

Выпуску GPT-4, например, предшествовало более шести месяцев тестирования, чтобы гарантировать его безопасность и соответствие потребностям пользователей.

OpenAI считает, что надежные системы ИИ должны подвергаться тщательной оценке безопасности, и поддерживает необходимость регулирования.

Обучение на реальном использовании

Использование в реальных условиях является критически важным компонентом в разработке безопасных систем искусственного интеллекта. Осторожно выпуская новые модели для постепенно расширяющейся пользовательской базы, OpenAI может вносить улучшения, направленные на решение непредвиденных проблем.

Предлагая модели ИИ через свой API и веб-сайт, OpenAI может отслеживать неправомерное использование, принимать соответствующие меры и разрабатывать тонкие политики для балансировки рисков.

Защита детей и соблюдение конфиденциальности

OpenAI уделяет первостепенное внимание защите детей, требуя проверки возраста и запрещая использование своей технологии для создания вредоносного контента.

Конфиденциальность — еще один важный аспект работы OpenAI. Организация использует данные, чтобы сделать свои модели более полезными и защитить пользователей.

Кроме того, OpenAI удаляет личную информацию из обучающих наборов данных и настраивает модели, чтобы отклонять запросы на личную информацию.

ЧИТАТЬ  Как оказать гуманитарную помощь иностранцам без документов? - БТБ Недвижимость

OpenAI ответит на запросы об удалении личной информации из своих систем.

Повышение фактической точности

Фактическая точность является важным направлением для OpenAI. GPT-4 имеет на 40% больше шансов создать точный контент, чем его предшественник, GPT-3.5.

Организация стремится информировать пользователей об ограничениях инструментов ИИ и возможности неточностей.

Продолжение исследований и взаимодействия

OpenAI верит в то, что нужно выделять время и ресурсы для исследования эффективных методов смягчения последствий и выравнивания.

Однако это не то, что он может сделать в одиночку. Решение вопросов безопасности требует обширных дискуссий, экспериментов и участия заинтересованных сторон.

OpenAI по-прежнему привержен развитию сотрудничества и открытого диалога для создания безопасной экосистемы ИИ.

Критика экзистенциальных рисков

Несмотря на приверженность OpenAI обеспечению безопасности и широких преимуществ своих систем ИИ, сообщение в блоге вызвало критику в социальных сетях.

Пользователи Twitter выразили разочарование, заявив, что OpenAI не справляется с экзистенциальными рисками, связанными с развитием ИИ.

Один пользователь Twitter выразил свое разочарование, обвинив OpenAI в предательстве своей основной миссии и сосредоточении внимания на безрассудной коммерциализации.

Пользователь предполагает, что подход OpenAI к безопасности поверхностен и больше связан с умиротворением критиков, чем с устранением реальных экзистенциальных рисков.

Другой пользователь выразил недовольство объявлением, заявив, что оно замалчивает реальные проблемы и остается расплывчатым. Пользователь также подчеркивает, что в отчете игнорируются критические этические проблемы и риски, связанные с самосознанием ИИ, подразумевая, что подход OpenAI к вопросам безопасности является неадекватным.

Критика подчеркивает более широкие опасения и продолжающиеся споры об экзистенциальных рисках, связанных с развитием ИИ.

ЧИТАТЬ  Поисковые системы Google понижают рейтинг контента, резко отличающегося от основного контента

Хотя в объявлении OpenAI подчеркивается ее приверженность безопасности, конфиденциальности и точности, важно признать необходимость дальнейшего обсуждения для решения более серьезных проблем.


Избранное изображение: TY Lim/Shutterstock

Источник: OpenAI





Source link