Генеральный директор OpenAI Сэм Альтман ответил на запрос Федеральной торговой комиссии в рамках расследования, чтобы определить, «занималась ли компания недобросовестными или вводящими в заблуждение» методами, связанными с конфиденциальностью, безопасностью данных и рисками причинения вреда потребителям, особенно связанными с репутацией.
очень разочаровывает то, что запрос FTC начинается с утечки и не способствует укреплению доверия.
Тем не менее, для нас очень важно, чтобы наша технология была безопасной и ориентированной на потребителя, и мы уверены, что соблюдаем закон. конечно, мы будем работать с FTC.
— Сэм Альтман (@sama) 13 июля 2023 г.
FTC запросила у OpenAI информацию, относящуюся к июню 2020 года, как показано в просочившемся документе, полученном Вашингтон пост.
Предмет расследования: нарушал ли OpenAI Раздел 5 Закона о ФТК?
Документация, которую должен предоставить OpenAI, должна включать подробную информацию об обучении модели большого языка (LLM), уточнении, подкреплении за счет отзывов людей, надежности ответов, а также политиках и методах, касающихся конфиденциальности потребителей, безопасности и снижения рисков.
мы прозрачны в отношении ограничений нашей технологии, особенно когда мы не оправдываем ожиданий. и наша структура ограниченной прибыли означает, что мы не заинтересованы в получении неограниченной прибыли.
— Сэм Альтман (@sama) 13 июля 2023 г.
Содержание
- 1 Растущая озабоченность FTC по поводу генеративного ИИ
- 1.1 Внимание к технологии автоматизированного принятия решений
- 1.2 ИИ под контролем
- 1.3 Дипфейки и обман
- 1.4 ИИ распространяет вредоносное ПО
- 1.5 Федеральные агентства объединяются, чтобы заняться регулированием ИИ
- 1.6 ИИ и потребительское доверие
- 1.7 Мнение о рисках ИИ
- 1.8 ИИ и конфиденциальность данных
- 1.9 Соревнования по генеративному ИИ
- 1.10 Подозрительные маркетинговые заявления
- 2 Что обнаружит FTC?
Растущая озабоченность FTC по поводу генеративного ИИ
Расследование практики крупной ИИ-компании не вызывает удивления. Интерес FTC к рискам генеративного ИИ растет с тех пор, как популярность ChatGPT резко возросла.
Внимание к технологии автоматизированного принятия решений
В апрель 2021 г.FTC опубликовала руководство по искусственному интеллекту (ИИ) и алгоритмам, предупредив компании о том, что их системы ИИ должны соответствовать законам о защите прав потребителей.
Он отметил раздел 5 Закона о FTC, Закон о достоверной кредитной отчетности и Закон о равных кредитных возможностях как законы, важные для разработчиков и пользователей ИИ.
FTC предупредила, что алгоритмы, построенные на предвзятых данных или ошибочной логике, могут привести к дискриминационным результатам, даже если они непреднамеренны.
FTC изложила передовые методы этичной разработки ИИ, основываясь на своем опыте обеспечения соблюдения законов против недобросовестной практики, обмана и дискриминации.
Рекомендации включают в себя тестирование систем на предвзятость, проведение независимых аудитов, ограничение завышенных маркетинговых заявлений и взвешивание общественного вреда по сравнению с пользой.
«Если ваш алгоритм приводит к кредитной дискриминации в отношении защищенного класса, вы можете столкнуться с жалобой на предполагаемые нарушения Закона о FTC и ECOA», — предупреждает руководство.
ИИ под контролем
FTC напомнила компаниям, занимающимся искусственным интеллектом, о своем руководстве по искусственному интеллекту от 2021 года в отношении преувеличенных или необоснованных маркетинговых заявлений о возможностях искусственного интеллекта.
В посте от февраль 2023 г.организация предостерегла маркетологов от того, чтобы они не попадались на ажиотаж вокруг ИИ и не давали обещаний, которые их продукты не могут выполнить.
Упомянутые общие проблемы: утверждение, что ИИ может сделать больше, чем позволяют современные технологии, проведение необоснованных сравнений с продуктами, не использующими ИИ, и отсутствие проверки на наличие рисков и предубеждений.
FTC подчеркнула, что ложный или вводящий в заблуждение маркетинг представляет собой незаконное поведение, независимо от сложности технологии.
Напоминание пришло через несколько недель после того, как число пользователей OpenAI ChatGPT достигло 100 миллионов.
FTC также опубликовала список вакансий для технологов в это время, в том числе тех, кто имеет опыт работы с ИИ, для поддержки расследований, политических инициатив и исследований в области защиты прав потребителей и конкуренции в технологической отрасли.
Дипфейки и обман
Примерно через месяц в г. МаршироватьFTC предупредила, что генеративные инструменты искусственного интеллекта, такие как чат-боты и дипфейки, могут способствовать широко распространенному мошенничеству, если они используются безответственно.
Он предупредил разработчиков и компании, использующие синтетические носители и генеративный ИИ, учитывать неотъемлемые риски неправильного использования.
Агентство заявило, что злоумышленники могут использовать реалистичный, но поддельный контент из этих систем искусственного интеллекта для фишинга, кражи личных данных, вымогательства и другого вреда.
Хотя некоторые виды использования могут быть полезными, FTC призвала фирмы взвешивать производство или продажу таких инструментов ИИ, учитывая предсказуемую преступную эксплуатацию.
FTC рекомендовала компаниям, продолжающим разрабатывать или использовать генеративный ИИ, принимать строгие меры предосторожности для предотвращения злоупотреблений.
Он также предостерегал от использования синтетических медиа для вводящего в заблуждение маркетинга и не раскрывал информацию о том, когда потребители взаимодействуют с чат-ботами с искусственным интеллектом, а не с реальными людьми.
ИИ распространяет вредоносное ПО
В апрельFTC раскрыла, как киберпреступники использовали интерес к ИИ для распространения вредоносного ПО через поддельную рекламу.
Фальшивая реклама продвигала инструменты искусственного интеллекта и другое программное обеспечение в социальных сетях и поисковых системах.
Щелкая по этим объявлениям, пользователи переходят на клонированные сайты, которые загружают вредоносное ПО или используют бэкдоры для незамеченного заражения устройств. Украденная информация затем продавалась в даркнете или использовалась для доступа к онлайн-аккаунтам жертв.
Чтобы избежать взлома, FTC посоветовала не нажимать на рекламу программного обеспечения.
В случае заражения пользователи должны обновить инструменты безопасности и операционные системы, а затем выполнить шаги, чтобы удалить вредоносное ПО или восстановить взломанные аккаунты.
FTC предупредила общественность о том, что киберпреступники становятся все более изощренными в распространении вредоносных программ через рекламные сети.
Федеральные агентства объединяются, чтобы заняться регулированием ИИ
Ближе к концу апрельчетыре федеральных агентства — Бюро финансовой защиты потребителей (CFPB), Отдел гражданских прав (DOJ) Министерства юстиции, Комиссия по равным возможностям трудоустройства (EEOC) и FTC — опубликовали заявление о том, как они будут контролировать разработку ИИ и обеспечивать соблюдение законы против дискриминации и предвзятости в автоматизированных системах.
Агентства утвердили свою власть над ИИ в соответствии с существующими законами о гражданских правах, справедливом кредитовании, равных возможностях и защите прав потребителей.
Вместе они предупредили, что системы ИИ могут увековечить незаконную предвзятость из-за ошибочных данных, непрозрачных моделей и неправильного выбора дизайна.
Партнерство направлено на продвижение ответственных инноваций в области искусственного интеллекта, которые расширяют доступ потребителей, качество и эффективность, не нарушая давние меры защиты.
ИИ и потребительское доверие
В МожетFTC предостерегает компании от использования новых генеративных инструментов искусственного интеллекта, таких как чат-боты, для несправедливого манипулирования решениями потребителей.
После описания событий из фильма Из машиныФедеральная торговая комиссия заявила, что человеческое убеждение чат-ботов с искусственным интеллектом может подтолкнуть людей к вредному выбору в отношении финансов, здоровья, образования, жилья и работы.
Хотя это и не обязательно преднамеренно, FTC заявила, что элементы дизайна, которые используют доверие людей к машинам для обмана потребителей, представляют собой недобросовестные и вводящие в заблуждение действия в соответствии с законодательством FTC.
Агентство посоветовало фирмам избегать чрезмерной антропоморфизации чат-ботов и обеспечивать раскрытие информации о платных рекламных акциях, вплетенных во взаимодействие с ИИ.
В связи с растущим внедрением генеративного ИИ предупреждение FTC заставляет компании заранее оценивать последующие социальные последствия.
Эти спешащие инструменты для выхода на рынок без надлежащей этической проверки или защиты могут привести к действиям FTC за нанесенный ущерб потребителю.
Мнение о рисках ИИ
Председатель FTC Лина Хан утверждала, что генеративный ИИ создает риски закрепления значительного технологического доминирования, мошенничества с турбонаддувом и автоматической дискриминации, если его не остановить.
В статье New York Times опубликовано несколько дней после предупреждения о доверии потребителей Хан сказал, что FTC стремится поощрять конкуренцию и защищать потребителей по мере расширения ИИ.
Хан предупредил, что несколько влиятельных компаний контролируют ключевые входные данные ИИ, такие как данные и вычисления, что может укрепить их господство в отсутствие антимонопольной бдительности.
Она предупредила, что реалистичный поддельный контент от генеративного ИИ может способствовать распространению мошенничества. Кроме того, предвзятые данные рискуют алгоритмами, которые незаконно блокируют возможности людей.
Хан утверждал, что, несмотря на новизну, системы искусственного интеллекта не освобождаются от защиты прав потребителей и антимонопольных органов Федеральной торговой комиссии. Хан отметил, что при ответственном контроле генеративный ИИ может расти справедливо и конкурентоспособно, избегая ловушек других технологические гиганты.
ИИ и конфиденциальность данных
В ИюньFTC предупредила компании, что защита конфиденциальности потребителей в равной степени распространяется на системы искусственного интеллекта, зависящие от личных данных.
В жалобах на Амазонка и КольцоФедеральная торговая комиссия заявила о недобросовестной и вводящей в заблуждение практике использования голосовых и видеоданных для обучения алгоритмов.
Председатель FTC Хан сказал, что преимущества ИИ не перевешивают затраты на конфиденциальность инвазивного сбора данных.
Агентство утверждает, что потребители сохраняют контроль над своей информацией, даже если она принадлежит компании. Когда сотрудники просматривают конфиденциальные биометрические данные, ожидаются строгие меры безопасности и контроля доступа.
Что касается данных детей, FTC заявила, что будет полностью соблюдать закон о конфиденциальности детей, COPPA. Жалобы требовали удаления незаконно полученных биометрических данных и любых моделей ИИ, полученных на их основе.
Сообщение для технологических фирм было ясным: хотя потенциал ИИ огромен, юридические обязательства в отношении конфиденциальности потребителей остаются первостепенными.
Соревнования по генеративному ИИ
Ближе к концу ИюньFTC выпустила руководство, предупреждающее, что быстрый рост генеративного ИИ может вызвать опасения по поводу конкуренции, если ключевые ресурсы перейдут под контроль нескольких доминирующих технологических компаний.
Агентство заявило, что для разработки передовых моделей генеративного ИИ необходимы такие важные ресурсы, как данные, таланты и вычислительные ресурсы. Агентство предупредило, что если горстка крупных технологических компаний получит слишком большой контроль над этими входными данными, они могут использовать эту власть, чтобы исказить конкуренцию на рынках генеративного ИИ.
FTC предупредила, что антиконкурентная тактика, такая как объединение, связывание, эксклюзивные сделки или скупка конкурентов, может позволить действующим операторам обойти новых соперников и закрепить свое лидерство.
FTC заявила, что будет следить за проблемами конкуренции, связанными с генеративным ИИ, и принимать меры против недобросовестной практики.
Цель состояла в том, чтобы позволить предпринимателям внедрять инновации с помощью преобразующих технологий искусственного интеллекта, таких как чат-боты, которые могли бы изменить потребительский опыт в разных отраслях. FTC считает, что при правильной политике новый генеративный ИИ может раскрыть весь свой экономический потенциал.
Подозрительные маркетинговые заявления
В начале ИюльFTC предупредила об инструментах ИИ, которые могут генерировать дипфейки, клонированные голоса и искусственное увеличение текста, поэтому также появились инструменты, утверждающие, что они обнаруживают такой контент, созданный ИИ.
Однако эксперты предупредили, что маркетинговые заявления некоторых средств обнаружения могут преувеличивать их возможности.
FTC предостерегла компании от преувеличения точности и надежности своих инструментов обнаружения. Учитывая ограничения современных технологий, предприятия должны обеспечить, чтобы маркетинг отражал реалистичные оценки того, что эти инструменты могут и чего не могут делать.
Кроме того, FTC отметила, что пользователям следует опасаться заявлений о том, что инструмент может безошибочно отлавливать все подделки ИИ. Несовершенное обнаружение может привести к несправедливому обвинению невиновных людей, таких как соискатели, в создании поддельного контента.
Что обнаружит FTC?
Расследование FTC в отношении OpenAI происходит на фоне растущего контроля со стороны регулирующих органов в отношении систем генеративного ИИ.
Поскольку эти мощные технологии открывают новые возможности, такие как чат-боты и дипфейки, они создают новые риски, связанные с предвзятостью, конфиденциальностью, безопасностью, конкуренцией и обманом.
OpenAI должен ответить на вопросы о том, предпринял ли он адекватные меры предосторожности при разработке и выпуске таких моделей, как GPT-3 и DALL-E, которые сформировали траекторию развития области ИИ.
Похоже, что FTC сосредоточена на обеспечении того, чтобы методы OpenAI соответствовали законам о защите прав потребителей, особенно в отношении маркетинговых заявлений, методов работы с данными и уменьшения общественного вреда.
То, как OpenAI реагирует и возникают ли какие-либо принудительные меры, может создать важные прецеденты для регулирования по мере развития ИИ.
На данный момент расследование FTC подчеркивает, что ажиотаж вокруг ИИ не должен опережать ответственный надзор.
Надежные системы искусственного интеллекта открывают большие перспективы, но создают риски при развертывании без достаточных мер безопасности.
Крупные компании, занимающиеся искусственным интеллектом, должны обеспечить соответствие новых технологий давним законам, защищающим потребителей и рынки.
Рекомендуемое изображение: Ascannio/Shutterstock