OpenAI прекратила выпуск своего классификатора ИИ, инструмента, предназначенного для идентификации текста, сгенерированного ИИ, после критики по поводу его точности.
Прекращение было тонко объявлено через обновление существующего Сообщение блога.
Объявление OpenAI гласит:
«По состоянию на 20 июля 2023 года классификатор ИИ больше недоступен из-за его низкой точности. Мы работаем над тем, чтобы учесть отзывы, и в настоящее время изучаем более эффективные методы провенанса для текста. Мы взяли на себя обязательство разработать и внедрить механизмы, которые позволяют пользователям понять, создан ли аудио- или визуальный контент искусственным интеллектом».
Содержание
Взлет и падение классификатора OpenAI
Этот инструмент был запущен в марте 2023 года в рамках усилий OpenAI по разработке инструментов классификатора ИИ, которые помогают людям понять, создается ли аудио- или визуальный контент с помощью ИИ.
Он был направлен на определение того, были ли текстовые отрывки написаны человеком или искусственным интеллектом, путем анализа лингвистических особенностей и присвоения «рейтинга вероятности».
Инструмент приобрел популярность, но в конечном итоге был прекращен из-за недостатков в его способности различать человеческое и машинное письмо.
Проблемы роста для технологии обнаружения ИИ
Внезапное отключение текстового классификатора OpenAI подчеркивает текущие проблемы разработки надежных систем обнаружения ИИ.
Исследователи предупреждают, что неточные результаты могут привести к непредвиденным последствиям при безответственном применении.
Кристи Хайнс из Search Engine Journal недавно изучила несколько недавних исследований, раскрывающих слабые места и предубеждения в системах обнаружения ИИ.
Исследователи обнаружили, что инструменты часто ошибочно маркировали текст, написанный человеком, как созданный искусственным интеллектом, особенно для тех, для кого английский язык не является родным.
Они подчеркивают, что дальнейшее развитие ИИ потребует параллельного прогресса в методах обнаружения для обеспечения справедливости, подотчетности и прозрачности.
Тем не менее, критики говорят, что разработка генеративного ИИ быстро опережает инструменты обнаружения, что позволяет легче уклоняться.
Потенциальные опасности ненадежного обнаружения ИИ
Эксперты предостерегают от чрезмерного использования существующих классификаторов при принятии важных решений, таких как обнаружение академического плагиата.
Возможные последствия использования неточных систем обнаружения ИИ:
- Несправедливое обвинение авторов-людей в плагиате или жульничестве, если система ошибочно помечает их оригинальную работу как созданную ИИ.
- Позволить плагиату или контенту, созданному искусственным интеллектом, оставаться незамеченным, если система не может правильно идентифицировать нечеловеческий текст.
- Усиление предубеждений, если ИИ с большей вероятностью ошибочно классифицирует стили письма определенных групп как нечеловеческие.
- Распространение дезинформации, если сфабрикованный или сфабрикованный контент остается незамеченным неисправной системой.
В итоге
Поскольку контент, созданный ИИ, становится все более распространенным, крайне важно продолжать совершенствовать системы классификации, чтобы завоевать доверие.
OpenAI заявила, что по-прежнему занимается разработкой более надежных методов идентификации контента ИИ. Однако быстрый отказ его классификатора демонстрирует, что совершенствование такой технологии требует значительного прогресса.
Рекомендуемое изображение: фотос/Shutterstock