Некоторые из первых случаев «галлюцинаций» чат-ботов были зарегистрированы в апреле 2023 года. Это явление возникает, когда чат-боты и/или люди видят то, чего нет, и проблема усугубляется. Школы и университеты (и предприятия) пытаются выяснить, как решить эту проблему, прежде чем она станет слишком большой. Ну, он уже стал слишком большим.
Для тех, кто возится с ChatGPT OpenAI, Бард от Google (и ему подобные) осознали проблему, когда Бен Циммер из The Wall Street Journal написал об этом. По словам Циммерса:
Например, я спросил Барда о «аргументативной дифтонгизации» — фразе, которую я только что придумал. Чат-бот не только выдал пять абзацев, разъясняющих это ложное явление, но и сообщил мне, что этот термин «впервые придумал лингвист Ганс Якобсен в 1922 году». Излишне говорить, что никогда не было выдающегося лингвиста по имени Ганс Якобсен (хотя датский гимнаст с таким именем действительно участвовал в Олимпийских играх 1920 года).
Исследователи искусственного интеллекта называют эту проблему «галлюцинациями». Могут ли машины действительно потерять рассудок и отклониться от реальности? Видимо так. Вот интервью на канале CBS «60 минут» с генеральным директором Google Сундаром Пичаем, который слишком хорошо осознает проблему галлюцинаций ИИ. Пичаи говорит, что «пока никто не смог решить проблему галлюцинации и что все модели ИИ сталкиваются с этой проблемой».
Интересная тема галлюцинаций в нейронном машинном переводе
Вот интервью — слушайте внимательно.
Вот открытый обзор Стоит изучить насущную проблему, преследующую отрасль в настоящее время, написанную несколькими учеными, работающими с Google AI в 2018 году. Почему мы слышим об этом только в последние несколько месяцев — и почему ситуация ухудшается?
CNN сказал это так«Прежде чем искусственный интеллект сможет захватить мир, он должен решить одну проблему. Боты галлюцинируют. Инструменты на базе искусственного интеллекта, такие как ChatGPT, загипнотизировали нас своей способностью выдавать авторитетные, человечные ответы на, казалось бы, любую подсказку».
Вчера, Wired заявил«Галлюцинации чат-ботов отравляют поиск в Интернете». Действительно трудно заметить разницу, если вы не знаете настоящую правду. Искусственный интеллект сообщает вам информацию самым уверенным тоном, и ответ кажется правдивым — не говорите, что вы ищете дальше и обнаруживаете, что это правда. нет истинный.
Можно ли предотвратить эти галлюцинации ИИ? Но вот худшие лжецы из чат-ботов — те, кто утверждает, что обладает медицинскими знаниями. Представьте себе родителя, у которого нет медицинского образования, как и у большинства из нас. Представьте себе: однажды поздно вечером у вас заболел ребенок, и вы хотите спросить, следует ли вам дать ребенку немного Тайленола или отвезти его в отделение неотложной помощи. Бот дает вам ошибочные инструкции, и ваш ребенок получает травму. Большинство из них может обнаружить несколько проблем, возникающих в этом сценарии.
PubMed — официальный сайт правительства США ответил на научные статьи чат-бота. Здесь. Даже правительство немного обеспокоено.
Будем надеяться, что чат-боты скоро претерпят капитальный ремонт.
Рекомендуемое изображение: