Менеджеры по продуктам, дизайнеры и инженеры Google Bard подвергают сомнению эффективность и полезность чат-бота с искусственным интеллектом, как показывают сообщения из «официальной» группы Discord.
Ключевые моменты
- Члены группы Google Bard Discord, доступной только по приглашению, подвергают сомнению эффективность и полезность чат-бота с искусственным интеллектом.
- Не следует доверять выводам генеративного ИИ без независимой проверки информации.
- Мы приветствуем обратную связь от пользователей Bard, пока инструмент находится на экспериментальной стадии разработки.
Компания Google, принадлежащая Alphabet Inc., запускает чат на Discord, доступный только по приглашению, для активных пользователей Bard, чат-бота Google с искусственным интеллектом (ИИ), работающего на основе большой языковой модели (LLM) под названием LaMDA. В группе Discord насчитывается почти 9000 участников, в том числе менеджеры по продуктам, дизайнеры и инженеры Google, которые используют частный форум, чтобы открыто обсуждать эффективность и полезность Bard, а некоторые участники задаются вопросом, стоят ли огромные ресурсы, вкладываемые в разработку чат-бота с искусственным интеллектом. , по данным Bloomberg статья.
«Самая большая проблема, о которой я все еще думаю: чем действительно полезны программы LLM с точки зрения полезности?» — сказала Кэти Перл, руководитель отдела пользовательского опыта Bard, в августе 2023 года. «Как будто действительно что-то меняю. Будет определено!»
По мере того, как Google продолжал интегрировать Bard в свои основные продукты, такие как Gmail, Карты, Документы и YouTube, в компанию стали поступать жалобы на то, что чат-бот с искусственным интеллектом генерирует вымышленные факты и дает потенциально опасные советы своим пользователям. В тот же день, когда Google представил расширения приложений для Bard, компания также анонсировала кнопку поиска Google в интерфейсе Bard, которая поможет пользователям дважды проверять генеративные ответы ИИ инструмента на предмет фактической точности по результатам поисковой системы.
«Мое практическое правило — не доверять результатам LLM, пока я не смогу самостоятельно проверить их», — написал в чате Discord в июле 2023 года Доминик Рабией, старший менеджер по продукту Bard. «Хотелось бы довести их до такой степени, что вы сможете , но его еще нет».
Bloomberg просмотрел десятки сообщений в группе Discord с июля по октябрь 2023 года, которые дали представление о том, как Барда критикуют пользователи, которые знают его лучше всего. Некоторые из этих сообщений указывают на то, что руководители компании, которым было поручено разработать чат-бота с искусственным интеллектом, не согласны с потенциалом Барда.
Разъясняя свой ответ об ответах «не доверять», генерируемых большими языковыми моделями, Рабидж разъяснил комментарий о «не доверянии» LLM, предложив ограничить использование Bard людьми «творческими/мозговыми штурмами». Использование Bard для программирования приложений также было хорошим вариантом, сказал Рабидж, «поскольку вы неизбежно проверяете, работает ли код!»
Дебаты об ограничениях Барда на канале Google Discord не удивительны для большинства членов группы, поскольку это рутинная часть разработки продукта. «С момента запуска Bard в качестве эксперимента нам очень хотелось услышать отзывы людей о том, что им нравится и как мы можем еще улучшить этот опыт», — сказала Дженнифер Родстром, представитель Google. «Наш канал обсуждения с людьми, которые используют Discord, — один из многих способов, которыми мы это делаем».
Google объявление В выпуске Bard в марте 2023 года также содержались подробности об ограничениях чат-бота с искусственным интеллектом во время разработки. В нем говорится: «Хотя LLM и являются захватывающей технологией, они не лишены недостатков. Например, поскольку они учатся на широком спектре информации, которая отражает реальные предубеждения и стереотипы, они иногда проявляются в их результатах. И они могут предоставлять неточную, вводящую в заблуждение или ложную информацию, преподнося ее уверенно».
Google Bard также включает в себя заявление об отказе от ответственности для своих пользователей, в котором говорится: «Bard может отображать неточную или оскорбительную информацию, которая не отражает точку зрения Google».
Google Bard все еще является ранним экспериментом для компании, а инструмент генеративного искусственного интеллекта все еще учится и развивается. Пользователям следует проверить источники, которые использует Бард, на точность. Если результат кажется галлюцинацией (выдуманной или неверной), пользователям следует оставить отзыв, поскольку Google продолжает улучшать качество и безопасность продукта.
Краткое содержание
Члены частной группы тестирования Google Bard на Discord ставят под сомнение эффективность и полезность чат-бота с искусственным интеллектом на нынешнем этапе его разработки, и у них возникают противоречивые чувства относительно потенциала Bard. Bard все еще находится на экспериментальной стадии, где он может выдавать ложные или неточные результаты. В результате пользователи продукта не должны доверять выводам, если они не могут быть проверены независимо.
Стивен Хокман — предприниматель и основатель SEO Chatter. Он специализируется на поисковой оптимизации и цифровом маркетинге и увлекается SEO с 2005 года. Его цель — делиться лучшими советами и новостями о поисковом маркетинге, чтобы помочь вам увеличить посещаемость веб-сайта.