Гэри Иллис из Google предостерег от использования больших языковых моделей (LLM) и подчеркнул важность проверки авторитетных источников, прежде чем принимать ответы от LLM. Его ответ был дан в контексте вопроса, но, как ни странно, он не опубликовал, в чем заключался вопрос.
LLM Автоответчики
Из заявления Гэри Иллиеса видно, что его рекомендация направлена на использование ИИ для ответа на запросы. Заявление последовало за заявлением OpenAI о том, что SearchGPT тестирует прототип поисковой системы с искусственным интеллектом. Возможно, его заявление не имеет ничего общего с этим заявлением и является просто совпадением.
Гэри начал с объяснения того, как студенты LLM создают ответы на вопросы, и упомянул, что метод под названием «заземление» может повысить точность ответов, генерируемых ИИ, но он не идеален на 100%, и ошибки все равно случаются. Заземление — это способ подключить базу данных фактов, знаний и веб-сайтов к программе LLM. Цель состоит в том, чтобы основывать ответы, генерируемые ИИ, на авторитетных фактах.
Вот что написал Гэри:
«Основываясь на данных обучения, LLM находят наиболее подходящие слова, фразы и предложения, которые соответствуют контексту и значению подсказки.
Это позволяет им генерировать релевантные и последовательные ответы. Однако они не обязательно должны быть фактически верными. ВАМ, пользователю этих LLM, все равно необходимо будет проверять ответы на основе ваших знаний темы, о которой вы задали LLM, или дополнительного чтения ресурсов, соответствующих вашему запросу.
Конечно, заземление может помочь дать более фактически правильные ответы, но оно не идеально; оно не заменяет ваш мозг. Интернет полон преднамеренной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете. Так почему же вам следует писать ответы с помощью LLM?
К сожалению, этот пост также есть в Интернете, и я могу быть LLM. Ну, это ваше дело».
Контент и ответы, созданные искусственным интеллектом
Сообщение Гэри в LinkedIn является напоминанием о том, что LLM генерируют ответы, которые контекстуально релевантны заданным вопросам, но эта контекстуальная релевантность не обязательно означает фактическую правильность.
Авторитет и надежность — важные характеристики типа контента, который Google пытается ранжировать. Поэтому в интересах издателей постоянно проверять контент, особенно контент, созданный искусственным интеллектом, на точность, чтобы избежать непреднамеренной потери авторитета. Необходимость проверки фактов касается и тех, кто использует генеративный ИИ для ответов.
Прочтите сообщение Гэри на LinkedIn:
Я отвечаю на что-то из своего почтового ящика здесь
Рекомендованное изображение: Shutterstock/Роман Самборский