В последние несколько дней Google представил свою новую модель искусственного интеллекта под названием Gemini. Однако первоначальный энтузиазм быстро пошатнулся, когда выяснилось, что самая впечатляющая демонстрация Модель Близнецов была во многом ложной.
Ложная демонстрация Близнецов
Видео под названием «Практика с Gemini: взаимодействие с мультимодальным ИИ» быстро набрал миллионы просмотров. Демонстрация, казалось, показала, как модель Gemini может понимать и сочетать речь и визуальное восприятие быть гибким и реагировать на различные входные данные. Однако оказалось, что видео было ненастоящим. Google признался в создании демонстрации использование кадров неподвижных изображений е текст управлять моделью Gemini. Другими словами, демонстрацией манипулировали для представления взаимодействий, которых на самом деле не произошло.
Ложная демонстрация поднимает вопросы о прозрачности Google. Видео было представлено какпрактическое разоблачение Близнецов, но на самом деле изображало взаимодействия, которые неточно отражали возможности модели. Этот вызывает вопросы о достоверности других демонстраций ИИ представлено Google и ставит под сомнение доверие пользователей к компании.
Пример несоответствия реальных взаимодействий и показанных на видео касается распознавания жестов рук для игры «Камень ножницы Бумага«. В видео, Модель-Близнецы, похоже, быстро распознавала жесты е отвечать правильно. Однако в официальной документации поясняется, что модели необходимо видеть все три жеста одновременно и руководствоваться конкретным вопросом, чтобы дать правильный ответ. Эта разница между реальным взаимодействием и показанным на видео вызывает вопросы о достоверности остальных демонстраций.
Ложная демонстрация Близнецов может иметь серьезные последствия для доверие пользователей к искусственному интеллекту Google. Еще до этого скандала Google отставала от конкурентов в сфере искусственного интеллекта. Этот эпизод может еще больше навредить репутации Google и поставить под сомнение достоверность ее заявлений о возможностях ее моделей искусственного интеллекта.
Выводы
Ложная демонстрация модели Google Gemini поднимает важные вопросы о прозрачности и доверии пользователей. Google манипулировал видео, чтобы создать впечатление, будто модель способна выполнять действия, которые на самом деле она делать не может. Это не только наносит ущерб репутации Google, но и ставит под сомнение достоверность других демонстраций ИИ, представленных компанией. Крайне важно, чтобы компании прозрачно и честно представляли возможности своих моделей искусственного интеллекта, чтобы поддерживать доверие пользователей и поощрять разработку и внедрение этой технологии.