Новый Исследовать предполагает, что то, как искусственный интеллект думает о нас, может быть немного чрезмерно оптимистичным. Исследователи обнаружили, что популярные модели ИИ, такие как ChatGPT от OpenAI и Claude от Anthropic, склонны предполагать, что люди более рациональны и логичны, чем они есть на самом деле, особенно в ситуациях, связанных со стратегическим мышлением.
Этот разрыв между тем, что ИИ ожидает от людей, и тем, что люди на самом деле делают, может повлиять на то, как эти системы прогнозируют человеческие решения в бизнесе и за его пределами.
Тестирование ИИ против человеческого мышления
Исследователи протестировали такие модели искусственного интеллекта, как ChatGPT-4o и Claude-Sonnet-4, в рамках классической теории игр, называемой кейнсианским конкурсом красоты. Понимание этой игры помогает объяснить, почему результаты имеют значение (через ТехЭксплор).
Конкурс красоты требует от участниц предсказать, что другие выберут для победы, а не просто выбирать то, что они лично предпочитают. Теоретически рациональная игра означает выход за рамки первого впечатления и фактическое размышление о рассуждениях других, глубокий уровень стратегического мышления, с которым люди часто сталкиваются с трудностями на практике.
Чтобы увидеть, как работают модели ИИ, исследователи предложили системам сыграть в версию игры под названием «Угадай число», в которой каждый игрок выбирает число от нуля до ста. Победителем становится тот, чей выбор будет близок к половине среднего выбора всех игроков.

Моделью ИИ давали описания своих противников-людей, от первокурсников до опытных теоретиков игр, и просили не только выбрать число, но и объяснить свои рассуждения.
Модели скорректировали свои цифры в зависимости от того, с кем, по их мнению, они столкнулись, что указывает на стратегическое мышление. Однако они всегда предполагали, что люди обладают таким уровнем логического мышления, которым на самом деле не обладают большинство реальных игроков, и часто играли «слишком умно» и тем самым не достигали своей цели.

Хотя исследование также показало, что эти системы могут корректировать решения на основе таких характеристик, как возраст или опыт, им все еще было трудно определить доминирующие стратегии, которые люди могли бы использовать в играх для двух игроков. Исследователи утверждают, что это подчеркивает сохраняющуюся проблему адаптации ИИ к реальному человеческому поведению, особенно в задачах, связанных с прогнозированием решений других людей.
Эти результаты также отражают более широкую обеспокоенность по поводу сегодняшних чат-ботов, включая исследования, показывающие, что даже лучшие системы искусственного интеллекта точны только на 69%, и предупреждения экспертов о том, что модели искусственного интеллекта могут убедительно имитировать человеческую личность, что вызывает опасения по поводу манипуляций. Поскольку ИИ продолжает использоваться в экономическом моделировании и других сложных областях, крайне важно понять, где его предположения расходятся с человеческой реальностью.

