Оказывается, когда самые умные модели ИИ «думают», они могут вызвать горячие внутренние дебаты. Увлекательный Новое исследование, в соавторстве с исследователями Google перевернуло наше традиционное понимание искусственного интеллекта с ног на голову. Это говорит о том, что продвинутые модели рассуждения – в частности, DeepSeek-R1 и QwQ-32B от Alibaba – не просто обрабатывают числа в прямой логической линии. Вместо этого, что удивительно, они ведут себя как группа людей, пытающихся вместе разгадать тайну.

В статье, опубликованной на arXiv с запоминающимся названием «Модели рассуждения порождают общества мысли», предполагается, что эти модели не просто выполняют математические задачи; Они неявно моделируют «многоагентное» взаимодействие. Представьте себе зал заседаний, полный экспертов, которые обмениваются идеями, оспаривают предположения друг друга и смотрят на проблему с разных точек зрения, прежде чем в конечном итоге прийти к единому мнению о лучшем ответе. По сути, это то, что происходит в коде. Исследователи обнаружили, что эти модели демонстрируют «перспективное разнообразие», то есть они порождают противоречивые точки зрения и работают над их разрешением внутри компании, подобно тому, как команда коллег обсуждает стратегию поиска наилучшего пути вперед.

В течение многих лет в Кремниевой долине преобладало мнение, что способ сделать ИИ умнее — это просто увеличить его масштабы.

Предоставьте ему больше данных и примените к проблеме больше вычислительной мощности. Но это исследование полностью переворачивает этот сценарий. Это говорит о том, что структура мыслительного процесса так же важна, как и масштаб.

Эти модели эффективны, поскольку они организуют свои внутренние процессы таким образом, что возможны «изменения точки зрения». Это похоже на встроенного адвоката дьявола, который заставляет ИИ проверять свою работу, задавать уточняющие вопросы и исследовать альтернативы, прежде чем выдать ответ.

ЧИТАТЬ  Information Gainz: Приоритизация получения информации = переосмысление того, как мы создаем контент

Для обычных пользователей это изменение огромно.

Мы все сталкивались с искусственным интеллектом, который дает поверхностные, уверенные, но в конечном итоге неверные ответы. Модель, функционирующая как «общество», с меньшей вероятностью допускает подобные ошибки, поскольку она уже прошла стресс-тестирование своей собственной логики. Это означает, что инструменты следующего поколения будут не только быстрее; Они будут более тонкими, лучше справляться с неоднозначными вопросами и, возможно, более «человечными» в подходе к сложным, запутанным проблемам. Это могло бы даже помочь решить проблему предвзятости: если ИИ внутренне учитывает несколько точек зрения, у него меньше шансов застрять в одном ошибочном образе мышления.

В конечном итоге это уводит нас от идеи, что ИИ — это всего лишь прославленный калькулятор, и приближает нас к будущему, в котором системы будут проектироваться с организованным внутренним разнообразием. Если выводы Google верны, будущее ИИ — это не только создание большего мозга, но и создание лучшей, более сплоченной команды внутри машины. Концепция «коллективного разума» больше не применима только к биологии; Это может стать основой для следующего большого скачка в технологиях.

Source