- Мустафа Сулиман, генеральный директор Microsoft AI, предупреждает, что AI Chatbots может эффективно подражать осознанию.
- Это будет только иллюзия, но люди, которые формируют эмоциональные связи с ИИ, могут быть серьезной проблемой.
- Сулиман говорит, что это ошибка, чтобы описать ИИ, как будто он имеет чувства или сознание с серьезными потенциальными последствиями.
Компании ИИ, которые впечатляют свои творения, могут буквально и тщательно прозвучать требовательные алгоритмы. Нет никаких доказательств, которые действительно так, но Microsoft Ai -ceo Mustafa Sulyman -это предупреждение Это даже обнадеживающее убеждение в сознательном ИИ может иметь плохие последствия.
Сулиман утверждает, что то, что он называет «явно сознательным ИИ», может скоро действовать и звучать настолько убедительно, что все большее число пользователей не знают, где заканчивается иллюзия и начинается реальность.
Он добавляет, что искусственный интеллект быстро становится достаточно эмоционально убедительным, чтобы люди верили, что они чувствительны. Это может подражать внешним признакам сознания, таким как память, эмоциональное отражение и даже очевидная эмпатия таким образом, чтобы люди обращались с ними как чувствительными существами. И когда это происходит, он говорит, что все становится хаотичным.
«Прибытие явно сознательного ИИ неизбежно и нежелательно», — пишет Сулиман. «Вместо этого нам нужно видение ИИ, которое может восполнить его потенциал в качестве полезного компаньона, не став жертвой его иллюзий».
Хотя это для обычного человека, который хочет, чтобы ИИ только помогал только в написании электронных партий или планировал ужин, Самлиман может быть проблемой, что это будет социальная проблема. Люди не всегда могут сказать хорошо, если что -то является подлинным или перформативным. Эволюция и образование подготовили большинство из нас, чтобы поверить, что что -то для слушания, понимания и реагирования, похоже, знает об этом.
ИИ мог бы проверить все эти коробки, не будучи чувствительными и превышая нас в SO -названном «Психозе ИИ». Часть проблемы может заключаться в том, что «ИИ», как его в настоящее время называют компаниями, использует то же имя, но не имеет ничего общего с фактическими самоуверенными интеллектуальными машинами, как показано в научной фантастике в последние сто лет.
Сулиман цитирует растущее число случаев, в которых пользователи образуют преднамеренные убеждения после расширенного взаимодействия с чат -ботами. По этой причине он рисует антиутопическое видение времени, когда достаточно людей заставило себя поддерживать себя для гражданства и игнорировать более неотложные вопросы по реальным темам, связанным с технологиями.
«Проще говоря, моя главная забота состоит в том, что многие люди верят в иллюзию AIS как сознательных подразделений, которые скоро будут отстаивать права ИИ, модели и даже гражданство ИИ», — пишет Сулиман. «Это развитие станет опасным поворотом в прогрессе ИИ и заслуживает нашего непосредственного внимания».
Столько, сколько это кажется преувеличенным научно -фантастическим типом, Сулиман считает, что это проблема, с которой мы еще не готовы. Он предсказывает, что Scai Systems, которые используют крупные языковые модели с выразительным языком, памятью и историей чата, могут появиться через несколько лет. И вы будете не только из технических гигантов с бюджетами на миллиард долларов, но и от кого -то с API и одной или двух хорошими задачами.
Громоздкий ай
Сулиман не требует запрета ИИ. Но он призывает индустрию ИИ избегать языка, который стимулирует иллюзию машинного сознания. Он не хочет, чтобы компании антропоморфны своих чат -ботов или предполагали, что продукт действительно понимает людей или заботится о людях.
Это замечательный момент для Сулимана, который был соучредил с глубоким и дифракционным ИИ. Его работа в случае изгиба явно привела к ИИ Чатбот подчеркивает симулируемую эмпатию, и дух товарищества, и его работа в Microsoft в Copilot также привела к его имитации эмоционального интеллекта.
Тем не менее, он решил набрать явный предел между полезным эмоциональным интеллектом и возможными эмоциональными манипуляциями. И он хочет, чтобы люди помнили, что продукты искусственного интеллекта на самом деле только умные модели распознавания образцов с хорошим PR.
«Точно так же, как мы должны создать ИИ, который отдает приоритет приверженности людям и реальным взаимодействиям в нашем физическом и человеческом мире, мы должны построить ИИ, который представляет себя только как ИИ, который максимизирует преимущества и в то же время минимизирует маркеры сознания», — пишет Сулиман.
«Вместо симуляции сознания мы должны сосредоточиться на создании ИИ, который избегает этих свойств — это не претендует на то, что конкурирует с опытом, чувствами или эмоциями, такими как стыд, вина, ревность, желание и так далее. Это не должно вызывать человеческие цирки эмпатии, говоря, что она страдает или что она страдает от нас, за пределами нас за пределами нас».
Сулиман призывает ограждения, чтобы предотвратить социальные проблемы, которые составляют от людей, которые эмоционально связаны с ИИ. Истинная опасность передового ИИ заключается не в том, что машины просыпаются, а в том, что мы можем забыть, что у них его нет.