Нейросети уже на данном этапе имеют негативные последствия.

Бывший сотрудник Google Джеффри Хинтон, один из первых и главных исследователей ИИ в компании, поделился своими опасениями насчет развития нейросетей. По его словам, это послужило причиной его ухода из компании. Он сожалеет о своей работе, но утешается тем, что вместо него «ее бы выполнил кто-нибудь другой».

Главная задача Хинтона сейчас — это предупредить людей о возможных рисках и опасностях, которые несет за собой технологический скачок в области ИИ.

Рынок труда

Уже сейчас нейросети способны подвинуть многих живых сотрудников, создав вакуум сразу в нескольких отраслях. Резкое снижение рабочих мест — это практически неизбежный сценарий развития нейросетей, и как с ним бороться — совершенно не ясно.

Дипфейки

Другой серьезный вопрос — это распространение фейков. За последний год появилось большое количество инструментов для генерации контента, что уже привело к обилию «мусорных» сайтов, зарабатывающих на рекламе. Другое дело, что до сих пор не существует ни одного адекватного инструмента, способного распознавать дипфейки, искусственно сгенерированный текст или картинку. А последние развиваются семимильными шагами.

Оружие

Последний аспект — это включение ИИ в гонку вооружений. По словам Хинтона новые технологии могут оказать непредсказуемый и опасный эффект на военные действия.

Любопытно, что ранее с подобным заявлением выступал Илон Маск. Он сказал, что его пугает столь стремительное развитие чат-ботов, и даже предложил OpenAI взять паузу на полгода в развитии своих технологий. Правда, выяснилось, что это время требуется Илону для развития своей нейросети.



Source link

ЧИТАТЬ  Разработчикам Starfield запрещено обсуждать «нераскрытые» подробности, но генеральному директору Bethesda Тодду Ховарду это запрещено.