• По мнению экспертов по безопасности, количество случаев мошенничества с голосовыми клонами искусственного интеллекта растет.
  • Модели искусственного интеллекта с голосовым управлением можно использовать для подражания близким
  • Эксперты рекомендуют договариваться о безопасном тарифе с друзьями и семьей

Следующий спам-звонок, который вы получите, может быть не от реального человека, и ваше ухо не заметит разницы. Мошенники используют модели искусственного интеллекта, активируемые голосом, чтобы автоматизировать свои мошеннические схемы и обманывать людей, выдавая себя за реальных звонящих людей, включая членов семьи.

Что такое голосовое мошенничество с использованием ИИ?

Мошеннические звонки не являются чем-то новым, но звонки с использованием искусственного интеллекта представляют собой новую опасную породу. Они используют генеративный искусственный интеллект, чтобы выдавать себя за представителей власти или знаменитостей, но также за друзей и семью.

Внедрение моделей искусственного интеллекта, обученных на человеческих голосах, открыло новую область риска телефонного мошенничества. Эти инструменты, такие как голосовой API OpenAI, поддерживают разговоры в реальном времени между человеком и моделью ИИ. С помощью небольшого количества кода эти модели можно запрограммировать на автоматическое совершение телефонных мошенничеств, побуждая жертв раскрывать конфиденциальную информацию.

Source