- Китайский чат -бот DeepSeek запрещен для сотрудников Microsoft
- Запасы безопасности и пропаганды от Microsoft
- Правительственные власти также запретили модель
На слушании в Сенате, посвященном функциям ИИ в области искусственного интеллекта, заместитель председателя и президент Microsoft Brad Smith объявил, что сотрудники компании не должны использовать приложение DeepSeek.
Забота о безопасности данных и проблемах пропаганды, Смит обнаружил, что Microsoft также не предлагает DeepSeek в своем магазине приложений и утверждает, что данные пользователя риска сохраняются в Китае и что на ответы DeepSeek на запросы пользователей из «китайской пропаганды» можно повлиять.
Несколько правительственных органов также запретили противоречивую модель ИИ, в том числе Министерство торговли США и морской пехотинец США -и «Закон о глубине правительственных устройств», это вскоре может быть расширено.
Риски безопасности
Модели KI, такие как DeepSeek и CHATGPT, подверглись критике за тот факт, что они немного конфиденциальности в качестве кошмара, особенно с учетом информации, которую пользователи подают в чат -ботах — и личные данные, которые собирают и сохраняют модели.
Конгресс США прямо назвал DeepSeek как «глубокую угрозу» для национальной безопасности и конфиденциальности и собрал большие объемы данных, включая «Историю чата, устройство позже и даже способ печати человека».
«В более тщательном рассмотрении это показывает, что приложение записывает данные обратно в Китайскую Народную Республику (VR China), создает пробелы в безопасности для своих пользователей и полагается на модель, которая подвергала цензуре и манипулировала информацию в соответствии с китайским законодательством», — рассказал о отчете Конгресса.
Руководство по защите данных DeepSeek подтверждает, что данные хранятся на китайских серверах, а данные подлежат китайскому законодательству, что обеспечивает сотрудничество с китайскими секретными службами.
Модель также подвергает цензуре тем, которые чувствительны к безопасности Китая.
Чатбот также получил значительную травму данных, которая дала показания более миллиона записей данных и вводит опасения по поводу моделей искусственного интеллекта, а также администрирования и защиты информации пользователя.
Над TechCrunch