Slack подвергся критике за использование данных о клиентах для обучения своих глобальных моделей искусственного интеллекта и надстройки генеративного искусственного интеллекта. Конечно, требовать от пользователей вручную отказаться от подписки по электронной почте кажется коварным (разве смысл Slack не избегать электронной почты?), но приложение для обмена сообщениями не несет здесь всей ответственности. Все самые популярные приложения для рабочих мест интегрировали искусственный интеллект в свои продукты, включая Slack AI, Jira AI-Powered Virtual Agent и Gemini для Google Workspace. Любой, кто сегодня использует технологии – особенно для работы – должен предполагать, что их данные используются для обучения ИИ. Поэтому отдельные лица и компании должны избегать передачи конфиденциальных данных сторонним приложениям. Все остальное наивно и рискованно.

Рохан Сате

Соучредитель и технический директор Nightfall AI.

Не доверять никому

В Интернете циркулирует законный аргумент о том, что политика отказа Slack создает опасный прецедент для других приложений SaaS, которые автоматически требуют от клиентов делиться данными с моделями искусственного интеллекта и LLM. Регулирующие органы, вероятно, рассмотрят это, особенно для компаний, работающих в местах, защищенных Общим регламентом защиты данных (но не Калифорнийским законом о конфиденциальности потребителей, который позволяет компаниям обрабатывать персональные данные без разрешения до тех пор, пока пользователь не решит отказаться). До тех пор любой, кто использует ИИ (а, по оценкам IBM, это более 40% компаний), должен предполагать, что общая информация используется для обучения моделей.

Source