Slack подвергся критике за использование данных о клиентах для обучения своих глобальных моделей искусственного интеллекта и надстройки генеративного искусственного интеллекта. Конечно, требовать от пользователей вручную отказаться от подписки по электронной почте кажется коварным (разве смысл Slack не избегать электронной почты?), но приложение для обмена сообщениями не несет здесь всей ответственности. Все самые популярные приложения для рабочих мест интегрировали искусственный интеллект в свои продукты, включая Slack AI, Jira AI-Powered Virtual Agent и Gemini для Google Workspace. Любой, кто сегодня использует технологии – особенно для работы – должен предполагать, что их данные используются для обучения ИИ. Поэтому отдельные лица и компании должны избегать передачи конфиденциальных данных сторонним приложениям. Все остальное наивно и рискованно.
Соучредитель и технический директор Nightfall AI.
Не доверять никому
В Интернете циркулирует законный аргумент о том, что политика отказа Slack создает опасный прецедент для других приложений SaaS, которые автоматически требуют от клиентов делиться данными с моделями искусственного интеллекта и LLM. Регулирующие органы, вероятно, рассмотрят это, особенно для компаний, работающих в местах, защищенных Общим регламентом защиты данных (но не Калифорнийским законом о конфиденциальности потребителей, который позволяет компаниям обрабатывать персональные данные без разрешения до тех пор, пока пользователь не решит отказаться). До тех пор любой, кто использует ИИ (а, по оценкам IBM, это более 40% компаний), должен предполагать, что общая информация используется для обучения моделей.
Мы могли бы углубиться в этику обучения ИИ через бизнес-идеи отдельных людей на миллиарды долларов, воплощенные в жизнь в темах Slack, но наверняка кто-то в Интернете уже написал это. Вместо этого давайте сосредоточимся на том, что действительно важно: обучены ли модели искусственного интеллекта Slack на конфиденциальных данных своих пользователей. Это относится к личной информации (PII), такой как номера социального страхования, имена, адреса электронной почты и номера телефонов, личная медицинская информация (PHI) или секреты и учетные данные для входа, которые могут раскрывать PII, PHI и другую ценную информацию о бизнесе и клиентах. Это важно, поскольку обучение ИИ с использованием этой информации создает риски раскрытия конфиденциальных данных, атак с быстрым внедрением, злоупотреблений моделью и многого другого. И именно эти вещи определяют успех или неудачу компании.
Хотя в обновленной политике конфиденциальности Slack говорится: «Для моделей, используемых всеми нашими клиентами, мы не создаем и не обучаем эти модели для изучения, хранения или воспроизведения частей данных клиентов», но компании должны делать это сами, чтобы ваши конфиденциальные данные не были раскрыты. вступать в контакт со сторонними моделями ИИ. Вот как это сделать.
Внедрение модели совместной ответственности
Уже не первый раз возникает вопрос, кто отвечает за безопасность: поставщик услуг или пользователь технологии. Фактически, это была настолько важная тема для обсуждения во время массовой миграции в облако, что Национальный институт стандартов и технологий (NIST) придумал на нее ответ. Это структура, которая четко определяет обязанности поставщиков облачных услуг (CSP) и пользователей облачных вычислений, чтобы гарантировать, что обе стороны вносят вклад в безопасность и соответствие требованиям. Это называется моделью совместной ответственности в облаке, и она хорошо работает уже более десяти лет.
Ту же модель общей ответственности можно применить, если вы используете Slack (или другое приложение SaaS, использующее искусственный интеллект) в качестве CSP. Slack должен нести ответственность за безопасность своей базовой инфраструктуры, платформы и услуг, а клиенты Slack должны нести ответственность за безопасность своих конфиденциальных корпоративных и клиентских данных. В этой модели есть несколько способов, с помощью которых клиенты Slack могут гарантировать, что конфиденциальные данные не будут использоваться для обучения ИИ Slack.
— Используйте человеческий брандмауэр. Сотрудники — это первая линия защиты от проникновения конфиденциальных данных в стороннее приложение, такое как Slack. Хотя регулярное обучение по вопросам безопасности важно, его лучше всего сочетать с решением, которое выявляет потенциальные нарушения политики и позволяет сотрудникам удалять или шифровать конфиденциальные данные перед их распространением. — Фильтровать входы. Лучший способ предотвратить попадание конфиденциальных данных в модель искусственного интеллекта Slack — это вообще не делиться ими со Slack. Компаниям следует использовать решение, которое перехватывает исходящие сообщения Slack и очищает или шифрует конфиденциальные данные, прежде чем они будут переданы в Slack. — Никогда не делитесь секретами, ключами или учетными данными в Slack. Как минимум, эта информация должна быть зашифрована, храниться и передаваться с помощью менеджера паролей или хранилища. Кроме того, компаниям следует использовать приведенные выше советы по использованию человеческого брандмауэра и фильтрации входных данных, чтобы гарантировать, что эти ключи от королевства не будут случайно переданы через Slack (или по электронной почте, или GitHub — мы видели, как это работает).
Возможно, сообщество Hacker News правильно расстроено тем, что они не знали, что им пришлось запретить Slack использовать их данные для обучения своих глобальных моделей ИИ и ИИ Slack. А у тех, кто предпочитает не делать этого сейчас, остается много вопросов без ответа, например, будут ли их данные задним числом удалены из моделей Slack и каковы могут быть последствия для соблюдения требований. Это, безусловно, вызвало общеотраслевые дискуссии о прозрачности при обучении моделей ИИ в конференц-залах или каналах Slack (слишком рано?), и мы, вероятно, увидим, что в ближайшие месяцы все больше компаний будут обновлять свои политики конфиденциальности, чтобы предотвратить подобную негативную реакцию пользователей, как Slack. испытал на этой неделе.
Независимо от того, что говорится в этих рекомендациях, лучший способ предотвратить обучение ИИ с вашими конфиденциальными данными — это вообще не раскрывать эти данные.
Мы представили лучшее программное обеспечение для шифрования.
Эта статья была создана в рамках канала Expert Insights от TechRadarPro, где мы рассказываем о лучших и ярких умах в области технологий сегодня. Мнения, выраженные здесь, принадлежат автору и не обязательно отражают точку зрения TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: