Компании не решаются внедрять решения искусственного интеллекта из-за сложности сбалансировать затраты на управление с поведением большой языковой модели (LLM), таким как галлюцинации, утечка данных и возможность вывода моделями вредоносного контента.
Одна из самых сложных задач при внедрении LLM — указать в модели, что такое вредная реакция. Но IBM считает, что это может помочь улучшить ситуацию для бизнеса во всем мире.
На мероприятии в Цюрихе Элизабет Дейли, STSM, менеджер по исследованиям Interactive AI Group IBM Research Europe, подчеркнула, что компания хочет разрабатывать ИИ, которому разработчики могут доверять, отметив: «Измерить и количественно оценить клики легко, но это не так». случае». Так легко измерить и количественно оценить вредный контент».
Распознавать, контролировать, проверять
Общей политики управления недостаточно для контроля LLM. Поэтому IBM хочет разработать LLMS, чтобы использовать законы, корпоративные стандарты и внутреннее управление каждой отдельной компании в качестве механизма контроля, чтобы управление могло выходить за рамки корпоративных стандартов и включать индивидуальную этику и социальные нормы страны, региона или отрасли. у кого он используется.
Эти документы могут предоставить контекст для LLM и могут использоваться для «вознаграждения» LLM за то, что он остается актуальным для своей текущей роли. Это обеспечивает инновационный уровень тонкой настройки при определении того, когда ИИ выводит вредный контент, который может нарушать социальные нормы региона, и может даже позволить ИИ определять, может ли его собственный контент быть идентифицирован как вредный.
Кроме того, IBM тщательно разработала свои программы LLM на основе достоверных данных, выявляя, контролируя и проверяя потенциальные отклонения на каждом уровне и внедряя механизмы обнаружения на каждом этапе конвейера. Это резко контрастирует с коммерчески доступными базовыми моделями, которые обычно обучаются на предвзятых данных, и даже если эти данные позже удаляются, предвзятость все равно может появиться снова.
Предлагаемый закон ЕС об искусственном интеллекте свяжет управление искусственным интеллектом с намерениями его пользователей, и IBM заявляет, что использование является фундаментальной частью управления ее моделью, поскольку некоторые пользователи могут использовать искусственный интеллект для суммарных задач, другие могут использовать его для задач классификации. Дейли утверждает, что использование является «гражданином первого сорта» в модели управления IBM.