И небольшие стартапы, и крупные предприятия теперь используют системы искусственного интеллекта для анализа данных, персонализации маркетинговых стратегий, оптимизации цепочек поставок и автоматизации повторяющихся задач.
В 2022 году почти 35% компаний внедрили технологии искусственного интеллекта, что означает рост на 4% по сравнению с 2021 годом. Прогнозируется, что в конце 2023 года уровень реализации еще больше повысится.
Чем больше компании будут использовать ИИ, тем большее влияние он окажет на повседневную жизнь людей, применяя его для принятия важных решений, таких как рекомендации по лечению или отбор участников для клинических испытаний лекарств от рака. Это требует усиления подотчетности и более высокого уровня технологической прозрачности. В этом пошаговом руководстве мы объясним преимущества прозрачного ИИ, раскроем потенциальные препятствия на пути к пониманию процесса принятия решений и предложим проверенные способы повышения прозрачности.
Содержание
Прозрачный ИИ – объяснимый ИИ
Прозрачность в ИИ достигается, когда алгоритмы можно передать и объяснить. Однако речь не идет о совместном использовании алгоритмов в Интернете или публикации строк кода. Цель — объяснить, почему принимается то или иное решение, а не просто показать, что происходит «под капотом». Когда технология совершает ошибку, компаниям нужны люди, способные выносить суждения. Поэтому важно уметь понимать контекст, в котором работает модель ИИ, а также потенциальное влияние результатов.
Уровень прозрачности должен иметь положительную корреляцию с влиянием технологий, основанных на искусственном интеллекте. Чем больше алгоритм влияет на жизнь людей, тем важнее решать все этические проблемы и объяснять решения. Например, алгоритм отправки персонализированных электронных писем учителям не требует такого же уровня проверки, как сообщения, отправляемые поставщикам медицинских услуг (HCP).
Разрабатывая новую функцию для нашей расширенной платформы взаимодействия с контентом, позволяющую фармацевтическим маркетологам оценивать контент, адаптированный для HCP, мы полностью осознали критическое влияние нашей модели искусственного интеллекта. Вот почему для нашей компании было важно придерживаться самых высоких стандартов прозрачности ИИ.
В частности, мы обеспечили пользователям доступ к текущим правилам MLR, которые алгоритмы используют для прогнозирования одобрения контента. Наша команда посоветовала нашей программе отображать набор стандартов вместе с соответствующими комментариями для частей контента, которые вряд ли будут одобрены. Это не только увеличило шансы на одобрение первоначального контента, но и повысило доверие пользователей, поскольку они увидели конкретные критерии для пометки контента как непригодного для дальнейшего рассмотрения. Такая прозрачность помогла нам убедить фармацевтические компании положиться на наше решение, не опасаясь неудачи на таком важном этапе маркетингового процесса, как проверка MLR.
Основные преимущества прозрачного ИИ для ваших бизнес-операций
Почему компания хочет, чтобы ее критически важные системы искусственного интеллекта были прозрачными? Независимо от того, создаете ли вы свой собственный продукт на базе искусственного интеллекта или используете готовые решения, вам очень важно понимать, что происходит внутри инструмента. черный ящик по некоторым веским причинам. Получите содержательное объяснение того, как решение приходит к решению. доверять. На самом деле это одна из основных причин, по которой мы раскрываем источник данных, используемых для обучения нашего продукта. Когда клиенты понимают, что принятие решений с помощью ИИ основано на их уникальных наборах данных, они склонны больше доверять определенным решениям.
Модели на основе искусственного интеллекта, как и люди, которые их разрабатывают, подвержены предвзятости. Если вы не понимаете основные алгоритмы, эти предубеждения могут остаться незамеченными, поставить под угрозу здоровье бизнеса, поставить под угрозу безопасность клиентов или поощрять неэтичное поведение. Это может иметь разрушительные последствия для компании, обернувшись миллионными убытками и, самое главное, серьезным репутационным ущербом. Борьба с нарушением доверия клиентов — сложный процесс, который часто занимает годы.
В некоторых жестко регулируемых отраслях, таких как фармацевтика и медико-биологические науки, прозрачность модели является важным шагом в получении юридического одобрения перед внедрением решения. Обеспечение прозрачных систем искусственного интеллекта помогает предприятиям соблюдать ряд законов и нормативных актов, таких как Общий регламент по защите данных (GDPR) или Закон об алгоритмической отчетности (AAA). Это не только позволяет им снизить вероятность юридических и финансовых последствий, связанных с предвзятым ИИ, но также демонстрирует приверженность компании этическим и социально ответственным практикам.
Ключевые проблемы в понимании процесса принятия решений с помощью ИИ
Первым шагом на пути к большей прозрачности ИИ является выявление основных препятствий на пути к пониманию решений, принимаемых ИИ. Без лишних слов, давайте разберемся с некоторыми из них.
Необъяснимые алгоритмы
Хотя некоторые инструменты относительно легко интерпретировать, например алгоритмы планирования или семантическое рассуждение, существует ряд технологий ИИ, управляемых данными, в которых гораздо сложнее объяснить связь между входными и выходными данными. Продвинутые модели, такие как машинное обучение (ML), часто описываются как черные ящики с миллиардами различных параметров, из-за которых практически невозможно точно определить, как конкретный ввод привел к определенному результату.
Плохая видимость данных обучения
Инструменты ИИ могут наследовать предвзятости из данных, используемых для их обучения. Если данные обучения не представляют реальные данные, это испортит точность модели ИИ. Учитывая это, компаниям следует задаться следующими важными вопросами:
- Каков источник данных для обучения?
- На каких функциях обучалась модель?
- Какие методы использовались для корректировки данных?
- Можем ли мы получить доступ к этим данным?
Без четких ответов на эти вопросы компании имеют ограниченную прозрачность внутренних процессов модели и не могут полностью полагаться на ее безопасность.
Непонимание методов отбора данных
Если компания получает доступ ко всему набору данных, означает ли это, что модель достаточно прозрачна для использования? Не всегда. Даже если компании получают доступ к гигабайтам или терабайтам обучающих данных, это не обязательно означает, что они понимают, какие аспекты данных использовались для создания той или иной модели. Что, если ученые, работающие с данными, решат реализовать подходы к дополнению данных и добавят данные, которые не были включены в набор обучающих данных? Что, если инженеры ML должны были выбрать определенные данные или функции из набора данных? Чтобы гарантировать более высокий уровень прозрачности, важно, чтобы к обучающим данным можно было применять одни и те же методы отбора, чтобы понять, какие данные были исключены, а какие были включены.
Эффективные способы повышения прозрачности ИИ
В целом, существует три распространенных способа повышения прозрачности решения ИИ: обеспечение технической корректности модели, проверка данных обучения на наличие выбросов и использование технологий для проверки алгоритмов ИИ.
Обеспечение технической корректности
Чтобы гарантировать техническую исправность инструмента искусственного интеллекта, компании должны провести ряд соответствующих тестов и предоставить исчерпывающую документацию, включая подробное описание архитектуры и показателей производительности. Разработчики программного обеспечения, создавшие систему, должны уметь объяснить, как они решили проблему, почему была выбрана та или иная технология и какие данные использовались. Члены команды должны проверять или повторять процесс разработки по мере необходимости.
АТАРК Рабочая группа по этике и ответственному использованию ИИ предложила документ, который позволяет разработчикам моделей оценивать свои алгоритмы на основе пяти факторов прозрачности, таких как объяснимость алгоритмов, уменьшение систематической ошибки набора данных, методы выбора данных, идентификация источников данных и метод управления версиями модели. Инженеры могут присваивать баллы каждому из этих факторов. Например, если система получает 1 для алгоритмической объяснимости это означает, что модель представляет собой черный ящикв то время как 5 Рейтинг прозрачности обучающих данных означает, что предоставляется полный доступ к наборам данных.
Этот подход является лишь одним из примеров возможных оценок прозрачности модели. Независимо от того, используете ли вы этот конкретный метод, важно включить эту самооценку в версию модели. Однако, несмотря на очевидные преимущества, такие как ответственность разработчиков за свой выбор при проектировании модели, данный подход не избежал некоторых недостатков. Самооценка может внести субъективность и вариативность в процесс проверки, поскольку факторы прозрачности могут интерпретироваться разными инженерами по-разному.
Проверка на предвзятость данных
Остерегайтесь скрытых ошибок в обучающих данных, поскольку они могут напрямую повлиять на выходные данные системы. Учитывая это, важно проверить, недостаточно ли представлены определенные группы, и принять корректирующие меры, чтобы предотвратить это. Допустим, на вашу платформу контента были загружены исторические данные, состоящие в основном из предпочтений поставщиков медицинских услуг для молодых мужчин. В результате у конкретной модели ИИ могут возникнуть трудности с рекомендацией подходящего контента для женщин или специалистов старшего возраста.
Модели искусственного интеллекта не могут обнаружить отклонения в данных обучения, поэтому вам придется полагаться на своих сотрудников, чтобы понять контекст, в котором собираются эти данные. Таким образом, снижение предвзятости может оказаться трудоемкой задачей, требующей постоянного анализа.
Использование технологии для проверки модели
Передовые алгоритмы искусственного интеллекта необходимо проверять, чтобы компании могли понять, что происходит в моделях. Сегодня существует ряд инструментов, которые помогут компаниям более внимательно изучить ИИ. черный ящик» помогая им обнаруживать аномалии в обучающих данных и объяснять принятие решений с помощью модели как клиентам, так и сотрудникам. Однако главный недостаток этих решений заключается в том, что они не могут быть универсально применимы ко всем моделям ИИ.
Хотя каждый из этих методов способствует прозрачности ИИ, стоит рассмотреть возможность их комбинации для получения более целостного и универсального решения. Комбинируя эти подходы, компании могут раскрыть возможности для улучшения, которые в противном случае могли бы остаться скрытыми, используя их по отдельности.
На пути к большей прозрачности
Компании не могут доверять какой-либо технологии или стороннему источнику без полного понимания их внутренней работы. Одна из причин, по которой они могут бояться моделей ИИ, заключается в том, что их невероятно сложно объяснить. Если у компании нет информации о том, были ли обучающие данные должным образом очищены или проверены на предмет предвзятости, она может предположить, что выходные данные модели также могут быть искажены. Поэтому ИИ, естественно, поднимает вопрос об ответственности. Компании, использующие системы ИИ, должны учитывать этические, юридические и финансовые аспекты своей деятельности, чтобы гарантировать, что они не только используют потенциал ИИ, но и защищают от потенциальных последствий.