От печально известной фотографии ко Дню матери из Кенсингтонского дворца до фальшивых аудиозаписей Тома Круза, пренебрежительно относящихся к Олимпийскому комитету, — контент, созданный искусственным интеллектом, в последнее время попадает в заголовки газет по совершенно неправильным причинам. Эти случаи вызывают широкие споры и паранойю, заставляя людей сомневаться в подлинности и происхождении контента, который они видят в Интернете.
Оно затрагивает все слои общества, не только общественных деятелей и обычных пользователей Интернета, но и крупнейшие мировые компании. Chase Bank, например, сообщил, что попался на дипфейк в ходе внутреннего эксперимента. Между тем, отчет показал, что количество инцидентов с дипфейками в секторе финансовых технологий взлетело на 700% всего за год.
Сегодня наблюдается критическая нехватка прозрачности в области ИИ, например, о том, сгенерировано ли изображение, видео или голос ИИ или нет. Эффективные методы аудита искусственного интеллекта, которые обеспечивают более высокий уровень подотчетности и побуждают компании более активно искоренять вводящий в заблуждение контент, все еще находятся в разработке. Эти недостатки в совокупности усугубляют проблему доверия к ИИ, и решение этих проблем зависит от внесения большей ясности в модели ИИ. Это ключевое препятствие для компаний, которые хотят осознать огромную ценность инструментов искусственного интеллекта, но боятся, что риск может перевесить выгоды.
Генеральный директор и основатель Casper Labs.
Могут ли менеджеры доверять ИИ?
В настоящее время все внимание обращено на ИИ. Но хотя в этой технологии наблюдался исторический уровень инноваций и инвестиций, доверие к ИИ и многим компаниям, стоящим за этой технологией, неуклонно падает. Мало того, что становится все труднее различать в Интернете контент, созданный людьми и искусственным интеллектом, лидеры бизнеса также становятся все более осторожными в отношении инвестиций в свои собственные системы искусственного интеллекта. Существует общая проблема обеспечения того, чтобы выгоды перевешивали риски, и все это усугубляется отсутствием ясности в том, как на самом деле работает технология. Часто неясно, какой тип данных используется для обучения моделей, как эти данные влияют на получаемые результаты и что технология делает с собственными данными компании.
Отсутствие прозрачности создает ряд юридических рисков и рисков для безопасности руководителей бизнеса. Хотя ожидается, что в этом году бюджеты на ИИ увеличатся в пять раз, растущие проблемы кибербезопасности, как сообщается, привели к блокировке 18,5% всех транзакций ИИ или МО в организации. Это колоссальный рост на 577% всего за девять месяцев, причем этот рост (37,16%) является самым высоким в финансах и страховании — отраслях, которые предъявляют особенно строгие требования к безопасности и законодательству. Финансовая и страховая отрасли являются предвестниками того, что может произойти в других отраслях, поскольку вопросы о безопасности и юридических рисках, связанных с ИИ, растут, и компании должны учитывать последствия использования этой технологии.
Хотя компаниям не терпится получить доступ к стоимости в 15,7 триллионов долларов, которую ИИ может получить к 2030 году, ясно, что они не могут полностью доверять ИИ прямо сейчас. И это препятствие может только усугубиться, если проблемы не будут решены. Существует острая необходимость повысить прозрачность ИИ, чтобы было проще определять, создается ли контент с помощью ИИ или нет, видеть, как системы ИИ используют данные, и лучше понимать результаты. Большой вопрос в том, как этого добиться. Прозрачность и снижение доверия к ИИ — это сложные проблемы, для которых нет четкого решения. Достижение прогресса требует сотрудничества между секторами по всему миру.
Преодолеть сложную техническую задачу
К счастью, уже есть признаки того, что и правительство, и технологические лидеры решают эту проблему. Недавно принятый закон ЕС об искусственном интеллекте является важным первым шагом в установлении нормативных руководящих принципов и требований для ответственного использования искусственного интеллекта, а в США такие штаты, как Калифорния, предприняли шаги по введению своих собственных законов.
Хотя эти законы ценны, поскольку они определяют риски, специфичные для сценариев использования в отрасли, они лишь предоставляют стандарты, которым необходимо следовать, а не решения, которые необходимо реализовать. Отсутствие прозрачности в системах искусственного интеллекта имеет глубокие корни и распространяется на данные, используемые для обучения моделей, и на то, как эти данные включаются в результаты. Это представляет собой сложную техническую проблему.
Блокчейн — это технология, которая становится возможным решением. Хотя блокчейн часто ассоциируется с криптографией, по своей сути лежащая в его основе технология основана на защищенном от несанкционированного доступа хранении данных с высокой степенью сериализации. В области ИИ он может повысить прозрачность и доверие, предоставляя автоматизированный, поддающийся сертификации контрольный журнал данных ИИ — от данных, используемых для обучения моделей ИИ, до входных и выходных данных во время использования, влияния, которое определенные наборы данных оказали на выходные данные ИИ.
Метод извлечения дополненной генерации (RAG) также быстро получил распространение и используется ведущими компаниями, занимающимися искусственным интеллектом, для обеспечения прозрачности систем. RAG позволяет моделям ИИ осуществлять поиск во внешних источниках данных, таких как Интернет или внутренние документы компании, в режиме реального времени для получения результатов. Это позволяет моделям гарантировать, что результаты основаны на самой актуальной и актуальной информации. RAG также позволяет моделям ссылаться на свои источники, позволяя пользователям самостоятельно проверять информацию, а не слепо ей доверять.
А что касается дипфейков, то в феврале OpenAI объявила, что будет встраивать метаданные в изображения, сгенерированные ChatGPT и его API, чтобы облегчить их обнаружение социальным платформам и распространителям контента. В том же месяце Meta объявила о новом подходе к идентификации и маркировке контента, созданного искусственным интеллектом, в Facebook, Instagram и Threads.
Эти новые правила, технологии и стандарты управления являются отличным первым шагом на пути повышения доверия к ИИ и прокладывают путь к ответственному внедрению. Но в государственном и частном секторах еще многое предстоит сделать, особенно в свете вирусных событий, которые усилили общественное беспокойство по поводу ИИ, предстоящих выборов во всем мире и растущей обеспокоенности по поводу безопасности ИИ на предприятиях.
Мы приближаемся к поворотному моменту в развитии внедрения ИИ, и решающим фактором станет доверие к технологии. Только при большей прозрачности и доверии компании смогут использовать ИИ, а их клиенты смогут воспользоваться преимуществами в виде продуктов и опыта на основе ИИ, которые вызывают радость, а не дискомфорт.
Мы перечисляем лучших конструкторов веб-сайтов с искусственным интеллектом.
Эта статья была создана в рамках канала Expert Insights от TechRadarPro, где мы рассказываем о лучших и ярких умах в области технологий сегодня. Мнения, выраженные здесь, принадлежат автору и не обязательно отражают точку зрения TechRadarPro или Future plc. Если вы заинтересованы в участии, узнайте больше здесь: