По мере того, как разгораются разговоры о будущем ИИ, накаляются дебаты по поводу управления ИИ. Некоторые считают, что компаниям, использующим или приобретающим инструменты на базе искусственного интеллекта, следует разрешить саморегулирование, в то время как другие считают, что необходимо более строгое законодательство со стороны правительства.

Острая необходимость в некотором управлении в быстро растущей сфере ИИ очевидна.

Расцвет искусственного интеллекта: новое поколение инноваций

Существует множество применений ИИ, но одной из самых инновационных и известных организаций в области искусственного интеллекта является OpenAI. OpenAI получила известность после того, как ее процессор естественного языка (NLP) ChatGPT стал вирусным. С тех пор несколько технологий OpenAI стали весьма успешными.

Многие другие компании посвятили больше времени, исследований и денег поиску аналогичной истории успеха. Ожидается, что только в 2023 году расходы на ИИ достигнут $154 млрд (rsm dotglobal), что на 27% больше, чем в предыдущем году. С момента выпуска ChatGPT ИИ превратился из периферии в то, о чем знает почти каждый в мире.

Его популярность можно объяснить множеством факторов, в том числе его способностью улучшать производительность компании. Опросы показывают, что когда работники совершенствовать свои цифровые навыки и работать совместно с инструментами искусственного интеллекта.они могут повысить производительность, повысить производительность команды и расширить свои возможности по решению проблем.

Увидев такие позитивные публикации, многие компании в различных отраслях — от производства и финансов до здравоохранения и логистики — начинают использовать ИИ. Поскольку ИИ, по-видимому, в мгновение ока становится новой нормой, многие обеспокоены быстрым внедрением, которое приведет к технологической зависимости, проблемам конфиденциальности и другим этическим проблемам.

Этика ИИ: нужны ли нам правила ИИ?

Благодаря быстрому успеху OpenAI среди законодателей, регулирующих органов и широкой общественности усилились дискуссии по поводу безопасности и этических последствий. Некоторые выступают за дальнейший этический рост производства ИИ, в то время как другие считают, что отдельные лица и компании должны иметь право использовать ИИ по своему усмотрению, чтобы обеспечить более значимые инновации.

ЧИТАТЬ  От искусственного интеллекта к антимонопольному законодательству: управление областями напряжения между инновациями и рыночной властью

Если их не остановить, многие Эксперты полагают, что следующие проблемы возникнет.

  • Предвзятость и дискриминация. Компании утверждают, что ИИ помогает устранить предвзятость, поскольку роботы не могут различать, но системы на базе ИИ справедливы и беспристрастны настолько, насколько справедлива и беспристрастна информация, подаваемая в них. Инструменты ИИ будут только усиливать и закреплять эти предвзятости, если данные, которые люди используют при кодировании ИИ, уже предвзяты.
  • Человеческая свобода действий: многие из них построят зависимость от ИИ, что может повлиять на их конфиденциальность и возможность выбора в отношении контроля над своей жизнью.
  • Злоупотребление данными: ИИ может помочь в борьбе с киберпреступностью в мире, который становится все более цифровым. ИИ способен анализировать гораздо большие объемы данных, что может позволить этим системам распознавать закономерности, которые могут указывать на потенциальную угрозу. Однако существует опасение, что компании также будут использовать ИИ для сбора данных, которые можно использовать для злоупотреблений и манипулирования людьми и потребителями. Это приводит к тому, делает ли ИИ людей более или менее безопасными (forgerock dotcom).
  • Распространение дезинформации: поскольку ИИ не человек, он не понимает, что хорошо, а что плохо. Таким образом, ИИ может непреднамеренно распространять ложную и вводящую в заблуждение информацию, что особенно опасно в современную эпоху социальных сетей.
  • Отсутствие прозрачности. Большинство систем искусственного интеллекта работают как «черные ящики». Это означает, что никто никогда полностью не осознает, как и почему эти инструменты приходят к определенным решениям. Это приводит к отсутствию прозрачности и беспокойству по поводу подотчетности.
  • Потеря работы. Одной из самых больших проблем среди рабочей силы является перемещение рабочих мест. Хотя ИИ может улучшить способности работников, многие обеспокоены тем, что работодатели просто предпочтут полностью заменить своих сотрудников, выбрав прибыль, а не этику.
  • Беспредел: В целом существует общая обеспокоенность тем, что, если ИИ не будет регулироваться, это приведет к массовым хаосам, таким как использование информации в качестве оружия, киберпреступность и автономное оружие.
ЧИТАТЬ  К концу года Stewart's Shops возьмет на себя управление Jolley Associates и SB Collins - Saratoga Business Journal

Чтобы справиться с этими проблемами, эксперты настаивают на более этических решениях, например, на том, чтобы сделать интересы человечества высшим приоритетом над интересами ИИ и его выгод. Многие считают, что ключевой момент заключается в том, чтобы уделять первоочередное внимание людям при постоянном внедрении технологий искусственного интеллекта. ИИ никогда не должен стремиться заменить людей, манипулировать ими или контролировать их, а скорее работать совместно с ними, чтобы улучшить то, что возможно. И один из лучших способов сделать это — найти баланс между инновациями в области ИИ и управлением ИИ. Т

Управление ИИ: саморегулирование против государственного законодательства

Когда дело доходит до разработки политики в отношении ИИ, возникает вопрос: кто именно должен регулировать или контролировать этические риски, связанные с ИИ (lytics dotcom)?

Должны ли это быть сами компании и их заинтересованные стороны? Или правительству следует вмешаться и разработать всеобъемлющую политику, требующую от всех соблюдать одни и те же правила и положения?

Помимо определения того, кто должен регулировать, возникают вопросы о том, что именно следует регулировать и как. Эти три основные проблемы управления ИИ.

Кто должен регулировать?

Некоторые считают, что правительство не понимает, как обеспечить правильный надзор за ИИ. Судя по предыдущим попыткам правительства регулировать цифровые платформы, создаваемые ими правила недостаточно гибки, чтобы справиться со скоростью технологического развития, такого как искусственный интеллект.

Вместо этого некоторые считают, что мы должны позволить компаниям, использующим ИИ, действовать как псевдоправительства, устанавливая свои собственные правила управления ИИ. Однако такой подход саморегулирования привел ко многим хорошо известным вредным последствиям, таким как проблемы конфиденциальности данных, манипулирование пользователями и распространение ненависти, лжи и дезинформации.

Несмотря на продолжающиеся дебаты, организации и государственные лидеры уже предпринимают шаги по регулированию использования ИИ. Например, Парламент ЕС уже предпринял важный шаг к установлению всеобъемлющего регулирования ИИ. А в Сенате США лидер большинства Чак Шумер возглавляет разработку широкого плана регулирования ИИ. Управление науки и технологий Белого дома также уже приступило к созданию проекта Билль о правах ИИ.

ЧИТАТЬ  Разочарованы управлением цифровыми данными? Вот как ритейлеры могут улучшить качество обслуживания потребителей | зона Мартех

Что касается саморегулирования, то четыре ведущие ИИ-компании уже запрещают совместно создавать самоуправляемый регулирующий орган. Microsoft, Google, OpenAI и Anthropic недавно объявили о запуске Frontier Model Forum, призванного обеспечить участие компаний в безопасном и ответственном использовании и разработке систем искусственного интеллекта.

Что и как следует регулировать?

Существует также проблема точного определения того, что следует регулировать: такие вещи, как безопасность и прозрачность, являются одними из основных проблем. В ответ на эту обеспокоенность Национальный институт стандартов и технологий (NIST) установил базовые стандарты безопасных методов искусственного интеллекта в своих странах. Структура управления рисками ИИ.

Федеральное правительство считает, что использование лицензий может помочь в регулировании ИИ. Лицензирование может работать как инструмент нормативного надзора, но может иметь свои недостатки, например, работать как универсальное решение, подходящее всем, когда ИИ и влияние цифровых технологий не одинаковы.

Ответом ЕС на это является более гибкая, основанная на рисках нормативная база ИИ, которая допускает многоуровневый подход, который лучше учитывает различные варианты использования ИИ. На основе оценки уровня риска будут выработаны различные ожидания.

Подведение итогов

К сожалению, пока нет четкого ответа на вопрос, кто и как должен регулировать. Многочисленные варианты и методы все еще изучаются. Тем не менее, генеральный директор OpenAI Сэм Альтман поддержал идею создания федерального агентства, непосредственно занимающегося надзором за ИИ. Microsoft и Meta также ранее одобрили концепцию национального регулятора ИИ.

Однако до тех пор, пока не будет принято твердое решение, компаниям, использующим ИИ, рекомендуется действовать максимально ответственно. По закону все организации обязаны действовать в соответствии с Обязанностью проявлять осторожность. Если будет установлено, что какая-либо компания нарушает это правило, это может повлечь за собой юридические последствия.

Очевидно, что практика регулирования является обязательной, и здесь нет исключений. Итак, на данный момент компании должны определить лучший способ пройти по этому канату между защитой интересов общественности и продвижением инвестиций и инноваций.

Предоставлено изображение: Маркус Винклер; Пексели




Source link