Рэй Курцвейл, известный футуролог и технический директор Google, опубликовал опровержение письма с призывом приостановить исследования в области ИИ, указав причины, по которым это предложение непрактично и лишает человечество медицинских прорывов и инноваций, которые приносят огромную пользу человечеству.

Международное письмо с призывом приостановить развитие ИИ

Открытое письмо, подписанное учеными и знаменитостями со всего мира (опубликовано на FutureOfLife.org) призвал к полной паузе в разработке ИИ, более мощного, чем GPT-4, последняя версия, созданная OpenAI.

Помимо приостановки дальнейшего развития ИИ, они также призвали к разработке протоколов безопасности, за которыми наблюдают сторонние независимые эксперты.

Некоторые моменты, на которые обращают внимание авторы открытого письма:

  • ИИ представляет серьезную опасность
  • Разработка ИИ должна продолжаться только после того, как будут перечислены и обоснованы полезные применения технологии.
  • ИИ должен действовать только в том случае, если «мы» (тысячи подписавших письмо) уверены, что рисками ИИ можно управлять.
  • Разработчики ИИ призваны работать вместе с политиками над созданием систем управления ИИ, состоящих из регулирующих органов.
  • Разработка технологий водяных знаков, помогающих идентифицировать контент, созданный ИИ, и контролировать распространение технологии.
  • Система возложения ответственности за вред, созданная ИИ
  • Создание учреждений для устранения сбоев, вызванных технологией ИИ.

Письмо, похоже, исходит из точки зрения, что технология искусственного интеллекта централизована и может быть приостановлена ​​несколькими организациями, контролирующими эту технологию. Но ИИ находится не только в руках правительств, исследовательских институтов и корпораций.

На данный момент ИИ представляет собой децентрализованную технологию с открытым исходным кодом, разработанную тысячами людей в глобальном масштабе.

ЧИТАТЬ  Число случаев голосового мошенничества с использованием ИИ растет: вот как оставаться в безопасности, по мнению экспертов по безопасности

Рэй Курцвейл: футуролог, писатель и технический директор Google.

Рэй Курцвейл занимается разработкой программного обеспечения и машин, ориентированных на искусственный интеллект, с 1960-х годов, он написал много популярных книг по этой теме и известен тем, что делает предсказания о будущем, которые, как правило, верны.

Из 147 предсказаний о жизни, которые он сделал в 2009 году, только три предсказания, в общей сложности 2%, оказались неверными.

Среди его предсказаний в 1990-х годах было то, что многие физические носители, такие как книги, потеряют популярность по мере их оцифровки. В то время, когда в 1990-х годах компьютеры были большими и громоздкими, он предсказал, что к 2009 году компьютеры станут достаточно маленькими, чтобы их можно было носить, что оказалось правдой (Как сбываются мои прогнозы — 2010 г. PDF).

Недавние прогнозы Рэя Курцвейла сосредоточены на всем том хорошем, что принесет ИИ, особенно на прорывах в медицине и науке.

Курцвейл также сосредоточен на этике ИИ.

В 2017 году он был одним из участников (вместе с генеральным директором OpenAI Сэмом Альтманом), которые составили открытое письмо, известное как Принципы искусственного интеллекта Asilomar которые также были опубликованы на веб-сайте Future of Life, руководства по безопасному и этичному развитию технологий искусственного интеллекта.

Среди принципов, которые он помог создать:

  • «Цель исследований ИИ должна состоять в том, чтобы создать не ненаправленный интеллект, а полезный интеллект.
  • Инвестиции в ИИ должны сопровождаться финансированием исследований по обеспечению его полезного использования.
  • Между исследователями ИИ и политиками должен быть конструктивный и здоровый обмен мнениями.
  • Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами.
  • Сверхразум следует развивать только на службе широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации».

Ответ Курцвейла на открытое письмо с просьбой о паузе в развитии ИИ исходил из целой жизни инновационных технологий с точки зрения всего полезного, что они могут принести человечеству и миру природы.

ЧИТАТЬ  У Google есть новая шахматная игра, которая позволяет создавать фигуры с помощью ИИ

Его ответ сосредоточился на трех основных моментах:

  • Призыв к паузе слишком расплывчат, чтобы быть практичным
  • Все страны должны согласиться на паузу, иначе цели будут проиграны с самого начала.
  • Пауза в развитии игнорирует такие преимущества, как поиск лекарств от болезней.

Слишком расплывчато, чтобы быть практичным

Его первое замечание по поводу письма заключается в том, что оно слишком расплывчато, потому что вызывает паузу в отношении ИИ, более мощного, чем GPT-4, который предполагает, что GPT-4 — единственный тип ИИ.

Курцвейл писал:

«Что касается открытого письма о «приостановке» исследований ИИ «более мощного, чем GPT-4», этот критерий слишком расплывчатый, чтобы быть практичным».

Страны откажутся от паузы

Его второе замечание заключается в том, что требования, изложенные в письме, могут работать только в том случае, если все исследователи во всем мире добровольно сотрудничают.

Преимущество будет у любой страны, которая откажется подписаться, что, вероятно, и произойдет.

Он написал:

«И предложение сталкивается с серьезной проблемой координации: те, кто согласен на паузу, могут сильно отстать от корпораций или стран, которые не согласны».

Этот момент ясно дает понять, что цель полной паузы нежизнеспособна, потому что страны не уступят преимущество, а также ИИ демократизирован и имеет открытый исходный код в руках людей во всем мире.

ИИ приносит существенные преимущества ИИ

Были редакционные статьи, отвергавшие ИИ как очень мало пользы для общества, утверждая, что повышения производительности труда недостаточно, чтобы оправдать риски, которых они опасаются.

И последнее замечание Курцвейла заключается в том, что открытое письмо, призывающее к паузе в развитии ИИ, полностью игнорирует все то хорошее, что может сделать ИИ.

Он объясняет:

«Есть огромные преимущества в продвижении ИИ в таких важнейших областях, как медицина и здравоохранение, образование, поиск возобновляемых источников энергии для замены ископаемого топлива и во множестве других областей.

… необходимо больше нюансов, если мы хотим раскрыть глубокие преимущества ИИ для здоровья и производительности, избегая при этом реальных опасностей».

Опасности, страх перед неизвестным и польза для человечества

Курцвейл делает хорошие выводы о том, как ИИ может принести пользу обществу. Его точка зрения о том, что нет способа приостановить работу ИИ, верна.

ЧИТАТЬ  Почему использование ИИ для создания экспертов YMYL — ДЕЙСТВИТЕЛЬНО плохая идея

Его объяснение ИИ подчеркивает огромные преимущества для человечества, присущие ИИ.

Может ли быть так, что реализация ИИ в OpenAI в виде чат-бота упрощает ИИ и затмевает пользу для человечества, одновременно пугая людей, которые не понимают, как работает генеративный ИИ?

Избранное изображение Shutterstock/Юрий Мотов





Source link