Великобритания предпринимает значительные шаги для устранения рисков, связанных с искусственным интеллектом (ИИ), открывая второй офис ИИ.Институт безопасности искусственного интеллекта в Сан-Франциско. Этот стратегический шаг направлен на то, чтобы поставить страну в центр развития искусственного интеллекта, приближая ее к эпицентру технологических инноваций.

Решение открыть офис в Сан-Франциско

Британское правительство решило расширить усилияИнститут безопасности искусственного интеллекта, орган, созданный в ноябре 2023 года с амбициозной целью оценки и устранения рисков, связанных с платформами искусственного интеллекта. Открытие второго офиса в Сан-Франциско было мотивировано желанием стать ближе к основным игрокам в сфере ИИ, таким как OpenAI, Anthropic, Google и метакоторые разрабатывают базовые технологии для генеративного искусственного интеллекта и других приложений.

Международное сотрудничество и доступ к талантам

Великобритания уже подписала меморандум о взаимопонимании с США о сотрудничестве в инициативах по безопасности ИИ, но считает, что Физическое присутствие в Сан-Франциско может еще больше улучшить сотрудничество. и доступ к талантам. Британский министр науки, инноваций и технологий Мишель Донеланподчеркнул, что такая близость позволит институту еще более тесно сотрудничать с компаниями США.

Важность видимости и влияния

Близость к эпицентру развития ИИ не только позволяет лучше понять, что разрабатывается, но и предлагает большая известность Великобритании в этих компаниях. Это особенно актуально, поскольку ИИ и технологии рассматриваются в Великобритании как огромные возможности для экономического роста и инвестиций.

ЧИТАТЬ  WhatsApp теперь позволяет использовать секретные коды для блокировки личных чатов

Роль Института безопасности ИИ

Институт безопасности ИИ, хотя и остается относительно скромной организацией со штатом всего 32 сотрудника, уже сделал значительные шаги. В прошлом месяцеинститут выпустил Inspect, первый набор инструментов для тестирования безопасности базовых моделей ИИ. Это представляет собой лишь «первую фазу» усилий института, поскольку оценка моделей ИИ остается сложной задачей.

Участие ИИ-компаний

В настоящее время обязательства компаний, занимающихся искусственным интеллектом, проводить оценку своих моделей носят добровольный и неравномерный характер. До сих пор не существует юридического требования к компаниям подвергать свои модели проверке, а это означает, что в некоторых случаях лошадь могла уже бежать до того, как были выявлены какие-либо риски.

Стратегии корпоративного взаимодействия

Институт работает над стратегиями, позволяющими лучше вовлекать ИИ-компании при оценке своих моделей. Министр Донелан признал, что процесс оценки является «новой наукой» и что каждая оценка будет способствовать его дальнейшему совершенствованию.

Будущие цели Института безопасности ИИ

В долгосрочной перспективе цель института — сделать ИИ безопасным для общества в целом. С этой целью министр Донелан ожидал, что Великобритания будет работать над введением новых правил в области ИИ, но только после полного понимания рисков.

Международный отчет об искусственном интеллекте

Недавний международный отчет об искусственном интеллекте, подготовленный институтом, выявил важные пробелы в исследованиях, подчеркнув необходимость стимулировать и поощрять дальнейшие исследования во всем мире.

Международный подход к безопасности ИИ

С момента своего создания институт подчеркивал важность международного подхода к безопасности ИИ, обмена исследованиями и сотрудничества с другими странами для тестирования моделей и прогнозирования рисков, связанных с передовым ИИ.

Саммит по безопасности искусственного интеллекта в Сеуле

Одна из целей конференции по искусственному интеллекту в Сеуле, Южная Корея, — представить Inspect регулирующим органам с целью содействия его внедрению на международном уровне.

ЧИТАТЬ  Консоли по-прежнему имеют преимущество, и это вредит играм на ПК | цифровые тренды

Источник статьи ВОЗ.



Source link