Непрерывная работа Google в области искусственного интеллекта обеспечивает инструменты, которыми ежедневно пользуются миллиарды людей, включая Google Search, Google Translate, Карты и другие. Некоторые из работ, которыми мы больше всего увлечены, — это использование ИИ для решения основных социальных проблем — от предсказывать наводнения и уменьшить углерод, чтобы улучшить здравоохранение. Мы узнали, что ИИ может оказать огромное влияние на глобальные кризисы, с которыми сталкивается каждый, и в то же время распространить преимущества существующих инноваций на людей во всем мире.

Вот почему ИИ должен разрабатываться ответственно, таким образом, чтобы решать идентифицируемые проблемы, такие как справедливость, конфиденциальность и безопасность, в сотрудничестве со всей экосистемой ИИ. И именно поэтому — после объявления в 2017 году о том, что мы стали компанией, «первой в области искусственного интеллекта», — мы поделились Принципы ИИ и с тех пор построил обширный Управление принципами ИИ структура и развивающаяся и воспроизводимая этика процесс проверки. Чтобы помочь другим ответственно разрабатывать ИИ, мы также разработали Инструментарий ответственного ИИ.

Каждый год мы публикуем подробный отчет о наших процессах оценки рисков, этических обзоров и технических улучшений в общедоступном ежегодном обновлении — 2019, 2020, 2021, 2022 – дополнен кратким полугодовым обзором нашего собственного прогресса, который охватывает то, что мы наблюдаем в отрасли.

В этом году, Генеративный ИИ получает больше общественного внимания, разговоров и совместного интереса, чем любая новая технология в нашей жизни. Это хорошая вещь. Этот дух сотрудничества может только принести пользу цели ответственной разработки ИИ на пути к раскрытию своих преимуществ, помогая малым предприятиям создавать более привлекательные рекламные кампании, чтобы позволить большему количеству людей прототип новых приложений ИИдаже без написания кода.

ЧИТАТЬ  Google не будет использовать данные поискового трафика ИИ в консоли поиска

Со своей стороны, мы применили принципы ИИ и процесс этической проверки к нашей собственной разработке ИИ в наших продуктах — генеративный ИИ не является исключением. Что мы обнаружили за последние шесть месяцев, так это то, что существуют четкие способы продвижения более безопасных и социально полезных методов для проблем генеративного ИИ, таких как несправедливая предвзятость и фактическая достоверность. Мы активно учитываем этические соображения на ранних стадиях процесса проектирования и разработки и значительно расширили наши обзоры усилий по ИИ на ранних стадиях, уделяя особое внимание рекомендациям по проектам генеративного ИИ.

В нашем полугодовом обновлении мы хотели бы поделиться тремя нашими передовыми практиками, основанными на этих советах и ​​том, что мы сделали в нашем дизайне, обзорах и разработке перед запуском Генеративного ИИ: проектируйте с ответственностью, выполняйте противоречивые тесты. и общаться просто, полезные объяснения.

Source