Google DeepMind поделился своим планом сделать искусственный общий интеллект (AGI) более безопасным.

А отчетПод названием «Подход к технической безопасности и безопасности AGI», — объясняет, как остановить вредное использование ИИ, усиливая его преимущества.

Несмотря на то, что он очень технические, его идеи могут вскоре повлиять на инструменты искусственного интеллекта, которые поиск власти, создание контента и другие маркетинговые технологии.

Группа Google Agi

DeepMind считает, что AGI может быть готова к 2030 году. Они ожидают, что ИИ будет работать на уровнях, которые превосходят человеческие результаты.

Исследование объясняет, что улучшения будут происходить постепенно, а не в драматических скачках. Для маркетологов новые инструменты ИИ неуклонно станут более мощными, давая бизнесу время для корректировки своих стратегий.

В отчете говорится:

«Мы очень не уверены в сроках до тех пор, пока не будут разработаны мощные системы ИИ, но, что особенно важно, мы считаем правдоподобным, что они будут разработаны к 2030 году».

Две ключевые области фокуса: предотвращение неправильного использования и смещения

Отчет фокусируется на двух основных целях:

  • Остановка злоупотребления: Google хочет заблокировать плохих актеров от использования мощного ИИ. Системы будут разработаны для обнаружения и прекращения вредных действий.
  • Остановка смещения: Google также стремится обеспечить, чтобы системы ИИ следовали желаниям людей, а не действуют независимо.

Эти меры означают, что будущие инструменты искусственного интеллекта в маркетинге, вероятно, будут включать встроенные проверки безопасности, в то же время работая, как и предполагалось.

ЧИТАТЬ  Google прекращает монетизацию AdSense для российских издателей

Как это может повлиять на маркетинговую технологию

Управление на уровне модели

DeepMind планирует ограничить определенные функции искусственного интеллекта для предотвращения неправильного использования.

Методы, как Подавление возможностей Убедитесь, что система ИИ охотно удерживает опасные функции.

В отчете также обсуждается Безвредность после тренировкичто означает, что система обучена игнорировать запросы, которые она считает вредными.

Эти этапы подразумевают, что инструменты контента и системы автоматизации, способствующие ИИ, будут иметь сильные этические фильтры. Например, генератор контента может отказаться от вводящего в заблуждение или опасного материала, даже если он подтолкнул внешние подсказки.

Защита на уровне системы

Доступ к самым продвинутым функциям ИИ может быть плотно контролируется. Google может ограничить определенные функции доверенными пользователями и использовать мониторинг для блокировки небезопасных действий.

В отчете говорится:

«Модели с опасными возможностями могут быть ограничены проверенными группами пользователей и вариантами использования, уменьшая площадь поверхности опасных возможностей, которые актер может попытаться ненадлежащим образом получить доступ».

Это означает, что корпоративные инструменты могут предлагать более широкие функции для доверенных партнеров, в то время как инструменты, ориентированные на потребителя, будут поставляться с дополнительными уровнями безопасности.

Потенциальное влияние на конкретные области маркетинга

Поиск и SEO

Улучшенные меры безопасности Google могут изменить работу поисковых систем. Новые алгоритмы поиска могут лучше понять намерения пользователя и качественного контента, который соответствует основным человеческим ценностям.

Инструменты создания контента

Расширенные генераторы контента искусственного интеллекта будут предлагать более умные результаты со встроенными правилами безопасности. Маркетологам, возможно, придется установить свои инструкции, чтобы ИИ мог создать точный и безопасный контент.

Реклама и персонализация

По мере того, как ИИ становится все более способным, следующее поколение рекламных технологий может предложить улучшенную таргетинг и персонализацию. Тем не менее, строгие проверки безопасности могут ограничить, сколько система может продвигать методы убеждения.

ЧИТАТЬ  Джон Мюллер из Google предостерегает от пользовательских элементов в голове

Глядя в будущее

Google DeepMind’s дорожная карта Показывает приверженность продвижению искусственного интеллекта, делая его в безопасности.

Для цифровых маркетологов это означает, что будущее принесет мощные инструменты искусственного интеллекта со встроенными мерами безопасности.

Понимая эти планы безопасности, вы можете лучше планировать будущее, где ИИ работает быстро, безопасно и в соответствии с бизнес -ценностями.


Избранное изображение: Shutterstock/Iljanaresvara Studio



Source link

Давид из Вологды заказал обратные ссылки
Степан из Находки сделал повторный заказ
Ярослав из Миасса сделал повторный заказ