Meta начнет маркировать изображения, созданные искусственным интеллектом, в Facebook, Instagram и Threads, чтобы обеспечить прозрачность в Интернете.
Технический гигант уже маркирует контент, созданный его движком Imagine AI, видимым водяным знаком. В будущем он будет делать нечто подобное для изображений, поступающих из сторонних источников, таких как OpenAI, Google и Midjourney, и это лишь некоторые из них. Однако пока неизвестно, как именно будут выглядеть эти этикетки. Я смотрю на объявление, он может просто состоять из слов «Информация AI» рядом с сгенерированным контентом. Meta заявляет, что этот дизайн не является окончательным, и предполагает, что он может измениться после официального выпуска обновления.
Помимо видимых меток, компания заявляет, что также работает над инструментами для «определения невидимых меток» на изображениях от сторонних генераторов. Представьте себе, что ИИ тоже делает то же самое, встраивая водяные знаки в метаданные своего контента. Его цель — вставить уникальный тег, которым нельзя манипулировать с помощью инструментов редактирования. Meta заявляет, что другие платформы планируют сделать то же самое и нуждаются в системе для распознавания метаданных с тегами.
Аудио и видео субтитры
До сих пор речь шла о брендинге изображений, но как насчет аудио и видео, генерируемых искусственным интеллектом? Google Lumiere способен создавать невероятно реалистичные клипы, а OpenAI работает над реализацией создания видео в ChatGPT. Есть ли что-нибудь для обнаружения более сложных форм контента ИИ? Ну, типа того.
Мета признает, что в настоящее время не существует способа распознавать аудио и видео, сгенерированные ИИ, на том же уровне, что и изображения. Технологии просто еще нет. Однако отрасль «работает над этой возможностью». До тех пор компания полагается на систему чести. Пользователи должны сообщить, был ли видеоклип или аудиофайл, который они хотят загрузить, создан или отредактирован искусственным интеллектом. Несоблюдение влечет за собой «штраф». Кроме того, когда медиа настолько реалистично, что рискует ввести публику в заблуждение, Мета добавляет «более заметный ярлык» с важными деталями.
Будущие обновления
Что касается собственных платформ, Meta также работает над улучшением сторонних инструментов.
Исследовательская лаборатория искусственного интеллекта компании FAIR разрабатывает новый тип технологии водяных знаков под названием Stable Signature. Судя по всему, можно удалить невидимые маркеры из метаданных контента, созданного ИИ. Stable Signature стремится положить этому конец, сделав водяные знаки неотъемлемой частью «процесса создания изображения». Кроме того, Meta начала обучение нескольких LLM (больших языковых моделей) стандартам своего сообщества, чтобы ИИ могли определять, нарушает ли определенный контент правила.
Ожидайте, что лейблы социальных сетей появятся в ближайшие месяцы. Время публикации не должно вызывать удивления: 2024 год — важный год выборов для многих стран, особенно США. Meta старается максимально ограничить распространение дезинформации на своих платформах.
Мы обратились к компании, чтобы получить дополнительную информацию о том, с какими штрафами может столкнуться пользователь, если он не пометит свою публикацию соответствующим образом, и планирует ли компания добавлять видимый водяной знак к изображениям из стороннего источника. Эта история будет обновлена позже.
А пока ознакомьтесь со списком лучших генераторов изображений ИИ на 2024 год от TechRadar.