Технический директор OpenAI Мира Мурати недавно побеседовала с The Wall Street Journal, чтобы рассказать интересные подробности о их предстоящем генераторе преобразования текста в видео Sora.
Интервью охватывает широкий спектр тем: от типа контента, который будет создавать механизм искусственного интеллекта, до принимаемых мер безопасности. Борьба с дезинформацией является камнем преткновения для компании. Мурати заявляет, что у Соры будет несколько ограждений, чтобы гарантировать, что технология не будет использоваться не по назначению. Она говорит, что команда не будет чувствовать себя комфортно, публикуя что-либо, что «может повлиять на глобальные выборы». Согласно статьеSora будет следовать тем же правилам, что и Dall-E, что означает, что он откажется создавать «изображения общественных деятелей», таких как президент Соединенных Штатов.
Также добавляются водяные знаки. В правом нижнем углу есть прозрачный логотип OpenAI, указывающий, что это кадры с искусственным интеллектом. Мурати добавляет, что они также могут использовать происхождение контента в качестве еще одного индикатора. Метаданные используются для предоставления информации о происхождении цифровых медиа. Это все хорошо, но этого может быть недостаточно. В прошлом году группе исследователей удалось взломать «текущую защиту водяных знаков изображений», в том числе защиту OpenAI. Надеюсь, они придумают что-нибудь пожестче.
Генеративные функции
Все становится интереснее, когда начинают говорить о будущем Соры. Прежде всего, разработчики планируют «со временем» добавить к видеороликам звук, чтобы сделать их более реалистичными. Инструменты редактирования также находятся на повестке дня, предоставляя онлайн-создателям возможность исправлять многочисленные ошибки ИИ.
Каким бы продвинутым ни был Сора, он допускает много ошибок. Один из выдающихся примеров в статье вращается вокруг видеоподсказки, в которой движку предлагается создать видео, на котором робот крадет камеру женщины. Вместо этого в клипе показано, как женщина частично становится роботом. Мурати признает, что есть возможности для совершенствования, объясняя, что ИИ «довольно хорош в обеспечении непрерывности». [but] Это не идеально».
Нагота не исключена. По словам Мурати, OpenAI работает с «художниками… чтобы выяснить», какой тип обнаженного контента будет разрешен. Кажется, команда не против разрешить «художественную» наготу и запретить такие вещи, как дипфейки без согласия. OpenAI, очевидно, не хочет быть в центре каких-либо потенциальных противоречий, но хочет, чтобы ее продукт рассматривался как платформа для поощрения творчества.
Текущее тестирование
Когда его спросили о данных, которые использовались для обучения Соры, Мурати ответил уклончиво.
Она начала с утверждения, что не знает, что используется для обучения ИИ, кроме того, что это либо «общедоступные, либо лицензированные данные». Кроме того, Мурати не был уверен, были ли в обучении видео с YouTube, Facebook или Instagram. Однако позже она призналась, что на самом деле использовались материалы Shutterstock. Две компании, если вы не знаете, иметь партнерство что может объяснить, почему Мурати был готов подтвердить источник.
Мурати заявляет, что Sora «определенно» появится на рынке к концу года. Точную дату она не назвала, хотя это может произойти в ближайшие месяцы. В настоящее время разработчики проводят тесты безопасности движка в поисках «уязвимостей, предвзятости и других вредных результатов».
Если вы когда-нибудь подумываете о том, чтобы попробовать Sora, мы рекомендуем научиться использовать программное обеспечение для редактирования. Имейте в виду, что он допускает много ошибок и может продолжать это делать даже при запуске. Для получения рекомендаций ознакомьтесь с лучшим программным обеспечением для редактирования видео по версии TechRadar на 2024 год.