Meta, Snapchat и TikTok наконец-то собираются вместе, чтобы что-то сделать с вредным воздействием некоторого контента, размещенного на их платформах — и пришло время.
В партнерстве с Коалиция психического здоровьяВсе три бренда используют программу Thrive, которая предназначена для обнаружения и безопасного обмена информацией о вредоносном контенте. В первую очередь это касается контента, касающегося самоубийств и членовредительства.
А Мета-пост в блоге заявляет: «Как и многие другие типы потенциально проблемного контента, контент о самоубийствах и членовредительстве не ограничивается одной платформой… Вот почему мы работали с Коалицией психического здоровья над разработкой Thrive, первой программы обмена сигналами для обмена сигналы о вредном контенте, ведущие к самоубийству и членовредительству.
«Через Thrive участвующие технологические компании могут делиться сигналами о вредном контенте, связанном с самоубийствами или членовредительством, чтобы другие компании могли расследовать и принимать меры, когда тот же или похожий контент распространяется на их платформах. Meta обеспечивает техническую инфраструктуру, лежащую в основе Thrive… и позволяет безопасно обмениваться сигналами».
Когда участвующая компания, такая как Meta, обнаруживает в своем приложении вредоносный контент, она передает хэши (анонимизированный код, связанный с контентом, связанным с членовредительством или самоубийством) с другими технологическими компаниями, чтобы они могли проверить свои собственные базы данных на наличие того же контента, поскольку это обычно происходит быть вредным для распространения на разных платформах.
Анализ: хорошее начало
Пока существуют платформы, которые полагаются на пользователей, загружающих собственный контент, будут также и те, которые нарушают правила и распространяют вредоносные сообщения в Интернете. Это может быть мошенники, пытающиеся продать поддельные курсы, неприемлемый контент на каналах, ориентированных на детей, а также контент, касающийся самоубийств или членовредительства. Аккаунты, публикующие контент такого типа, как правило, очень хорошо умеют обходить правила и оставаться незамеченными, чтобы охватить свою целевую аудиторию; контент часто удаляется слишком поздно.
Приятно видеть, что платформы социальных сетей, которые используют комплексные алгоритмы и архитектуру, подобную казино, чтобы зацепить своих пользователей и автоматически представить им контент, с которым они взаимодействуют, на самом деле берут на себя ответственность и сотрудничают. Этот тип этического сотрудничества между наиболее популярными приложениями для социальных сетей крайне необходим. Однако это должно быть лишь первым шагом на пути к успеху.
Проблема с пользовательским контентом заключается в том, что он требует постоянного мониторинга. Искусственный интеллект, безусловно, может помочь автоматически отмечать вредоносный контент, но некоторые все равно будут ускользать — большая часть этого контента имеет нюансы и содержит подтекст, который человек на каком-то этапе цепочки должен увидеть и пометить как вредный. Я определенно буду следить за Meta, TikTok и другими компаниями, поскольку речь идет об их меняющейся политике в отношении вредного контента.