Джон Мюллер из Google использовал изображение, сгенерированное AI, чтобы проиллюстрировать свою точку зрения о низкоэффективном контенте, который выглядит хорошо, но не имеет истинного опыта. Его комментарии оттолкнули к идее, что низкоэффективное содержание приемлемы только потому, что он имеет вид компетенции.

Одним из сигналов, который привлек его к низкокачественным статьям, было использование изворотливых изображений, сгенерированных AI. Он не предполагал, что изображения, сгенерированные AI, являются прямым сигналом низкого качества. Вместо этого он описал свое собственное восприятие «вы знаете, когда видите это».

Сравнение с реальной экспертизой

Комментарий Мюллера сослался на практику контента реальных экспертов.

Он написал:

«Насколько распространено в неэсео кругах, что« технические » /« экспертные »статьи используют изображения, сгенерированные AI? Я очень люблю их видеть [*]Полем

[*] Потому что я знаю, что могу игнорировать статью, которую они игнорировали во время написания. И почему бы и не заблокировать их в социальных сетях.

Низкое содержание усилий

Затем Мюллер вызвал низкоэффективную работу, которая приводит к контенту, который «выглядит хорошо».

Он продолжил:

«Я борюсь с комментариями« но наша работа с низким содержанием эффективности выглядит хорошо ». Реально, Cheap & Fast будут правят, когда речь заходит о производстве массового контента, поэтому ничто из этого не исчезнет в ближайшее время, вероятно, никогда. «Низкий, но хорошо» все еще низко ».

Речь идет не о изображениях ИИ

Пост Мюллера не о изображениях ИИ; Речь идет о низкоэффективном контенте, который «выглядит хорошо», но на самом деле нет. Вот анекдот, чтобы проиллюстрировать, что я имею в виду. Я видел SEO на Facebook, хвастался тем, насколько велик их контент, сгенерированный AI. Поэтому я спросил, доверяют ли они этому для создания местного контента SEO. Они ответили: «Нет, нет, нет, нет», и отметили, насколько плохим и ненадежным содержание по этой теме.

ЧИТАТЬ  Все придет на Hulu в августе 2023 года | цифровые тренды

Они не оправдывали, почему они доверяли другому контенту, сгенерированному AI. Я просто предположил, что они либо не установили соединение, либо проверяли контент фактическим экспертом по теме, и не упомянули об этом. Я оставил это там. Нет суждения.

Следует ли поднять стандарт для добра?

У CHATGPT есть предупреждение об отказе от ответственности против доверия. Таким образом, если ИИ нельзя доверять по теме, в которой можно было осведомлено, и он консультирует само осторожность, должен ли стандарт оценки качества контента, сгенерированного AI, будет выше, чем просто выглядеть хорошо?

Экриншот: ИИ не ручается за его надежность — должен ли вы?

CHATGPT рекомендует проверить вывод

Дело в том, что, возможно, не эксперту трудно различить разницу между экспертным контентом и контентом, предназначенным для напоминания опыта. Контент, генерируемый ИИ, является экспертом в виде экспертизы, по дизайну. Учитывая, что даже Сам ЧАТГПТ рекомендует проверить, что он генерирует, возможно, было бы полезно, чтобы реального эксперта просмотрел этот контент-кренак, прежде чем выпустить его в мир.

Прочитайте комментарии Мюллера здесь:

Я борюсь с комментариями «но наша работа с низким содержанием эффективности выглядит хорошо».Полем

Показанное изображение от Shutterstock/Shotprime Studio



Source link