В эпоху, когда ИИ все больше определяет качество обслуживания клиентов, понимание внутренней работы этих технологий как никогда важно, особенно для маркетологов.
Недавний отчет Блумберга пролил свет на то, как люди обучают чат-бота Google Bard, подчеркнув неотъемлемую роль тысяч подрядчиков в формировании ответов этого инструмента искусственного интеллекта.
Этот подробный отчет раскрывает реалии развития ИИ и представляет важные последствия для людей, которые их используют.
Качество, точность и надежность взаимодействий, управляемых ИИ, могут повлиять на репутацию бренда, доверие клиентов и, в конечном счете, на вашу прибыль.
По мере того, как мы углубляемся в человеческие процессы, лежащие в основе чат-бота Bard AI, мы получаем ценную информацию о проблемах и возможностях, которые ждут компании, использующие ИИ в своих маркетинговых стратегиях.
Содержание
Взгляд на тренировочную площадку ИИ
Google Bard известен своими быстрыми и уверенными ответами на различные вопросы.
Однако анонимные контрактники сообщают Bloomberg, что за этим мастерством ИИ стоит труд разочарованных людей.
Эти подрядчики из таких компаний, как Appen Ltd. и Accenture Plc, работают в сжатые сроки, чтобы гарантировать надежность, точность и отсутствие предвзятости ответов чат-бота.
Работа под давлением
Эти подрядчики, некоторые из которых зарабатывают всего 14 долларов в час, в прошлом году испытывали все большее давление, поскольку Google и OpenAI соревнуются в гонке вооружений ИИ.
Задачи стали более сложными, а рабочая нагрузка возросла, причем зачастую у подрядчиков нет специальных знаний в областях, которые они проверяют.
Один неназванный подрядчик сказал:
«Сейчас люди напуганы, напряжены, им мало платят, они не понимают, что происходит. И эта культура страха не способствует получению качества и командной работы, которых вы хотите от всех нас».
Роль подрядчиков в обучении ИИ
Роль подрядчиков состоит в том, чтобы проверять ответы ИИ, выявлять ошибки и устранять возможную предвзятость. Они работают с запутанными инструкциями и жесткими сроками, часто всего за три минуты.
Согласно документам, предоставленным Bloomberg, подрядчиков часто просят решить, содержат ли ответы модели ИИ поддающиеся проверке доказательства. Они анализируют ответы по таким факторам, как специфичность, свежесть информации и согласованность.
В одном из примеров в отчете Bloomberg обсуждается, как оценщик может использовать доказательства для определения правильной дозировки лекарства от кровяного давления под названием лизиноприл.
Подрядчики должны следить за тем, чтобы ответы не содержали вредоносного, оскорбительного или чрезмерно сексуального содержания. Они также должны защищаться от неточной, вводящей в заблуждение или вводящей в заблуждение информации.
Выделение человеческого фактора, стоящего за ИИ
Несмотря на то, что чат-боты с искусственным интеллектом, такие как Bard, считаются революционными технологическими достижениями, правда в том, что их эффективность зависит от работы людей-подрядчиков.
Лаура Эдельсон, ученый-компьютерщик из Нью-Йоркского университета, рассказала Bloomberg:
«Стоит помнить, что эти системы — не работа волшебников — это работа тысяч людей и их низкооплачиваемый труд».
Несмотря на неотъемлемую роль подрядчиков, их работа часто окутана тайной, и они почти не общаются напрямую с Google.
Опасения по поводу качества продуктов ИИ
Подрядчики выражают обеспокоенность по поводу условий своей работы, которые, по их мнению, могут повлиять на качество продуктов ИИ.
Подрядчики являются неотъемлемой частью обучения ИИ, как заявил в письме Конгрессу Эд Стакхаус, сотрудник Appen.
Стэкхаус предупредил, что скорость, необходимая для просмотра контента, может привести к тому, что Bard станет «неисправным» и «опасным» продуктом.
Google отреагировал на эти опасения, заявив, что он проводит обширную работу по ответственному созданию своих продуктов ИИ, используя тщательное тестирование, обучение и процессы обратной связи, чтобы гарантировать достоверность и уменьшить предвзятость.
Хотя компания заявляет, что она не полагается исключительно на людей-оценщиков для улучшения ИИ, было указано, что могут вкрадываться незначительные неточности, которые потенциально могут ввести пользователей в заблуждение.
Алекс Ханна, директор по исследованиям Исследовательского института распределенного ИИ и бывший специалист по этике ИИ Google, сказал:
«Все еще беспокоит то, что чат-бот неправильно понимает основные факты».
Призыв к переменам
Несмотря на растущую озабоченность по поводу условий труда и качества продуктов ИИ, очевидно, что наемные работники являются важной частью разработки ИИ.
Задача заключается в обеспечении того, чтобы они получали надлежащую компенсацию и предоставляли необходимые ресурсы для выполнения своей работы.
Эмили Бендер, профессор компьютерной лингвистики Вашингтонского университета, подчеркнула этот момент, сказав:
«Работа этих контрактных сотрудников в Google и других технологических платформах — это история эксплуатации труда».
По мере того, как революция ИИ продолжается, роль людей-подрядчиков в формировании и совершенствовании этих технологий будет оставаться жизненно важной.
Их голоса и опасения должны быть услышаны и учтены, чтобы обеспечить непрерывную разработку надежных, точных и этичных продуктов ИИ.
Избранное изображение: Морис НОРБЕРТ/Shutterstock