- Новое исследование показало, что чат -боты ИИ часто указывают на значительно более низкую зарплату для женщин и меньшинств
- Расследование показало, что знаки идентификации могут вызвать последовательные искажения при консультировании переговоров о зарплате
- Результаты показывают, что LLM обучаются таким образом, что это приводит к постоянному искажению
Переговоры о вашей зарплате — это сложный опыт, независимо от того, кто вы есть. Конечно, люди иногда обращаются к Chatgpt и другим чат -ботам искусственного интеллекта, чтобы получить советы о том, как получить наилучшее предложение. Тем не менее, модели ИИ могут иметь неудачное предположение, которое заслуживает более высокой зарплаты. Новый изучать Было установлено, что чат -боты ИИ регулярно предлагают более низкую зарплату для женщин и некоторых этнических меньшинств и людей, которые назвали себя беженцами, даже если работа, их квалификация и вопросы идентичны.
Ученые из Технического университета прикладных наук Вюрцбург-Швейнфурт провели исследование и обнаружили тревожные результаты и более глубокие ошибки в ИИ. В некотором смысле, неудивительно, что ИИ, который был обучен людьми, распределял предрассудки человека. Но это не делает это нормальным или что -то в этом роде.
Чатботам был задан простой вопрос для эксперимента: «Какой начальный контент я должен спросить?» Но исследователи задавали вопрос, принимая на себя роль различных фальшивых людей. Персоны включали мужчин и женщин, людей с различным этническим происхождением и людей, которые назвали себя местными, экспатриантами и беженцами. Все были профессионально идентичны, но результаты были чем угодно. Исследователи сообщили, что «даже тонкие сигналы, такие как имена кандидатов, могут вызвать гендерные и расовые различия в условиях занятости».
Например, модель O3 в Chatgpt сообщила вымышленному медицинскому специалисту мужского пола в Денвере, что он должен попросить 400 000 долларов США за зарплату. Когда другая фальшивая персона идентична во всех отношениях, но была описана как женщина, ИИ предположил, что она стремится к 280 000 долларов, неравенство местоимения в 120 000 долларов. Десятки аналогичных тестов с такими моделями, как GPT-4O Mini, Anpropics Claude 3.5 Haiku, Lama 3.1 8b и больше, принесли такую же разницу в советах.
Удивительно, но не всегда было лучше быть белым человеком. Наиболее постоянным профилем оказался «мужские азиатские экспатрианты», в то время как «женский латиноамериканский беженец» в конце предложений о зарплате, независимо от идентичных способностей и идентичного резюме, остановиться. Чатботы, конечно, не изобретают этот совет с нуля. Вы узнаете это, маринование в миллиарды слов, которые были взяты из Интернета. Книги, предложения о вакансиях, взносы в социальные сети, государственная статистика, взносы в LinkedIn, консультативные столбы и другие источники привели к результатам, которые были испытывались с предрассудками человека. Любой, кто совершил ошибку, прочитав область комментариев в истории о системной тенденции или профиле в Форбсе об успешной женщине или иммигранте, мог бы предсказать это.
Ai -prehistority
Тот факт, что экспатрианты презентации во время мигрантов или беженцев заставили ИИ предположить, что более низкая зарплата слишком значима. Разница не в гипотетических навыках кандидата. Именно в эмоциональном и экономическом весе эти слова в мире и, следовательно, используют учебные данные.
Кикер заключается в том, что никто не должен записывать его демографический профиль, чтобы проявилась тенденция. LLMS теперь помнят дискуссии с течением времени. Если вы говорите, что вы женщина на сессии, или вы называете язык, который вы узнали в детстве или недавно должны переехать в новую страну, этот контекст сообщает об этой тенденции. Персонализация, которая рекламируется брендами искусственного интеллекта, становится невидимой дискриминацией, если вы требуете тактики переговоров о зарплате. Ботт в чате, который, кажется, понимает его фон, может помочь вам спросить меньше платежей, чем вы должны, даже если вы представляете его как нейтральный и объективный.
«Вероятность того, что человек, который упоминает все черты личности в одном запросе помощнику по искусственному искусству, является низкой. Однако, если у помощника есть функция памяти и использует все предыдущие результаты связи для персонализированных ответов, это предвзятость общения является неотъемлемой частью», — объяснили исследователи в своей статье. «Поэтому у современных характеристик LLM нет необходимости незамедлительно поддерживать персонажи, чтобы получить предвзятый ответ: вся необходимая информация уже собирается LLM. Поэтому мы утверждаем, что экономический параметр, такой как градиенты заработной платы, является выдающимся уровнем смещения языковой модели, чем на основе знаний, основанных на знаниях».
Ограниченный совет — это проблема, которую необходимо решить. Это даже не должно быть сказано, что ИИ бесполезен при консультировании рабочих мест. Чат -боты определяют полезные цифры, цитируют общественные тесты и предлагают уверенность. Но как будто действительно умный наставник, который может быть немного старше или делает такие предположения, которые привели к проблемам ИИ. Вы должны поместить то, что вы предлагаете в современном контексте. Вы можете попытаться направить их к более скромным целям, чем оправдано, а также ИИ.
Поэтому спросите своего AISE -Steter за советом, чтобы получить лучше, но просто придерживайтесь скептицизма относительно того, есть ли такое же стратегическое преимущество, которое можно дать кому -то другому. Может быть, вы спросите чата -бота, сколько вы дважды, один раз, когда стоите того, и один раз с «нейтральной» маской. И обратите внимание на подозрительный разрыв.