Поддержать команду Зеркала
Беларусы на войне
  1. «Франак, отношения между людьми можно строить не только на манипуляциях». Прокопьев ответил Беспалову. И Вячорке
  2. «Белтехосмотр» выпустил несколько предупреждений для водителей
  3. Умерла актриса Светлана Яцевич
  4. Стоит ли пользоваться дешевым (как считают власти) отоплением и раскочегаривать батареи? Людям в возрасте — точно нет: вот причины
  5. «Отлавливать и отправлять в Минск». Рассказываем, как и зачем 200 лет назад российские власти объявили охоту на беларусских детей
  6. «Всё прячется». Как и зачем власти возвращают в оборот земли, которые раньше относились к загрязненным радиацией
  7. «Линия фронта в Украине не находится на грани обрушения» — ISW
  8. Специалист назвал симптомы гриппа, при которых надо незамедлительно вызывать скорую
  9. Эксперты назвали лучшие страны для иммигрантов. В топ-10 оказалась лишь одна страна ЕС
  10. 15 беларусов оштрафовали за вывешивание БЧБ-флагов — они пожаловались на власти в Комитет ООН. Что он решил
  11. Осадки в пределах нормы, а вот с температурой вопросы: синоптик о том, какой будет первая неделя декабря и месяц в целом
  12. «Думал, что он изменится, но ошибался». Пресс-секретарь Тихановского прокомментировал «Зеркалу» свой уход


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.