Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Белая Русь» опубликовала в TikTok слова Чемодановой о «Беларуси будущего» — но не закрыла комментарии. Пользователи жестко ответили
  2. Вынесли приговор одному из руководителей ювелирного бренда Belaruskicry, объявленного «экстремистским формированием»
  3. Мобильные операторы вводят изменения для клиентов
  4. Лукашенко до сих пор не может забыть и простить американского миллиардера, которого видел 30 лет назад. Вот что между ними произошло
  5. «Он не разбился». Чемпион Беларуси по мотокроссу умер в 17 лет
  6. США могут предложить Минску нефтяную сделку в обмен на перезапуск отношений — СМИ
  7. «Это то, что уже влияет на статистику цен по реальным сделкам». Стало известно, сколько квартир в Минске купили россияне
  8. Лукашенко привлек контрразведку, чтобы понять реальную ситуацию в армии. Констатировал, что там врут
  9. «Нужно выжить». Беларусский шоумен, попавший в образовательный скандал в ОАЭ, обратился к подписчикам
  10. В «Белоруснефти» заявили, что бензин у нас дешевле, чем в Польше. Посчитали, кто на зарплату может купить его больше — беларус или поляк
  11. 21-летний внук Лукашенко построит цех за госкредит на льготных условиях


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.