Искусственный интеллект все активнее внедряется в повседневную жизнь, принимая решения, которые напрямую влияют на людей.
Алгоритмы определяют, кто поступает в университет, получает работу, медицинскую помощь или государственную поддержку. Однако, несмотря на свою эффективность, ИИ нередко становится источником несправедливых решений, что вызывает беспокойство как у граждан, так и у регуляторов.
Проблема заключается в том, что автоматические системы могут непреднамеренно отдавать предпочтение определенным группам, ущемляя интересы других. Например, в процессе отбора на работу или поступления в университет представители недопредставленных групп могут быть исключены из-за особенностей данных, на которых обучен алгоритм. В социальных системах ИИ может перераспределять ресурсы так, что социальное неравенство лишь усугубляется, оставляя людей с ощущением несправедливости.
Международная команда исследователей изучила, как некорректное распределение ресурсов человеком или ИИ влияет на готовность людей бороться с несправедливостью. Ученые сосредоточились на рассмотрении так называемого «просоциального наказания» — поведения, направленного на борьбу с несправедливостью. Это может быть, например, бойкот компании или конкретного человека, который ведет себя неэтично и нарушает те или иные нормы. Просоциальное наказание помогает поддерживать справедливость в обществе.
Подробнее https://hi-tech.mail.ru/news/117791-uchenye-raskr...