Слепое доверие к выводам искусственного интеллекта может стать проблемой: в новом исследовании испанские ученые обнаружили склонность людей наследовать предубеждения и ошибки ИИ в процессе принятия собственных решений.
Искусственный интеллект все активнее внедряется во все сферы жизни людей. Несмотря на кажущуюся объективность машины, исследователи предупреждают: алгоритмы проходят обучение на все тех же человеческих данных, включающих ошибки и предубеждения.
Ученые университета Деусто в Испании провели серию экспериментов с ИИ, намеренно заложив в него ошибки. Они выяснили, что участники, которым помогал «испорченный» алгоритм, повторяли его неверные решения и продолжали им следовать уже в следующих заданиях самостоятельно. Некритичность людей к данным ИИ может стать проблемой для принятия важных решений, например, в медицинской диагностике. Ученые подчеркивают необходимость в дальнейших исследованиях и стремятся регулировать сотрудничество между искусственным интеллектом и человеком. Результаты работы опубликованы в Scientific Reports.
Доверяй и проверяй
Перед участниками эксперимента поставили задачи в области медицинской диагностики. Они должны были распределить образцы тканей на две категории: зараженные выдуманной болезнью и здоровые. Образцы состояли из двух цветов: красного и желтого — и их соотношение определяло, к какой категории он относится. Каждой группе участников заранее выдали инструкции, и далее предложили им распределить все по категориям. Участники, которые работали с «испорченным» или, как его называли сами исследователи, предвзятым ИИ, чаще совершали ошибки, чем работающие самостоятельно. Таким образом, рекомендации искусственного интеллекта влияли на решения участников.
Подробнее https://hi-tech.mail.ru/re...