(Фото: Getty)
Поскольку развитие искусственного интеллекта (ИИ) продолжается, и эксперты работают над сингулярностью - точкой, когда машины станут умнее людей - исследователи изучают способы сохранения людей как лучших существ на Земле.
Многие эксперты предупреждают о рисках развивающихся машин, которые такие же способные, как и мы, а это может реально сделать людей низшим сортом, потому что машины могут занять наши рабочие места. И в конце концов машины могут понять что люди это ничто и убрать нас с лица Земли.
Для борьбы с этой угрозой ученые предлагают различные идеи, которые могут помешать этому. Одна из новых таких идей, заключается в том, что разработчики должны встраивать в машины сомнения и неуверенность в себе.
Идея заключается в том, что если ИИ будет неуверен в себе, ему нужно будет искать уверенности у людей, подобно тому, как это делает собака, что укрепит наше место как вершину разума на Земле.
(Фото: Getty)
Команда из Калифорнийского университета провела исследования и определила, что сомневающиеся роботы более послушны.
В статье, опубликованной на arXiv, команда написала: «Понятно, что одним из основных инструментов, которые мы можем использовать для смягчения потенциального риска от неправильной системы ИИ, является возможность отключить систему».
«По мере совершенствования возможностей ИИ важно обеспечить, чтобы такие системы не применяли подцели, которые препятствовали тому, чтобы человек мог отключить их».
«Наша цель – понять, что является стимулом для ИИ, при котором он позволит себе отключить».
На одном симуляторе «ум» робота был отключен человеком и тут же разрешил себе вновь включится.
(Фото: Hi-news.ru)
Роботы уверенные в себе вновь активизировались, но тот, у кого была неуверенность в отношении результата не включился, так как он был неуверен не противоречит ли это человеческим желаниям.
Команда сделала вывод: «Наш анализ показывает, что агенты с неопределенностью в отношении их функции полезности имеют стимулы для принятия или поиска контроля над людьми».
«Таким образом, системы с неопределенностью их функции полезности являются перспективной областью для исследований по созданию безопасных систем ИИ».