«США навязывают ИИ свои ценности» Искусственный интеллект скоро сможет менять исход конфликтов и выборов. Чем это опасно?
Сегодня, 00:01 1
Применение искусственного интеллекта (ИИ) в военных конфликтах уже давно перекочевало из фантастических сюжетов в повседневную жизнь и стало реальной угрозой. На современном поле боя он способен за доли секунды менять ход военных операций, управлять дронами, анализировать разведданные и даже самостоятельно выбирать цели для массированной атаки. В боевых действиях на Украине и в секторе Газа ИИ активно используется военными для решения тактических задач. При этом новейшие технологии в случае их глобального применения несут серьезные, даже смертельные угрозы для человечества. За последний год зафиксированы десятки попыток вмешательства в выборы с использованием ChatGPT, а ученые всерьез обсуждают угрозу непреднамеренной ядерной войны из-за ИИ. О том, чем чревато использование искусственного интеллекта в военных конфликтах и какую роль перспективные технологии играют в мировой политике, «Ленте.ру» рассказала доктор политических наук, профессор кафедры мировых политических процессов Московского государственного института международных отношений (МГИМО) МИД России Елена Зиновьева.
«Лента.ру»: Все чаще мы слышим про использование ИИ в военных конфликтах — например, в Ливии и на Украине. Как именно эти технологии применяются военными?
Елена Зиновьева: Использование искусственного интеллекта в современных военных конфликтах — это уже не просто тема научной фантастики, а реальность, которая стремительно трансформирует характер войн.
ИИ применяется для управления дронами, анализа данных с поля боя, прогнозирования операций противника. Эти технологии используются в том числе в рамках конфликтов на Ближнем Востоке и Украине.
В частности, американская компания Palantir предоставила Вооруженным силам Украины инструменты ИИ для сбора разведданных с помощью обработки различных источников информации: данных коммерческих спутников, тепловых датчиков и разведывательных беспилотников, а также шпионов и гражданских лиц, которые сообщали о расположении российских подразделений через специально созданный Telegram-бот
В прошлом году в украинской компании по производству беспилотников Saker заявили, что она выставила на вооружение полностью автономное оружие — квадрокоптер Saker Scout. Благодаря ИИ он самостоятельно принимает решения о том, кого убивать на поле боя.
Наконец, Армия обороны Израиля, согласно экспертным оценкам, также использует ИИ для того, чтобы быстро генерировать обширные списки целей для обеспечения быстрого темпа операций.
Вероятно, это происходит без полноценной человеческой проверки каждой цели
К чему это приводит?
Выбор целей без участия человека — это полный отказ от принципа гуманности. К тому же это идет наперекор нормам международного гуманитарного права.
Растущие масштабы применения ИИ в военных целях ставят перед человечеством вопросы, вызывающие глубокую обеспокоенность
Прежде всего, они касаются гуманности и предсказуемости, надежности и безопасности использования ИИ в вооруженных конфликтах, особенно в наступательных целях.
Из-за высоких темпов автоматизации, важности контроля над автономными системами необходима выработка правил ответственного поведения государств в информационной среде, частью которой являются и технологии ИИ.
Недопустимо принятие решений о жизни и смерти людей машиной, искусственным интеллектом
Во многом от того, какими будут международные правила регулирования военного использования ИИ, зависит и его регулирование в мирное время.
Как ИИ может способствовать решению международных конфликтов и укреплению глобальной безопасности?
Технологии ИИ и анализа больших данных уже применяются в международных исследованиях. Возможно и их более широкое использование в дипломатической практике, в том числе в целях урегулирования конфликтов.
Искусственный интеллект может анализировать огромные объемы данных для прогнозирования конфликтов и оптимизировать мирные переговоры, способствовать предотвращению эскалации, улучшать коммуникацию между государствами и минимизировать риски
Переговоры об урегулировании конфликта ведут люди, дипломаты. И важно, что искусственный интеллект играет вспомогательную роль, его использование позволяет принимать более взвешенные и обоснованные решения, основанные на анализе больших данных. Главное, чтобы данные были объективными, а используемые модели ИИ — непредвзятыми.
Уже сейчас, в условиях растущей фрагментации цифрового пространства, США и другие западные страны стремятся «зашить» в модели ИИ собственные ценности, трактовку прав человека и прочее
Использование такого ИИ в переговорном процессе может подорвать доверие к его результатам.
Кроме того, ИИ может играть важную роль при решении задач обороны, борьбы с террористической угрозой, минной опасностью. Он может стать объединяющим фактором для мира, однако препятствием на данном пути является стремление западных стран навязать свои стандарты и правила в данной области.
Как использование ИИ в военной сфере в целом меняет характер международных конфликтов?
Милитаризация ИИ со стороны США и их союзников создает угрозы международной безопасности и ставит вопрос о гуманности новых систем вооружения. Это актуализирует выработку этических правил регулирования ИИ на международном уровне. Именно с такой инициативой выступает Россия, прежде всего, в рамках Рабочей группы открытого состава ООН по международной информационной безопасности.
Помимо этого, российская сторона принимает активное участие в обсуждении вопросов регулирования автономных систем вооружения в рамках специальной Группы правительственных экспертов ООН. Но в данной области Россия не согласна с подходом Запада.
Позиция российских дипломатов состоит в необходимости сохранить контроль человека над любой техникой, в том числе для выполнения действующих норм международного права
Но с какими рисками, на ваш взгляд, связано военное направление использования ИИ? И как мировое сообщество может на эти вызовы реагировать?
Основные риски военного ИИ — это утрата контроля над автономными системами, непредсказуемость искусственного интеллекта, кибератаки, гонка наступательных ИИ-вооружений.
Мировое сообщество должно разрабатывать нормативную базу для регулирования использования ИИ в военных целях
Другие угрозы безопасности, связанные с развитием ИИ, — дипфейки, политическая предвзятость, военное использование ИИ, угрозы вмешательства во внутренние дела, связанных с проблематикой международной информационной безопасности.
Важным вызовом развития систем искусственного интеллекта стали вопросы экологической безопасности. Центры обработки данных во всем мире сейчас потребляют столько же энергии, сколько такая страна, как Франция.
Особенную нагрузку на окружающую среду создают системы генеративного ИИ, такие как OpenAI. Согласно докладу Конференции ООН по торговле и развитию (ЮНКТАД) о цифровой экономике за этот год, развивающиеся страны несут основную тяжесть экологических издержек цифровизации, получая при этом меньше выгод.
Это усиливает неравенство и делает актуальной выработку справедливой и инклюзивной системы управления ИИ.
Важно создать «страховочную сетку» процессов развития ИИ, выработать международные нормы и правила регулирования новой технологии. В основе должен лежать принцип мирного использования информационных технологий и уважения государственного суверенитета
В этом году Генеральной Ассамблеей ООН впервые были приняты две резолюции, посвященные проблематике регулирования ИИ, — одна из них была предложена США, другая Китаем. Работа ведется, среди прочего, на уровне БРИКС. Так, в ходе саммита в Казани в 2024 году президент России Владимир Путин предложил создать альянс БРИКС в области искусственного интеллекта с целью регламентировать эти технологии, в том числе для недопущения их противоправного использования.
ИИ должен быть площадкой мирного сотрудничества, а не межгосударственной конкуренции
При этом соперничество между США и Китаем продолжает расти. Какую роль в этом играет ИИ?
ИИ усиливает соперничество между США и Китаем, потому что обе страны стремятся к технологическому доминированию, рассматривая его как необходимое условие геополитического лидерства.
США видят угрозу своему международному лидерству в растущем технологическом потенциале Китая, особенно в сфере ИИ
В этих условиях правительство США поставило задачу ограничить доступ китайской стороне, в том числе на уровне бизнеса, к прорывным ИИ технологиям. По этой причине продукты OpenAI официально недоступны в материковом Китае.
К чему это привело?
Ограничения не дали желаемого результата, скорее они привели к ускоренному развитию китайских ИИ-решений, изменив баланс сил в глобальной сфере технологий.
Китайские разработчики уже предлагают свои системы ИИ, многие из которых сопоставимы по возможностям с ChatGPT
В долгосрочной перспективе ограничения США в рамках политики сдерживания технологического развития Китая усилят конкуренцию и фрагментацию в разработке ИИ и станут препятствием мирному и инклюзивному развитию глобального цифрового пространства.
В Европейского союзе есть специальный профильный закон. EU AI Act — это первый в мире закон, регламентирующий системы ИИ. Закон регламентирует разработку и использование ИИ, предусматривает значительные штрафы и широкий набор обязательных требований для организаций, занимающихся разработкой и внедрением ИИ.
Европейский союз, надо сказать, продемонстрировал довольно жесткий подход к регулированию ИИ: фактически это централизованный контроль всех стадий разработки и применения генеративных нейросетей с тщательным их тестированием перед использованием
ЕС этим документом пытается создать глобальный стандарт регулирования ИИ, что может повлиять на общемировой опыт развития регуляторики в данной области. Это заявка на глобальное нормативное лидерство в области цифровой экономики, которая призвана компенсировать наличие у Европейского союза собственных платформенных решений и значимых технологий в области генеративного ИИ.
Но жесткий подход — не единственно возможный, поэтому он вряд ли получит глобальное распространение. Так, например, многие страны ориентированы на более гибкое регулирование ИИ. В Китае, например, в большей степени используется не жесткое, запретительное, а нейтральное регулирование, когда законодатель находит баланс между развитием и безопасностью с точечным характером ограничений. Подобный подход близок и России.
А какие ключевые элементы EU AI Act наиболее важны для международных отношений и дипломатии?
Закон предполагает трансграничное экстерриториальное регулирование ИИ — он будет применяться не только к европейским компаниям, разрабатывающим и внедряющим ИИ, но и к компаниям вне ЕС, если их ИИ-системы используются в Европейском союзе.
Это заявка ЕС на реализацию «права длинной руки», с тем чтобы усилить международное влияние в сфере ИИ и при этом защитить европейских потребителей зарубежных ИИ-решений
Впрочем, в настоящее время в условиях растущей фрагментации цифрового пространства ЕС не может быть единым нормативным лидером в данной области.
В БРИКС по инициативе Китая, например, запущена инициатива по исследованию ИИ. Обсуждается также возможность создания новой структуры по его управлению
А как EU AI Act может повлиять на дипломатические отношения между странами и на глобальную конкуренцию в области ИИ?
Закон может стать новым стандартом, на который будут ориентироваться другие страны, что усилит роль ЕС на глобальной ИИ-арене, прежде всего, среди стран «коллективного Запада». Но он также способен подстегнуть конкуренцию.
Китай, создавая свою нормативную базу, стремится к независимости от западных стандартов и также ориентирован на интеллектуальное и нормативное лидерство в данной области
В свою очередь Россия выступает пионером в международной повестке по формированию систем управления в сфере информационной безопасности, что позволяет ей принимать на себя роль нормативного лидера и проводить политику, направленную на «экспорт» цифрового суверенитета, в том числе в области информационной безопасности в сфере использования и развития ИИ.
У России также есть задел на данном направлении. В частности, по инициативе бизнеса был принят Кодекс этики в сфере искусственного интеллекта, который также может стать регуляторным ориентиром. Компания «Лаборатория Касперского» инициировала обсуждение проблематики информационной безопасности ИИ в рамках Рабочей группы открытого состава ООН по международной информационной безопасности.
Но насколько реалистично появление международных соглашений по регулированию использования ИИ в военных целях?
Создание соглашений возможно, но требует политической воли, доверия между государствами. В настоящее время в условиях нарастающей геополитической напряженности, с одной стороны — между США и Китаем, а с другой — под влиянием гибридной войны, которую Запад ведет против России, выработка универсальных обязывающих соглашений в области военного ИИ маловероятна.
В каких-то областях ИИ она даже нежелательна.
В частности, Россия исходит из того, что сертоносные автономные системы не нуждаются в дополнительном регулировании и в полной мере подпадают под действие современного гуманитарного права
Но обсуждение проблемы ведется. В рамках ООН действует Группа правительственных экспертов по вопросам, касающимся новых технологий в сфере создания смертоносных автономных систем вооружений. В 2019 году она выпустила 11 «руководящих принципов», учитывающих в том числе и важность сохранения контроля человека над такими системами и его ответственность за их действия. Наконец, в 2023 году была принята резолюции Генеральной Ассамблеи ООН, призывающая к запрету смертоносных автономных систем. Россия документ не поддержала, так как в него не вошли многие из высказанных ранее со стороны России предложений и рекомендаций.
В США и европейских странах при этом часто говорят о кибератаках, попытках повлиять на политические процессы. Как на кибербезопасность влияет ИИ?
ИИ увеличивает угрозы кибератак, делая их более сложными и целенаправленными. Кроме того, он создает возможность для генерации дипфейков, которые также могут быть использованы как инструмент влияния на политические процессы.
Дипфейки уже использовались в политических целях. Они позволяют манипулировать общественным мнением посредством фейковых новостей, побуждая к экстремистским деиствиям, размывая ценности и идентичности государств, разрушая историческую память.
По мере развития и усложнения технологий ИИ дипфейки становятся все более совершенными, их трудно отличить от реальности.
Важной мерой для борьбы с этими угрозами может стать маркировка создаваемого ИИ-контента. Но, принимая во внимание трансграничную природу технологии, подход необходимо реализовать на международном уровне, чтобы он работал
Но ведутся и разговоры о внедрении ИИ в политические процессы — например, в избирательные процедуры и политические кампании. Как это может повлиять на демократические институты? Какие существуют риски?
Внедрение ИИ может улучшить работу государственных институтов, но есть риски манипуляций, искажения данных, разрушения исторической правды. Регулирование необходимо для обеспечения прозрачности и доверия к политическим институтам.
В этом контексте России очень важно наращивать собственный потенциал в данной области, развивать отечественные модели ИИ. Ведь в генеративные модели западных компаний заложено мировоззрение, которое отличается от российского.