Статья
1275 5 августа 2024 10:58

Регуляция. Суверенитет. Война

Политические аспекты развития ИИ не первый год волнуют исследователей социо-гуманитарного профиля. Однако пока политологи в основном фокусируются на этических аспектах использования технологий, международники подходят к вопросу более предметно и занимаются темами глобального регулирования, технологического суверенитета и применения ИИ в боевых действиях. Мы собрали и проанализировали наиболее трендовые публикации в западных академических журналах на тему ИИ и выявили главные тенденции в изучении сложной новации.

Глобальное управление ИИ

Концепция «управления» искусственным интеллектом занимает наиболее противоречивое положение в академической литературе, поскольку под этим термином может подразумеваться как введение «этических установок» для технологии, так и человеческий контроль над автоматизированными процессами, а также регулирование ИИ-гонки между государствами. 

Тем не менее, большинство сторонников глобального управления склоняется к «этическому» определению регулирования искусственного интеллекта. По мнению политологов Стокгольмского университета Е.Эрмана и М.Фюрендаля, только такой подход позволяет обеспечить легитимность международных регуляторов, что является основной задачей управления ИИ. 

Шведские политологи также предлагают новый взгляд на проблему легализации глобального контроля ИИ, разделяя между «управлением ИИ» и «управлением с помощью ИИ». Две области взаимосвязаны, но требуют разной нормативной базы, поскольку «управление ИИ» включает разработку нормативной базы избранными представителями, которые также делегируют полномочия институтам, осуществляющим «управление с помощью ИИ». В результате складывается иерархия политической власти, в рамках которой «управление ИИ» стоит выше «управления с помощью ИИ». Поэтому регулирование области искусственного интеллекта должно строиться на основе принципа отзыва делегированных полномочий. 

Более конкретные предложения выдвигают ученые Оксфорда во главе с Х.Робертсом. Характеризуя современный мировой режим регулирования ИИ как «слабый» и «полицентричный», британские политологи выделяют две основные проблемы международного сотрудничества в данной области. Первое — соревнование между государствами, воспринимающими новую технологию как соревновательное преимущество. Второе — гетерогенность существующих инициатив в данной области, поскольку ключевые игроки в сфере разработки ИИ — США, Китай, ЕС — имеют принципиально разные подходы к регулированию искусственного интеллекта. 

Х.Робертсон и его коллеги также называют два основных пути развития международной кооперации в области управления ИИ. Первый подразумевает создание принципиально новых институтов регуляции по принципу контроля ядерного оружия, в то время как второй, более вероятный, — усиление текущих институтов на основе ООН и инициатив группы G7, как это произошло в сфере климатической повестки. В обоих случаях подразумевается формирование централизованного международного режима, который, в либеральной традиции, послужит платформой для коммуникации и координации между государствами. 

Технологический суверенитет 

В контексте обозначаемой международной конкуренции в области ИИ, технологический суверенитет стал еще одним фокусом в работах исследователей международных отношений. Особенно такой тренд отмечается в работах европейских ученых, которые отмечают дискурсивный поворот в политике ЕС в данной сфере. 

Нидерландский политолог Д.Мюгге отметил, что Европа стремится сохранить технологический суверенитет, в рамках которого ИИ отмечается ключевым компонентом, на фоне глобального соперничества между лидерами в данной области — США и Китая. Однако, выделяемые ученым положения европейского Закона об искусственном интеллекте, принятого в 2021 году, весьма противоречивы. 

Европа переняла у США и Китая меркантильный подход к искусственному интеллекту, фокусируясь на свой конкурентоспособности, нежели на повышении публичного благосостояния. Официальный дискурс Брюсселя фокусируется на наращивании экономического потенциала Европы за счет развития ИИ, а необходимость ответственности за контролем искусственного интеллекта формулируется в евроцентричных, а не глобальных рамках. 

Автоматизированные боевые действия 

Глобальное регулирование ИИ и конкуренция между государствами также непосредственно связаны с еще одной сферой применения ИИ — милитаризацией. В этом плане исследователи международных продолжают выделять этику применения ИИ в военном деле как ключевой вопрос развития искусственного интеллекта.

Британский ученый К.Брейфорд выделил неспособность ИИ к онтико-онтологическому расследованию во время ведения боевых действий как основную этическую проблему использования автоматизированных алгоритмов в войне. Поскольку машина неспособна к когнитивной оценке ситуации, она не может соблюдать законы ведения войны, что приводит к конфликту с международным правом.

Вместе с этим, ученые также начинают обращать большее внимание на политические процессы вокруг данной сферы. Согласно работе новозеландских ученых Д.Мозес и Д.Форда, американские политики активно поощряют внедрение ИИ в военную сферу по нескольким причинам. Они касаются не только эффективности с точки зрения ведения военных действий, но также экономической и социальной выгоды, поскольку искусственный интеллект сокращает расходы в военной сфере в результате автоматизации процессов. Помимо этого, ИИ, как орудия среднего и дальнего поражения в 20 веке, воспринимается политиками как «этичное» орудие, которое позволяет уберечь использующих их людей, убирая их непосредственно с линии огня.

Ярослав Барыкин, политолог
2 сентября 2024 Колонки
Силиконовая долина приходит в госуправление
 Силиконовая долина приходит в госуправление Ярослав Барыкин о цифровизации систем государственного управления
30 августа 2024 Новости
Ответственность разработчиков: эксперты о технологиях ИИ
 Ответственность разработчиков: эксперты о технологиях ИИ Разработчики ИИ не могут нести полную ответственность за последствия использования их продукта, считают западные эксперты. Они также указывают, что многие аспекты современных конфликтов определяются интернетом и цифровыми технологиями.
26 августа 2024 Новости  Государство, технологии и риски вмешательства Технологические изменения последних лет повысили чувствительность государств к вызовам со стороны мессенджеров, цифровых платформ и IT-гигантов. Публикуем отрывок о характере этих процессов из статьи Алексея Чеснакова и Даниила Паренькова «Ощетинившиеся акторы» в журнале «Россия в глобальной политике».
© 2008 - 2024 Фонд «Центр политической конъюнктуры»
Сетевое издание «Актуальные комментарии». Свидетельство о регистрации средства массовой информации Эл № ФС77-58941 от 5 августа 2014 года, Свидетельство о регистрации средства массовой информации Эл № ФС77-82371 от 03 декабря 2021 года. Издается с сентября 2008 года. Информация об использовании материалов доступна в разделе "Об издании".