Мировое правительство
21.08.2023 Техно

«Мировое правительство» нового типа для сдерживания ИИ?

В сентябрьско – октябрьском (2023 года) номере Foreign Affairs опубликована статья, а, по существу, манифест Яна Бреммера (президента Eurasia Group и GZЕRO Media) и Мустафы Сулеймана (генеральный директор Infiection AI) «Парадокс силы искусственного интеллекта». Пафос текста в том, что если человечество не создаст глобальное правительство в целях контроля и управления искусственным интеллектом, то он сам похоронит национальные государства и, развиваясь бесконтролько, возможно и всю цивилизацию. Статью прочитали и пересказали в блоге газеты «Завтра», сопроводив собственными комментариями, постоянные авторы издания Елена Ларина и Владимир Овчинский.

В манифесте Бреммера-Сулеймана всё сказано прямым текстом:

«разработать новую структуру управления, подходящую для этой уникальной технологии. Если глобальное управление ИИ станет возможным, международная система должна отказаться от традиционных концепций суверенитета и приветствовать технологические компании за столом переговоров. Эти субъекты могут не получать легитимность от общественного договора, демократии или предоставления общественных благ, но без них у эффективного управления ИИ не будет шансов. Это один из примеров того, как международному сообществу необходимо будет переосмыслить основные предположения о геополитическом порядке».

Иными словами, вновь на горизонте замаячило «мировое правительство».

Статья начинается с утопической зарисовки недалекого будущего:

«На дворе 2035 год, а искусственный интеллект повсюду. Системы ИИ управляют больницами, авиалиниями и сражаются друг с другом в зале суда. Производительность достигла беспрецедентного уровня, и бесчисленное множество ранее невообразимых предприятий росли с невероятной скоростью, обеспечивая огромный прогресс в благосостоянии. Новые продукты, лекарства и инновации появляются на рынке ежедневно, по мере того как наука и технологии выходят на передний план. И всё же мир становится все более непредсказуемым и более хрупким, поскольку террористы находят новые способы угрожать обществу с помощью интеллектуального, эволюционирующего кибероружия, а белые воротнички массово теряют работу».

Всего год назад такой сценарий показался бы чисто вымышленным, пишут авторы. Сегодня это кажется почти неизбежным. «Системы генеративного ИИ уже могут писать более четко и убедительно, чем большинство людей, и могут создавать оригинальные изображения, рисунки и даже компьютерный код на основе простых языковых подсказок. И генеративный ИИ — это только верхушка айсберга. Его появление знаменует собой момент Большого взрыва, начало изменяющей мир технологической революции, которая изменит политику, экономику и общество».

По мнению авторов, «подобно прошлым технологическим волнам, ИИ будет сочетать невероятный рост и возможности с огромными разрушениями и рисками. Но в отличие от предыдущих волн, он также инициирует сейсмический сдвиг в структуре и балансе мировой власти, поскольку угрожает статусу национальных государств как основных мировых геополитических сил. Признают они это или нет, но создатели ИИ сами являются геополитическими силами, и их суверенитет над ИИ ещё всё больше укрепляет зарождающийся «технополярный» порядок, в котором технологические компании обладают такой властью в своих владениях, которая когда-то была зарезервирована за национальными государствами.

За последнее десятилетие крупные технологические фирмы фактически стали независимыми, суверенными игроками в созданных ими цифровых сферах. ИИ ускоряет эту тенденцию и расширяет ее далеко за пределы цифрового мира. Сложность технологии и скорость ее развития сделают почти невозможным для правительств принятие соответствующих правил в разумные сроки. Если правительства не наверстают упущенное в ближайшее время, возможно, они никогда этого не сделают».

К счастью, пишут авторы, политики во всём мире начали осознавать проблемы, связанные с искусственным интеллектом, и ломать голову над тем, как им управлять. В мае 2023 года «Большая семерка» запустила «Хиросимский процесс ИИ» — форум, посвященный гармонизации управления ИИ. В июне 2023 года Европейский парламент принял проект Закона ЕС об искусственном интеллекте, что стало первой комплексной попыткой Европейского союза установить меры безопасности в отношении индустрии искусственного интеллекта. А в июле 2023 года Генеральный секретарь ООН Антониу Гутерриш призвал к созданию глобального органа по надзору за регулированием ИИ. Тем временем в Соединенных Штатах политики по обе стороны прохода призывают к регулирующим действиям. Но многие согласны с Тедом Крузом, сенатором-республиканцем от Техаса, который в июне 2023 года пришел к выводу, что Конгресс «не знает, что, черт возьми, он делает».

«К сожалению, слишком много споров об управлении ИИ остается в ловушке опасной ложной дилеммы: использовать искусственный интеллект для расширения национальной власти или подавить его, чтобы избежать рисков. Даже те, кто точно диагностирует проблему, пытаются решить ее, впихивая ИИ в существующие или исторические структуры управления. Тем не менее, искусственным интеллектом нельзя управлять, как любой предыдущей технологией, и он уже меняет традиционные представления о геополитической власти».

Но это не единственный случай.

Такая необычная и неотложная задача, как ИИ, требует оригинального решения, считают Бреммер и Сулейман. «Прежде чем политики смогут приступить к разработке соответствующей регулирующей структуры, им необходимо согласовать основные принципы управления ИИ.

Любая структура управления должна быть предупредительной, гибкой, инклюзивной, непроницаемой и целенаправленной. Основываясь на этих принципах, политики должны создать как минимум три дублирующих друг друга режима управления:

один для установления фактов и информирования правительств о рисках, связанных с ИИ;

другой для предотвращения всеобщей гонки вооружений между ними;

третий для управления разрушительными силами технологии, не похожей ни на что, что видел мир.

Нравится вам это или нет, но наступает 2035 год. Определяется ли это положительными достижениями, обеспечиваемыми ИИ, или вызванными им негативными нарушениями, зависит от того, что сейчас делают политики».

Быстрее Выше Сильнее

ИИ отличается от других технологий и отличается по своему влиянию на мощность. Это не просто создает политические проблемы. Его гиперэволюционная природа также усложняет решение этих задач. Это парадокс силы ИИ.

Темпы прогресса ошеломляют. Возьмите закон Мура, который успешно предсказал удвоение вычислительной мощности каждые два года. Новая волна искусственного интеллекта заставляет эту скорость прогресса казаться причудливой. Когда OpenAI запустила свою первую большую языковую модель, известную как GPT-1, в 2018 году, у нее было 117 миллионов параметров — показатель масштаба и сложности системы. Пять лет спустя модель четвертого поколения компании, GPT-4, как полагают, имеет более триллиона. Объем вычислений, используемых для обучения самых мощных моделей ИИ, увеличивался в десять раз каждый год в течение последних десяти лет. Иными словами, сегодня самые передовые модели ИИ, также известные как «пограничные» модели, которые используют, в пять миллиардов раз превышают вычислительную мощность передовых моделей десятилетней давности. Обработка, которая раньше занимала недели, теперь происходит за секунды.

В ближайшие пару лет появятся модели, способные обрабатывать десятки триллионов параметров.

Модели «масштаба мозга» с более чем 100 триллионами параметров — примерно столько же синапсов в человеческом мозге — будут жизнеспособны в течение пяти лет.

С каждым новым порядком появляются неожиданные возможности. Мало кто предсказывал, что обучение необработанному тексту позволит большим языковым моделям создавать связные, новые и даже творческие предложения. Ещё меньше людей ожидали, что языковые модели смогут сочинять музыку или решать научные задачи, как некоторые теперь могут.

Вскоре разработчикам ИИ, вероятно, удастся создать системы с самосовершенствующимися возможностями — критический момент в развитии этой технологии, который должен заставить всех задуматься.

Модели ИИ также делают больше с меньшими затратами. Вчерашние передовые возможности сегодня работают на более компактных, дешевых и доступных системах. Всего через три года после того, как OpenAI выпустила GPT-3, команды разработчиков открытого исходного кода создали модели, способные обеспечить тот же уровень производительности, но менее чем в шестьдесят раз меньше своего размера, то есть в 60 раз дешевле в эксплуатации, полностью бесплатные и доступны всем в Интернете. Будущие большие языковые модели, вероятно, будут следовать этой траектории эффективности, становясь доступными в форме с открытым исходным кодом всего через два или три года после того, как ведущие лаборатории искусственного интеллекта потратят на их разработку сотни миллионов долларов.

Как и в случае с любым программным обеспечением или кодом, алгоритмы ИИ гораздо проще и дешевле копировать и делиться (или украсть), чем физические активы. Риски распространения очевидны. Мощная модель большого языка Llama-1 от Meta, например, просочилась в Интернет через несколько дней после дебюта в марте 2023 года.

Хотя для работы самых мощных моделей по-прежнему требуется сложное аппаратное обеспечение, версии среднего класса могут работать на компьютерах, которые можно арендовать за несколько долларов в час. Вскоре такие модели будут работать на смартфонах. Ни одна из технологий столь мощной не становилась настолько доступной, широко распространенной и так быстро.

ИИ также отличается от старых технологий тем, что почти все они могут быть охарактеризованы как «двойного назначения» — имеющие как военное, так и гражданское применение. Многие системы по своей сути универсальны, и действительно, универсальность является основной целью многих компаний, занимающихся ИИ. Они хотят, чтобы их приложения помогали как можно большему количеству людей самыми разными способами.

Те же системы, которые управляют автомобилями, могут управлять и танками.

Приложение ИИ, созданное для диагностики заболеваний, может создать новое — и превратить его в оружие.

Границы между безопасным гражданским и разрушительным в военном отношении изначально размыты, что отчасти объясняет, почему Соединенные Штаты ограничили экспорт самых передовых полупроводников в Китай.

Всё это проявляется в глобальном масштабе: однажды выпущенные модели ИИ могут и будут повсюду.

Достаточно одной пагубной или «прорывной» модели, чтобы посеять хаос. По этой причине регулирование ИИ не может осуществляться лоскутным методом. В некоторых странах мало смысла в регулировании ИИ, если в других он остается нерегулируемым. Поскольку ИИ может так легко распространяться, в его управлении не должно быть пробелов.

Более того, ущерб, который может нанести ИИ, не имеет очевидного предела, даже несмотря на то, что стимулы для его создания (и выгоды от этого) продолжают расти.

ИИ можно использовать:

для создания и распространения токсичной дезинформации, подрывающей общественное доверие и демократию;

следить за гражданами, манипулировать ими и подчинять их себе, подрывая индивидуальную и коллективную свободу;

для создания мощного цифрового или физического оружия, угрожающего жизни людей.

ИИ также может:

уничтожить миллионы рабочих мест, усугубив существующее неравенство и создав новые;

закреплять дискриминационные модели и искажать процесс принятия решений, усиливая цикл обратной связи с плохой информацией;

спровоцировать непреднамеренную и неконтролируемую военную эскалацию, которая приведет к войне.

Также не ясны временные рамки для самых больших рисков. Дезинформация в Интернете представляет собой очевидную краткосрочную угрозу, так же как автономные боевые действия кажутся правдоподобными в среднесрочной перспективе. Дальше на горизонте скрываются обещания общего искусственного интеллекта (ОИИ), всё ещё неопределенная точка, в которой ИИ превосходит человека в выполнении любой поставленной задачи, и опасность (по общему признанию спекулятивной) того, что ОИИ может стать самоуправляемым, самовоспроизводящимся и самосовершенствующимся вне контроля человека. Все эти опасности необходимо учитывать в архитектуре управления с самого начала.

ИИ — не первая технология с некоторыми из этих мощных характеристик, но она первая, которая объединила их все. Системы искусственного интеллекта не похожи на автомобили или самолеты, которые построены на аппаратном обеспечении, поддающемся постепенным улучшениям, и чьи наиболее дорогостоящие сбои происходят в виде отдельных аварий. Они не похожи на химическое или ядерное оружие, которые трудно и дорого разрабатывать и хранить, не говоря уже о тайном распространении или развертывании. По мере того, как их огромные преимущества становятся очевидными, системы ИИ будут становиться всё больше, лучше, дешевле и всё более распространенными. Они даже станут способными к квазиавтономии — достижению конкретных целей при минимальном контроле со стороны человека — и, потенциально, к самосовершенствованию. Любая из этих особенностей могла бы бросить вызов традиционным моделям управления. Все они вместе делают эти модели безнадежно неадекватными.

Слишком сильный, чтобы приостановиться

Авторы делают вывод: «изменяя структуру и баланс глобальной власти, ИИ усложняет сам политический контекст, в котором он управляется». ИИ — это не просто разработка программного обеспечения, как обычно. Это совершенно новое средство проецирования силы. В некоторых случаях это подорвет существующие авторитеты. В других - укрепит их. Более того, развитие ИИ движимо непреодолимыми стимулами: каждая нация, корпорация и отдельный человек захотят какую-то её версию.

Внутри стран ИИ даст возможность тем, кто им владеет, следить за населением, обманывать и даже контролировать его, повышая сбор и коммерческое использование личных данных в демократических странах и оттачивая инструменты репрессий, которые авторитарные правительства используют для подчинения своих обществ. Во всех странах искусственный интеллект будет в центре острой геополитической конкуренции. Будь то репрессивные способности, экономический потенциал или военное превосходство, ИИ будет стратегической целью каждого правительства, имеющего ресурсы для конкуренции. Наименее творческие стратегии будут вкачивать деньги в доморощенных чемпионов по искусственному интеллекту или пытаться создавать и контролировать суперкомпьютеры и алгоритмы.

Более тонкие стратегии будут способствовать конкретным конкурентным преимуществам:

как Франция стремится сделать, напрямую поддерживая стартапы ИИ;

Соединенное Королевство, извлекая выгоду из своих университетов мирового класса и экосистемы венчурного капитала;

ЕС, формируя глобальный диалог о регулировании и нормах.

У подавляющего большинства стран нет ни денег, ни технологических ноу-хау, чтобы конкурировать за лидерство в сфере ИИ. Вместо этого их доступ к пограничному ИИ будет определяться их отношениями с горсткой уже богатых и могущественных корпораций и государств. Эта зависимость грозит усугубить нынешний дисбаланс геополитических сил.

Самые могущественные правительства будут соперничать за контроль над самым ценным ресурсом в мире, в то время как страны глобального Юга снова останутся позади. Это не означает, что только самые богатые выиграют от революции ИИ. Подобно Интернету и смартфонам, ИИ будет распространяться независимо от границ, как и рост производительности, который он даёт. И, подобно энергетике и зеленым технологиям, ИИ принесет пользу многим странам, которые его не контролируют.

Однако, полагают авторы, на другом конце геополитического спектра конкуренция за превосходство ИИ будет жесткой. В конце холодной войны могущественные страны могли сотрудничать, чтобы рассеять опасения друг друга и остановить потенциально дестабилизирующую технологическую гонку вооружений. Но сегодняшняя напряженная геополитическая обстановка значительно затрудняет такое сотрудничество.

ИИ — это не просто ещё один инструмент или оружие, которое может принести престиж, власть или богатство. Он может обеспечить значительное военное и экономическое преимущество над противниками.

Правильно это или нет, но два наиболее важных игрока — Китай и США — рассматривают развитие ИИ как игру с нулевой суммой, которая даст победителю решающее стратегическое преимущество в ближайшие десятилетия.

С точки зрения Вашингтона и Пекина, риск того, что другая сторона получит преимущество в области ИИ, больше, чем любой теоретический риск, который эта технология может представлять для общества или их собственного политического авторитета. По этой причине правительства США и Китая вкладывают огромные ресурсы в развитие возможностей искусственного интеллекта, одновременно лишая друг друга ресурсов, необходимых для прорывов следующего поколения. Эта динамика с нулевой суммой — и отсутствие доверия с обеих сторон — означает, что Пекин и Вашингтон сосредоточены на ускорении развития ИИ, а не на его замедлении.

Но эта точка зрения предполагает, что государства могут установить и поддерживать хотя бы некоторый контроль над ИИ. Это может иметь место в Китае, который интегрировал свои технологические компании в структуру государства. Тем не менее, на Западе и в других странах искусственный интеллект скорее подорвет государственную власть, чем укрепит её. За пределами Китая горстка крупных специализированных ИИ-компаний в настоящее время контролирует каждый аспект этой новой технологической волны: что могут делать модели ИИ, кто может получить к ним доступ, как их можно использовать и где их можно развернуть. И поскольку эти компании ревниво оберегают свои вычислительные мощности и алгоритмы, только они понимают, что они создают и на что эти творения способны. Эти несколько фирм могут сохранить свое преимущество в обозримом будущем — или их может затмить множество более мелких игроков, поскольку низкие барьеры для входа, разработка с открытым исходным кодом и почти нулевые предельные затраты приводят к неконтролируемому распространению ИИ. В любом случае революция ИИ будет происходить вне правительства.

В некоторой степени некоторые из этих проблем напоминают проблемы более ранних цифровых технологий. Интернет-платформы, социальные сети и даже такие устройства, как смартфоны, в какой-то степени работают в песочницах, контролируемых их создателями. Когда правительства проявили политическую волю, они смогли внедрить режимы регулирования для этих технологий, такие как Общий регламент ЕС по защите данных, Закон о цифровых рынках и Закон о цифровых услугах. Но на то, чтобы такое регулирование материализовалось в ЕС, ушло десятилетие или больше, и оно до сих пор не полностью реализовано в Соединённых Штатах.

«ИИ движется слишком быстро, чтобы политики могли реагировать в своем обычном темпе», полагают авторы статьи. Более того, социальные сети и другие старые цифровые технологии не помогают создавать себя, а коммерческие и стратегические интересы, движущие ими, никогда не совпадали одинаковым образом.

Всё это означает, что по крайней мере в течение следующих нескольких лет траектория ИИ будет в значительной степени определяться решениями горстки частных компаний, независимо от того, что делают политики в Брюсселе или Вашингтоне.

Другими словами, «технологи, а не политики или бюрократы, будут осуществлять власть над силой, которая может коренным образом изменить как власть национальных государств, так и то, как они относятся друг к другу». Это делает задачу управления искусственным интеллектом непохожей ни на что, с чем правительства сталкивались раньше, а регуляторный баланс более деликатный — и с более высокими ставками — чем пытались сделать какие-либо политики.

Движущаяся мишень, эволюционное оружие

Авторы считают, что правительства уже отстают. Большинство предложений по управлению ИИ рассматривают его как обычную проблему, поддающуюся государственно-ориентированным решениям ХХ века: компромиссы по правилам, выработанные политическими лидерами, сидящими за одним столом. Но это не сработает для ИИ.

Регуляторные усилия на сегодняшний день находятся в зачаточном состоянии и всё ещё недостаточны. Закон ЕС об ИИ является самой амбициозной попыткой регулировать ИИ в любой юрисдикции, но он будет применяться в полной мере только начиная с 2026 года, когда модели ИИ будут усовершенствованы до неузнаваемости.

Великобритания предложила ещё более свободный, добровольный подход к регулированию ИИ, но ему не хватает зубов, чтобы быть эффективным.

Ни одна из инициатив не пытается управлять разработкой и внедрением ИИ на глобальном уровне, что необходимо для успеха управления ИИ. И «хотя существуют добровольные обязательства соблюдать правила безопасности ИИ, они не заменяют юридически обязательные национальные и международные нормы».

Сторонники соглашений на международном уровне об укрощении ИИ, как правило, стремятся к модели контроля над ядерными вооружениями. Но системы ИИ не только бесконечно легче разработать, украсть и скопировать, чем ядерное оружие. Они контролируются частными компаниями, а не правительствами. По мнению авторов, «поскольку новое поколение моделей ИИ распространяется быстрее, чем когда-либо, ядерное сравнение выглядит всё более устаревшим». Даже если правительства смогут успешно контролировать доступ к материалам, необходимым для создания самых передовых моделей — как это пытается сделать администрация Байдена, не позволяя Китаю приобретать передовые чипы — они мало что могут сделать, чтобы остановить распространение этих моделей после того, как они обучены и поэтому для работы требуется гораздо меньше микросхем.

Чтобы глобальное управление ИИ работало, оно должно быть адаптировано к специфике технологии, задачам, которые она ставит, а также к структуре и балансу сил, в которых она работает. Но поскольку эволюция, использование, риски и выгоды ИИ непредсказуемы, управление ИИ не может быть полностью определено с самого начала или в любой момент времени, если уж на то пошло. Оно должно быть таким же инновационным и эволюционным, как и технология, которой оно стремится управлять, обладая некоторыми характеристиками, которые в первую очередь делают ИИ такой мощной силой. Это означает начинать с нуля, переосмысливать и перестраивать новую нормативно-правовую базу с нуля.

«Всеобъемлющая цель любой глобальной архитектуры регулирования ИИ должна заключаться в выявлении и снижении рисков для глобальной стабильности, не блокируя инновации ИИ и вытекающие из них возможности». Можно назвать этот подход «технопруденциализмом», мандатом, скорее похожим на макропруденциальную роль, которую играют глобальные финансовые институты, такие как Совет по финансовой стабильности, Банк международных расчетов и Международный валютный фонд. Их цель — выявить и смягчить риски для глобальной финансовой стабильности, не ставя под угрозу экономический рост.

Технопруденциальный мандат будет работать аналогичным образом, требуя создания институциональных механизмов для решения различных аспектов ИИ, которые могут угрожать геополитической стабильности. Эти механизмы, в свою очередь, будут основываться на общих принципах, адаптированных к уникальным характеристикам ИИ и отражающих новый технологический баланс сил, который поставил технологические компании на место водителя. Эти принципы помогут политикам разработать более детальную нормативно-правовую базу для управления ИИ по мере того, как он развивается и становится всё более всепроникающей силой.

Первый и, возможно, самый важный принцип управления ИИ — осторожность. Как следует из этого термина, технопруденциализм по своей сути руководствуется кредо предосторожности: в первую очередь, - не навреди. Максимальное ограничение ИИ означало бы отказ от его изменяющих жизнь преимуществ, но максимальное освобождение от него означало бы риск всех его потенциально катастрофических недостатков. Другими словами, соотношение риск-вознаграждение для ИИ асимметрично.

Учитывая крайнюю неопределенность в отношении масштабов и необратимости некоторых потенциальных опасностей ИИ, управление ИИ должно быть направлено на предотвращение этих рисков до того, как они материализуются, а не на смягчение их постфактум. Это особенно важно, потому что ИИ может ослабить демократию в некоторых странах и затруднить им принятие правил. Более того, бремя доказательства того, что система ИИ безопасна при превышении некоторого разумного порога, должно лежать на разработчике и владельце. Решать проблемы по мере их возникновения не должны исключительно правительства.

Управление ИИ также должно быть гибким, чтобы оно могло адаптироваться и корректировать курс по мере того, как ИИ развивается и совершенствуется. Государственные институты часто затвердевают до такой степени, что не могут адаптироваться к изменениям. А в случае с ИИ скорость технологического прогресса быстро превзойдет способность существующих структур управления догонять и не отставать. Это не означает, что управление ИИ должно принять идеал Силиконовой долины «действуй быстро и ломай вещи», но оно должно более точно отражать характер технологии, которую он стремится сдерживать.

Управление ИИ должно быть не только предупредительным и гибким, но и инклюзивным, привлекая к участию всех участников, необходимых для регулирования ИИ на практике. Это означает, считают авторы, что «управление ИИ не может быть сосредоточено исключительно на государстве, поскольку правительства не понимают и не контролируют ИИ».

«Частным технологическим компаниям может не хватать суверенитета в традиционном смысле, но они обладают реальной — даже суверенной властью и полномочиями в цифровых пространствах, которые они создали и эффективно управляют». Этим негосударственным субъектам не должны быть предоставлены те же права и привилегии, что и государствам, которые, согласно международному признанию, действуют от имени своих граждан. Но они должны быть участниками международных саммитов и подписантами любых соглашений по ИИ.

Такое расширение управления, по мнению авторов, необходимо, потому что «любая регулирующая структура, исключающая реальных агентов власти ИИ, обречена на провал». На предыдущих волнах технологического регулирования компаниям часто предоставлялась такая большая свобода действий, что они переступали границы, заставляя политиков и регулирующих органов жестко реагировать на их эксцессы. Но эта динамика не принесла пользы ни технологическим компаниям, ни общественности. Приглашение разработчиков ИИ к участию в процессе разработки правил с самого начала поможет создать более совместную культуру управления ИИ, уменьшив необходимость обуздать эти компании постфактум с помощью дорогостоящего и состязательного регулирования.

«ИИ — это проблема всеобщего достояния, а не только прерогатива двух сверхдержав».

Технологические компании не всегда должны иметь право голоса. Некоторые аспекты управления ИИ лучше оставить правительствам, и само собой разумеется, что государства всегда должны сохранять окончательное право вето на политические решения. Правительства также должны защищаться от регулятивного захвата, чтобы технологические компании не использовали свое влияние в политических системах для продвижения своих интересов за счет общественного блага. Но инклюзивная модель управления с участием многих заинтересованных сторон гарантирует, по мнению авторов, что «субъекты, которые будут определять судьбу ИИ, будут вовлечены в процессы нормотворчества и связаны ими». «В дополнение к правительствам (особенно, но не ограничиваясь Китаем и Соединенными Штатами) и технологическими компаниями (особенно, но не ограничиваясь крупными технологическими игроками), ученым, специалистам по этике, профсоюзам, организациям гражданского общества и другим лицам, обладающим знаниями о власти, должно быть место за столом».

Партнерство по ИИ — некоммерческая группа, объединяющая ряд крупных технологических компаний, исследовательских институтов, благотворительных организаций и организаций гражданского общества для продвижения ответственного использования ИИ — является хорошим примером необходимого смешанного инклюзивного форума.

Одновременно авторы статьи считают, что «управление ИИ также должно быть максимально непроницаемым. В отличие от смягчения последствий изменения климата, где успех будет определяться суммой всех индивидуальных усилий, безопасность ИИ определяется наименьшим общим знаменателем: один алгоритм прорыва может нанести неисчислимый ущерб.

Поскольку глобальное управление ИИ так же важно, как управление страны, компании или технологии с наихудшим управлением, «оно должно быть водонепроницаемым везде — с достаточно простым входом, чтобы принудить к участию, и выходом, достаточно дорогостоящим, чтобы предотвратить несоблюдение». Единственная лазейка, слабое звено или мошенник-перебежчик откроют дверь для широкомасштабной утечки, недобросовестных игроков или регуляторной гонки на выживание.

«Помимо охвата всего земного шара, управление ИИ должно охватывать всю цепочку поставок — от производства до оборудования, от программного обеспечения до услуг и от поставщиков до пользователей». Это означает технопруденциальное регулирование и надзор на каждом узле цепочки создания ценности ИИ, от производства чипов ИИ до сбора данных, обучения моделей до конечного использования, а также по всему стеку технологий, используемых в данном приложении. Такая непроницаемость гарантирует отсутствие серых зон регулирования, которые можно было бы использовать.

Наконец, управление ИИ должно быть целенаправленным, а не единым для всех. Поскольку ИИ является технологией общего назначения, он создает многомерные угрозы. Одного инструмента управления недостаточно для устранения различных источников риска ИИ. На практике для определения того, какие инструменты подходят для устранения каких рисков, потребуется разработать живую и дышащую таксономию всех возможных эффектов, которые может иметь ИИ, и того, как лучше всего управлять каждым из них. Например, ИИ будет эволюционным в некоторых приложениях, усугубляя текущие проблемы, такие как нарушение конфиденциальности, и революционным в других, создавая совершенно новый вред. Иногда лучшим местом для вмешательства будет место сбора данных. В других случаях это будет точка продажи передовых чипов, чтобы гарантировать, что они не попадут в чужие руки. Для борьбы с дезинформацией потребуются другие инструменты, чем для борьбы с рисками, связанными с ОИИ и другими неопределенными технологиями с потенциально экзистенциальными последствиями. В некоторых случаях сработает легкое регулирование и добровольное руководство. В других правительствам необходимо будет строго следить за соблюдением требований.

Всё это требует глубокого понимания и современных знаний о рассматриваемых технологиях. Регуляторным и другим органам потребуется контроль и доступ к ключевым моделям ИИ. По сути, по мнению авторов, им потребуется система аудита, которая может не только отслеживать возможности на расстоянии, но и иметь прямой доступ к основным технологиям, что, в свою очередь, потребует соответствующих талантов. Только такие меры могут обеспечить упреждающую оценку новых приложений ИИ как на предмет очевидных рисков, так и на предмет потенциально разрушительных последствий второго и третьего порядка. Целенаправленное управление, другими словами, должно быть хорошо информированным управлением.

Технопруденциальный императив

В итоге авторы считают, что на основе этих принципов должны быть построены как минимум три режима управления ИИ, каждый из которых имеет разные мандаты, рычаги и участников. Все они должны быть новаторскими по своему замыслу, но каждый может черпать вдохновение в существующих механизмах для решения других глобальных проблем, а именно изменения климата, распространения вооружений и финансовой стабильности.

Первый режим сосредоточится на установлении фактов и примет форму глобального научного органа, чтобы объективно консультировать правительства и международные организации по таким основным вопросам, как то, что такое ИИ и какие политические вызовы он ставит. Если никто не сможет договориться об определении ИИ или возможном масштабе его вреда, эффективное формирование политики будет невозможно. Здесь изменение климата является поучительным.

Чтобы создать основу для обмена знаниями для переговоров по климату, Организация Объединенных Наций учредила Межправительственную группу экспертов по изменению климата (МГЭИК) и дала ей простой мандат: предоставлять политикам «регулярные оценки научной основы изменения климата, его последствий и будущих рисков, а также вариантов адаптации и смягчения последствий». ИИ нужен аналогичный орган для регулярной оценки состояния ИИ, беспристрастной оценки его рисков и потенциального воздействия, прогнозирования сценариев и рассмотрения решений технической политики для защиты глобальных общественных интересов. Подобно МГЭИК, этот орган будет иметь глобальное разрешение и научную (и геополитическую) независимость. И его отчеты могут быть использованы для многосторонних и многосторонних переговоров по ИИ, точно так же, как отчеты МГЭИК используются для переговоров ООН по климату.

Миру также нужен способ справиться с напряженностью между основными ИИ-державами и предотвратить распространение опасных передовых систем ИИ. Наиболее важными международными отношениями в области искусственного интеллекта являются отношения между США и Китаем. Сотрудничество между двумя соперниками трудно осуществить даже при самых благоприятных обстоятельствах. Но в контексте обострения геополитической конкуренции неконтролируемая гонка ИИ может разрушить все надежды на достижение международного консенсуса в отношении управления ИИ. Одной из областей, в которой Вашингтон и Пекин могут счесть выгодной совместную работу, является замедление распространения мощных систем, которые могут поставить под угрозу авторитет национальных государств. В крайнем случае, угроза неконтролируемых самовоспроизводящихся ОИИ — если они будут изобретены в ближайшие годы — послужит сильным стимулом для координации действий по обеспечению безопасности и сдерживания.

На всех этих фронтах Вашингтон и Пекин должны стремиться к созданию областей общности и даже барьеров, предлагаемых и контролируемых третьей стороной. Здесь подходы к мониторингу и проверке, часто встречающиеся в режимах контроля над вооружениями, могут быть применены к наиболее важным исходным данным ИИ, в частности к тем, которые связаны с вычислительным оборудованием, включая передовые полупроводники и центры обработки данных. Регулирование ключевых узких мест помогло сдержать опасную гонку вооружений во время холодной войны, а теперь может помочь сдержать потенциально ещё более опасную гонку ИИ.

Но поскольку большая часть ИИ уже децентрализована, это проблема всеобщего достояния, а не прерогатива двух сверхдержав. Децентрализованный характер разработки ИИ и основные характеристики технологии, такие как распространение открытого исходного кода, увеличивают вероятность того, что она будет использована в качестве оружия киберпреступниками, спонсируемыми государством субъектами и волками-одиночками.

Вот почему миру нужен третий режим управления ИИ, способный реагировать на опасные сбои. В качестве моделей директивные органы могут обратиться к подходу, который финансовые органы использовали для поддержания глобальной финансовой стабильности. Совет по финансовой стабильности, в состав которого входят руководители центральных банков, министерств финансов, надзорных и регулирующих органов со всего мира, работает над предотвращением глобальной финансовой нестабильности путем оценки системных уязвимостей и координации необходимых действий по их устранению между национальными и международными органами. Аналогичный технократический орган по рискам ИИ — авторы называют его Советом по стабильности геотехнологий — мог бы поддерживать геополитическую стабильность в условиях быстрых изменений, вызванных ИИ. При поддержке национальных регулирующих органов и международных органов по установлению стандартов он объединит опыт и ресурсы для предотвращения кризисов, связанных с ИИ, или реагирования на них, снижая риск заражения. Но он также будет напрямую взаимодействовать с частным сектором, признавая, что ключевые транснациональные технологические игроки играют решающую роль в поддержании геополитической стабильности, так же как системно значимые банки играют в поддержании финансовой стабильности.

Такой орган с полномочиями, основанными на государственной поддержке, будет иметь хорошие возможности для предотвращения участия глобальных технологических игроков в регулятивном арбитраже или сокрытия за корпоративными адресами.

Признание того, что некоторые технологические компании имеют системное значение, не означает подавления стартапов или новых новаторов. Напротив, создание единой прямой линии от глобального органа управления к этим технологическим гигантам повысит эффективность соблюдения нормативных требований и управления кризисными ситуациями, которые приносят пользу всей экосистеме.

Режим, предназначенный для поддержания геотехнологической стабильности, по мнению авторов, также заполнит опасный пробел в нынешнем нормативно-правовом ландшафте: ответственность за управление ИИ с открытым исходным кодом. «Некоторый уровень онлайн-цензуры будет необходим. Если кто-то загружает чрезвычайно опасную модель, этот орган должен иметь четкие полномочия и возможность удалить ее или дать указание национальным властям сделать это».

Китай и Соединённые Штаты должны захотеть работать вместе, чтобы внедрить ограничения безопасности в программное обеспечение с открытым исходным кодом, например, путем ограничения степени, в которой модели могут инструктировать пользователей о том, как разрабатывать химическое или биологическое оружие или создавать пандемические патогены. Кроме того, у Пекина и Вашингтона может быть возможность сотрудничать в глобальных усилиях по борьбе с распространением.

Каждый из этих режимов должен был бы действовать универсально, пользуясь поддержкой всех основных игроков ИИ. Режимы должны быть достаточно специализированными, чтобы справляться с реальными системами ИИ, и достаточно динамичными, чтобы постоянно обновлять свои знания об ИИ по мере его развития. Работая вместе, эти институты могли бы сделать решающий шаг на пути к технопруденциальному управлению зарождающимся миром ИИ. Но они ни в коем случае не единственные институты, которые будут необходимы. Другие механизмы регулирования, такие как стандарты прозрачности «знай своего клиента», требования лицензирования, протоколы испытаний на безопасность, а также процессы регистрации и утверждения продуктов, должны будут применяться к ИИ в ближайшие несколько лет.

Продвигаем лучшее, предотвращаем худшее

Ни одно из этих решений не будет простым в реализации. «Несмотря на всю шумиху и болтовню мировых лидеров о необходимости регулирования ИИ, политической воли для этого по-прежнему не хватает». Прямо сейчас немногие могущественные группы выступают за сдерживание ИИ, и все стимулы указывают на дальнейшее бездействие.

«Но хорошо спроектированный режим управления ИИ, описанный здесь, может подойти всем заинтересованным сторонам, закрепляя принципы и структуры, которые продвигают лучшее в ИИ, предотвращая при этом худшее. Альтернатива — неконтролируемый ИИ — не только создаст неприемлемый риск для глобальной стабильности. Это также было бы плохо для бизнеса и противоречило бы национальным интересам каждой страны».

«Сильный режим управления ИИ, - заключают статью авторы, - снизит социальные риски, связанные с ИИ, и ослабит напряженность между Китаем и США, уменьшив степень, в которой ИИ является ареной и инструментом геополитической конкуренции. И такой режим мог бы достичь чего-то ещё более глубокого и долгосрочного: он установил бы модель того, как обращаться с другими прорывными, появляющимися технологиями. ИИ может быть уникальным катализатором перемен, но это ни в коем случае не последняя прорывная технология, с которой столкнется человечество. Квантовые вычисления, биотехнологии, нанотехнологии и робототехника также могут коренным образом изменить мир. Успешное управление ИИ поможет миру успешно управлять и этими технологиями».

***

Комментарий Е.Л., В.О.:

Американцы явно проигрывают Китаю в технологической гонке XXI века. Это диагностировано многими экспертами международных организаций.

Санкционные меры по сдерживанию Китая привели к обратным результатам.

Развитие конфликта вокруг Тайваня и в целом в Индо–Тихоокеанском регионе тоже прогнозируется не в пользу США.

Из нафталина вынимают концепцию «мирового правительства» и пытаются её адаптировать к проблеме глобального управления ИИ.

Но, где гарантия у авторов этой комбинации, что и её Китай не перевернёт в свою пользу?

Авторизуйтесь, чтобы оставлять комментарии