Само по себе словосочетание «суверенный ИИ» заставляет вспомнить авторитарные режимы, при которых мало кому захочется жить. Но и термин «глобальный искусственный интеллект» наводит на печальные размышления о цифровом колониализме и прочих радостях дивного нового мира.
О том, почему в сфере разработки ИИ оба эти понятия ничего на самом деле не значат и служат лишь поводом для манипуляций, читайте в статье для ForkLog, автор которой пожелала сохранить анонимность.
Печатный станок или атомная бомба?
Именно такую дихотомию чаще всего представляют, когда пытаются показать, что развитие ИИ может нести как благо и возможности достижения различных свобод, так и угрозы, последствия которых могут быть глобально катастрофическими.
Руководитель исследовательской лаборатории Google DeepMind Демис Хассабис утверждает, что воздействие искусственного интеллекта на общество можно сравнить с открытием огня или электричества, то есть это даже важнее, чем появление мобильных телефонов или интернета.
Все эти сравнения хороши для того, чтобы представить масштаб самого изобретения, но они всегда будут слишком приблизительны, а точнее далеки от истины. В случае ИИ мы имеем дело с чем-то принципиально новым, и предсказать последствия использования технологии не могут даже специалисты, причастные к ее созданию.
Гонка разработок в области искусственного интеллекта уже набрала обороты, и дискуссия о том, где и как создаются и внедряются системы, сильно отстает от этого процесса. Сторонников суверенного искусственного интеллекта и решений на его основе в разных странах становится все больше. В целом, суверенный ИИ означает способность государства контролировать собственные технологии, данные граждан, научные и военные разработки.
Вопреки расхожему мнению, к нему стремятся не только государства с авторитарными типами управления. О необходимости госрегулирования в этой области и создания национальных систем ИИ сегодня так или иначе размышляют правительства Евросоюза, США, Великобритании. Они создают нормативные базы, которые регламентировали бы распространение и функционирование технологии.
Так,Великобритания рассматривает суверенный ИИ как способ сохранить позицию разработчиков искусственного интеллекта и не стать просто его потребителем. В 2023 году план действий британского правительства предусматривал создание «суверенных вычислительных мощностей» и суперкомпьютеров, находящихся в государственной собственности.
Авторы документа считают, что подобная стратегия обеспечит национальные приоритеты в области ИИ, такие как «целевые исследования» и «критически важные государственные услуги». Идея заключается в том, чтобы предоставить исследователям, стартапам и учреждениям доступ к локальной инфраструктуре «на случай рыночных потрясений». Инвестируя во внутренние вычислительные мощности и таланты, Великобритания стремится стимулировать собственные инновации и снизить зависимость от внешних поставщиков.
Евросоюз также идет к созданию суверенного ИИ, обосновывая это необходимостью защиты конфиденциальности граждан и содействия развитию конкурентоспособной экосистемы искусственного интеллекта, менее зависимой от зарубежных технологических гигантов.
В Брюсселе обеспокоены тем, что критически важные возможности технологии доминируют в неевропейских (в основном американских) компаниях. В ответ Европа запустила такие проекты, как OpenEuroLLM — программа разработки «по-настоящему открытых программ магистратуры права», охватывающих все языки ЕС. Но главное, что Евросоюз стал лидером в разработке ограничивающего ИИ законодательства.
В 2018 году был создан Общий регламент ЕС по защите данных (GDPR). Позже Управление по искусственному интеллекту Европейской комиссии приступило к разработке нормативных актов, которые лягут в основу закона об ИИ.
Регламент относит приложения с использованием ИИ к трем категориям.
- Продукты, создающие неприемлемый риск — например, государственный социальный скоринг — оказываются под полным запретом.
- Приложения с высоким уровнем риска, такие как инструмент сканирования резюме для ранжирования кандидатов на работу, подпадают под действие особых юридических требований.
- Продукты, которые явно не запрещены или не отнесены к категории высокого риска, в значительной степени остаются нерегулируемыми.
И вот парадокс (на самом деле нет): в то время как американские компании лидируют в области готовых ИИ-решений, Белый дом придумывает свою форму суверенитета в сфере искусственного интеллекта. В директиве Белого дома от января 2025 года отмечено, что создание систем ИИ в Штатах критически важно для предотвращения «зависимости США от инфраструктуры других стран».
Власти не скрывают, что для них искусственный интеллект — стратегический актив. Сохранение лидерства и контроля над цепочкой поставок — от чипов до центров обработки данных — в этой отрасли имеет первостепенное значение для экономической конкурентоспособности и обороны.
Эти обоснования необходимости иметь суверенные ИИ под соусом заботы о правах человека похожи на гонку вооружений. Исследователи и разработчики обеспокоены как быстрым распространением ИИ, грозящим экзистенциальными рисками, так и замедлением его развития в Америке. Последнее, по мнению многих, позволит соперникам из других стран, особенно Китаю, вырваться вперед в гонке создания «преобразующего ИИ». В качестве негативного развития такого сценария эксперты рассматривают возможность того, что ИИ получит доступ к критической инфраструктуре, включая оборонные системы.
И с этой точки зрения становится неважно, внутри какой из концепций — глобальной или суверенной — мы мыслим развитие ИИ: риски все равно будут общемировыми. Что-либо регулировать в рамках государств, правительств и неких границ, вероятно, проще, чем на транслокальном уровне. Однако уже встал вопрос о международном сотрудничестве не только в развитии ИИ, но и в контроле над ним.
«Мне кажется странным, когда некоторые лидеры считают, будто ИИ может быть настолько гениальным, что решит мировые проблемы, используя решения, о которых мы и не думали, но не настолько гениальным, чтобы не выходить за рамки любых ограничений контроля, которые мы придумываем», — комментирует главный специалист по этике в Hugging Face Маргарет Митчелл.
По ее мнению, риск возрастает по мере того как люди уступают контроль все более автономным ИИ-агентам. В частности, она указывает на постепенную утрату контроля над все более автономными ИИ-системами. По ее мнению, их поведение невозможно полностью предсказать или отслеживать, что грозит нежелательными и потенциально опасными последствиями.
О рисках говорит и «крестный отец искусственного интеллекта», профессор Монреальского университета Йошуа Бенжио. В 2024 году он вошел в список ста самых влиятельных людей мира по версии Time, а годом ранее признался в интервью BBC, что чувствует себя «потерянным» в деле своей жизни.
Он выразил обеспокоенность тем, что ИИ-системы могут попасть в руки злоумышленники, особенно по мере того, как он становится все более сложным и мощным. Бенжио призвал к более строгому регулированию, регистрации программного обеспечения, этическому обучению и активному участию правительств в отслеживании и аудите продуктов. В июле 2023 года ученый опубликовал статью в The Economist, в которой предупредил: «Риск катастрофы настолько реален, что необходимо действовать немедленно».
В июне 2025 года Бенжио заявил, что «гонка вооружений» в области искусственного интеллекта мешает компаниям сосредоточиться на безопасности. Он также высказался в поддержку строгого регулирования и международного сотрудничества для устранения рисков, связанных с передовыми системами ИИ.
Даже суверенный ИИ несет глобальные риски
В своих рассуждениях об ИИ Бенжио употребляет термин «ситуационная осведомленность». Обычно это понятие определяют как способность воспринимать элементы окружающей среды, понимать их значение и прогнозировать будущее состояние. Это критически важно для принятия решений в сложных и динамичных системах, таких как управление воздушным движением, военные операции и здравоохранение. Развитие ситуационной осведомленности у искусственного интеллекта, несмотря на потенциальные преимущества, несет в себе угрозы.
По мере того как ИИ становится все более способным к восприятию, осмыслению и прогнозированию ситуаций, люди делегируют ему все больше задач, становясь пассивными наблюдателями. В результате у человека может снижаться собственная ситуационная осведомленность: он перестает активно собирать и анализировать информацию и в критической ситуации уже не может вовремя и адекватно среагировать.
Если ИИ сталкивается с непредвиденной ситуацией или совершает ошибку, полностью полагающийся на систему человек может не заметить или не понять проблему, что приведет к нежелательным или даже катастрофическим последствиям.
Искусственный интеллект, в отличие от живого принимающего решения субъекта, не видит нюансов. Несмотря на способность к обработке огромных объемов данных и выявлению паттернов, его «понимание» ситуации ограничено заранее заданными параметрами и обучающими данными.
Сторонники суверенного ИИ стремятся снизить локальные уязвимости не самой технологии, а государства. Но полностью избежать глобальных рисков, очевидно, невозможно. Даже если разработка ведется в рамках суверенной модели, технология остается по сути сетевой и трансграничной — данные, алгоритмы и вычислительные мощности — тесно взаимосвязаны между странами. Следовательно, возникающие угрозы (распространение фейков, автоматизация хакерских атак, влияние на рынки труда) выходят за локальные границы.
Инфраструктура ИИ, включая процессоры, дата-центры и облачные сервисы, сильно глобализирована. Если в одной части цепочки возникнут сбои, то эффект от них непременно затронет другие звенья.
Многие риски ИИ — будь то экономические (безработица, мошенничество, ограничение доступа к финансовым инструментам), социальные (дезинформация, манипуляции), технологические (сбои и хакерские атаки) или политические (военные конфликты) — имеют непреодолимо глобальный характер. Это связано с природой и масштабом технологий, их высоким уровнем взаимозависимости и сложностью регулирования.
Однако все они могут иметь локальные проявления и последствия, требующие адаптивных решений на национальном и региональном уровнях. Можно ли сделать из этого вывод, что защиты и стратегии минимизации рисков должны быть только глобальными и международными? Наверное, нет. Во всяком случае пока никто не предлагает выбирать: или-или.
Интеллект с определенным акцентом
«Вы можете загрузить текст в СhatGPT и попросить ответить на ваши вопросы. Как показала практика, чат-бот анализирует информацию намного лучше, чем многие литераторы и редакторы».
Иногда авторы таких высказываний — профессионалы, работающие со словом, эксперты в тех или иных областях. Доверие к ИИ как к непредвзятому арбитру, способному проанализировать некие данные не через призму эмоциональных предпочтений или заданных социумом установок, очень высоко. Но так ли объективен искусственный интеллект и можно ли отдавать ему на откуп ответы на этические, юридические вопросы, которые могут влиять на жизни реальных людей?
Подавляющее большинство LLM обучаются на англоязычных данных и транслируют культурные нормы, сформированные в западной традиции. На это обратили внимание участники конференции CNBC East Tech West, прошедшей в конце июня в Таиланде.
В частности, руководитель ИИ-направления в SCB 10X Касима Тарнпипитчай отметил важность создания в разных странах собственных систем, а не исключительно пользование готовыми «переводными» моделями.
«То, как ты думаешь, как взаимодействуешь с миром и каким ты становишься, когда говоришь на другом языке, может быть совершенно разным», — пояснил он.
LLM в своей работе используют статистические закономерности, полученные из миллиардов текстов, которые находятся в открытом доступе. Большая часть этих материалов представлена на английском и китайском языках, что обусловлено экономическим доминированием США и огромной численностью населения Китая.
Достижения LLM — помощь в написании статей, создании резюме, переводе — бесспорны. Однако они не способны воспринять основы человеческого общения и языка, что приводит к появлению бессмысленных текстов. Не меньшую тревогу вызывает то, что они могут отражать уже существующие культурные, расовые или гендерные стереотипы, вплетенные в написанный людьми контент, который они усваивают.
Конкретный пример: группа исследователей из Гонконгского университета науки и технологий попросила ChatGPT перевести 30 предложений. Чат-бот правильно перевел 28 с индонезийского на английский, но только 19 — обратно. Нетрудно представить, с какими трудностями столкнутся моноглоты из США, когда обратятся к боту для заключения сделок с индонезийскими партнерами.
Проблема не столько в растущем доминировании английского языка, сколько в неравенстве доступа к информации. А следовательно, и к торговле, экономическому, технологическому и научному развитию.
Обеспокоены не только специалисты по искусственному интеллекту, но и политические деятели с деколониальной оптикой. На слушаниях в Конгрессе США в мае 2023 года сенатор Алекс Падилла из Калифорнии спросил Сэма Альтмана о том, что его компания делает для преодоления языкового барьера.
OpenAI не скрывает, что их самая продвинутая LLM предвзята. Речь идет о термине existing bias — склонность интерпретировать информацию таким образом, чтобы она соответствовала определенным убеждениям. Это может приводить к неправильным решениям, упущенным возможностям, а также к укреплению дискриминационных стереотипов. В отчете компании по GPT-4 показано, что усилия по настройке и изучению эффективности модели были сосредоточены в первую очередь «с учетом особенностей США». Но даже в Штатах жители говорят на разных языках: так, около 44% жителей Калифорнии не пользуются английским дома.
Альтман заявил, что надеется на сотрудничество с правительствами и другими организациями для получения наборов данных, которые укрепят языковые навыки ChatGPT и позволят охватить «как можно более широкую аудиторию». Падилла, для которого испанский язык родной наряду с английским, скептически относится к системам, обеспечивающим равноправные лингвистические результаты без существенных изменений в стратегиях их разработчиков.
«Эти новые технологии открывают большие перспективы для доступа к информации, образованию и расширению возможностей общения, и мы должны гарантировать, что язык не станет препятствием для этих преимуществ», — заявил сенатор.
Колониализм данных — порождение глобализма?
Вы ежедневно бесплатно работаете на корпорации — хотите того или нет. Но вам это, скорее всего, даже нравится. Улисес Мехиас и Ник Коулдри в книге «Стоимость подключения. Как данные колонизируют человеческую жизнь и присваивают ее капитализму» рассказывают историю из жизни популярной писательницы Салли Руни, которой врачи после того, как она потеряла сознание, посоветовали пить побольше воды. Чтобы не забывать это делать, писательница установила специальное приложение в смартфон.
«Простое ежедневное действие, которое совершает каждый человек — отслеживание того, достаточно ли он выпил воды, — внезапно стало чем-то обыденным в конкурентном социальном пространстве, — пишут авторы. — Человеческое тело было переработано во что-то, требующее удаленной инфраструктуры, из которой, кстати, можно извлекать прибыль. По словам самой Руни, она „передала одну из основных функций своего тела на контракт с программным обеспечением“. Но это лишь один небольшой пример чего-то гораздо большего — систематической попытки превратить все человеческие жизни и отношения в ресурсы для получения прибыли. Человеческий опыт, потенциально каждый его слой и аспект, становится объектом извлечения выгоды. Мы называем это состояние колониализмом данных, и это ключевое измерение того, как сам капитализм развивается сегодня».
Концепция колониализма данных, предложенная Мехиасом и Коулдри, утверждает, что информация, которую производят люди по всему миру, становится ресурсом, прибыль из которого извлекают глобальные корпорации. Понятие «информация» в этом случае имеет широкий смысл: она включает и сведения о вашей физической активности, перемещениях, особенностях поисковых запросов, изучение языков посредством приложений, лайки в соцсетях и так далее.
«Колониализм данных присваивает не только физические ресурсы, но и наши собственные ресурсы для познания мира. […] Эксплуатация человеческой жизни ради прибыли посредством данных — это кульминация пяти веков попыток познавать, эксплуатировать и управлять миром из определенных центров власти. Мы вступаем в эпоху не столько нового капитализма, сколько нового переплетения переплетенных историй капитализма и колониализма, и эта переплетенная сила – данные», — утверждают философы.
Дата-колониализм можно назвать современной формой эксплуатации, при которой корпорации или государства получают контроль над значимыми объемами данных, создаваемыми людьми. Эта власть проявляется через сбор, хранение, обработку и использование информации преимущественно в интересах «колонизаторов» — технологических гигантов и влиятельных платформ. Антиглобалисты считают, что это порождение глобальной экономики, где ресурсы извлекаются из одних регионов и перерабатываются для получения прибыли в других, а отсутствие физических границ для данных делает этот процесс еще более эффективным.
Критики уверены, что такой вид колониализма порожден капитализмом, но не противоречит и принципам глобализации.
«Человеческую жизнь сначала необходимо настроить таким образом, чтобы она „естественным“ образом генерировала ресурс, такой как данные. Мгновенные данные о действиях или свойствах одного человека бесполезны, если их нельзя объединить с данными о других людях, действиях, моментах и свойствах для создания связей между точками данных, и именно поэтому была создана инфраструктура, обеспечивающая это. Мир интернет-соединения — это мир, в котором новые типы корпоративной власти, имеющие привилегированный доступ к потокам данных, извлекаемых из потока жизни, могут активировать метафорическую кнопку — аппарат извлечения, будь то платформа, приложение или система искусственного интеллекта. Этот аппарат перестраивает человеческую жизнь таким образом, чтобы она непрерывно способствовала сбору данных и, следовательно, потенциально, получению прибыли», — пишут Мехиас и Коулдри.
«Люди стали источником поведенческого сырья. Мы не пользователи, мы добываемые», — вторит им Шошана Зубофф в книге The Age of Surveillance Capitalism (2019).
Зубофф показывает, как «углубление капитализма» ведет к автоматизации поведения людей и превращению нас в объекты. Пользователи, по ее мнению, становятся сырьем, лишаются доступа или контроля над результатами: «они объекты технологии, а не ее участники». Она отмечает такое явление как «поведенческий излишек» — сбор компаниями данных, не необходимых сервису, но ценных для продаж. Данные используются не на благо пользователей платформ, приложений и соцсетей, а для прогнозов и манипуляции поведением в интересах корпораций и их клиентов. При этом нас используют без нашего активного, осознанного согласия.
Данные собираются по всему миру, но экономическая отдача и способность извлекать ценную аналитику сосредоточены у разработчиков платформ — чаще всего в развитых странах. Это усиливает уже существующее неравенство, создавая новые формы зависимости. Современный цифровой ландшафт в этом смысле воспроизводит старые колониальные практики: извлечение выгоды из менее развитых регионов и использование их ресурсов — в том числе дешевой энергии — во благо «центра».
Жители стран, которые часто называют «развивающимися», из-за слабой экономической и социальной защищенности стали использовать криптовалюты, чтобы иметь возможность свободнее устраиваться на удаленные места работы или быстрее и дешевле переводить деньги родственникам домой, зарабатывая в других государствах. Но на кон они ставят контроль над собственными данными и финансами.
Граждане и компании Нигерии в одночасье потеряли возможность взаимодействовать с криптобиржей Binance из-за подозрений в спекуляциях обменным курсом найры. А в марте 2022 года пользователи MetaMask из Венесуэлы, Ливана и Ирана сообщили о сложностях с доступом к кошельку — компания вдруг решила «соответствовать законодательству» и ограничила своих пользователей в распоряжении их финансами.
Конечно, когда узнаешь о таких фактах, легко встать под деколониальные знамена популистов-патриотов и уверовать в необходимость национальных закрытых суверенных цифровых систем, включая искусственный интеллект. Но на самом ли деле это необходимо? Да и возможно ли построение суверенного ИИ в принципе?
Глобальный vs суверенный ИИ — надуманная дихотомия
ИИ обладает мощным потенциалом двойного назначения. Он может служить человеку, обществу и в то же время использоваться государствами в репрессивных и милитаристских целях. Однако неверно представлять его развитие как бинарный выбор между суверенными и глобальными моделями.
Да, напряжение между этими полюсами существует. Важно не только кто быстрее создаст условно совершенный «сверхразум», но и чьи мораль, особенности мышления, культурная традиция, правовая система, идеология встроены в поведение ИИ. Но это соревнование никак не влияет на те риски, которые реально грозят человечеству в связи с распространением искусственного интеллекта.
Для развития ИИ нужна мощная финансово-экономическая база, он не может существовать без привлечения капитала. А природа капитализма такова, что экспансия заложена в ней как естественный двигатель — его субъекты не могут не стремиться к постоянному расширению сфер извлечения прибылей.
Колониализм стал инструментом такого расширения: сначала через физический захват ресурсов, сегодня — через контроль над данными и технологиями. Пока действует капиталистическая модель, новые формы колониализма будут появляться и адаптироваться. И пока мы находимся в этой точке, где есть капитализм и интересы государств, концепции развития ИИ будут требовать выработки стратегий, сочетающих технологическую независимость с открытостью для международного сотрудничества.
Сам по себе суверенный ИИ не является гарантией защиты от колониализма данных. Более того, в определенных политических контекстах он может стать его локальной формой. Суверенный ИИ, напомним, — это искусственный интеллект, разрабатываемый и контролируемый в рамках национального или регионального суверенитета. Часто под ним понимают: локальное хранение и обработку данных; обучение моделей на собственных языках, историях, нормах; независимость от бигтеха; подконтрольность разработок властям. В теории это можно подавать как антиколониальный шаг. Но в реальности все зависит от того, кто реализует эту «суверенность» и ради чего.
Если бы цифровые ресурсы, инфраструктура и выгоды распределялись равномерно, возможности для эксплуатации и доминирования исчезали бы, считают сторонники глобалистской модели ИИ. Они утверждают, что открытие рынков, свободная торговля и цифровая интеграция способствуют росту экономики и снижению бедности в развивающихся странах, как это произошло с Индией, Китаем и Вьетнамом. По их мнению, цифровая глобализация расширяет доступ к знаниям, технологическим инновациям и новым рынкам, стимулируя образование и развитие кругозора населения.
Как только лидеры ЕС обеспокоились тем, что критически важные возможности ИИ сосредоточены в основном в американских компаниях, и задумались над суверенитетом в области таких разработок, на помощь им пришли — кто бы вы думали? — глобалисты! Крупные поставщики облачных услуг мгновенно отреагировали на запрос — стали инвестировать в локальные центры обработки данных ЕС и предлагать варианты хранения данных пользователей из стран-членов в пределах его границ.
Уже упомянутый Касима Тарнпипитчай на конференции CNBC East Tech заявил, что государствам Азии не хватает развития ИИ с возможностями самостоятельно контролировать собственные технологии, данные и инфраструктуру, обеспечивая автономию и удовлетворяя уникальные приоритеты и потребности в безопасности. При этом он согласился с тем, что одним из ключевых способов, с помощью которых страны могут создать свои суверенные среды ИИ, является использование моделей с открытым исходным кодом.
«Здесь, в Юго-Восточной Азии, и особенно в Таиланде, много потрясающих талантов. Было бы обидно, если бы это было запечатлено таким образом, что не стало бы общедоступным или не способствовало развитию экосистемы», — сказал Тарнпипитчай.
Он добавил, что открытый исходный код — это способ создания «коллективной энергии», которая поможет Таиланду повысить конкурентоспособность в сфере искусственного интеллекта и укрепить суверенитет таким образом, чтобы это принесло пользу всей стране.
Что дальше
Государства, призывающие к суверенному искусственному интеллекту, не могут полностью отказаться от компонентов, знаний и облачной инфраструктуры, поступающих извне. Помимо этого многие страны, стремящиеся к построению суверенных ИИ, по-прежнему полагаются на иностранное оборудование (например, чипы) и базовые модели, разработанные за рубежом. Эта частичная зависимость подрывает саму идею суверенитета и делает национальные системы уязвимыми как минимум к торговым ограничениям.
Создание и поддержка аппаратной и облачной инфраструктуры, необходимой для поддержки суверенного ИИ, требует больших затрат. Первоначальные инвестиции, от центров обработки данных и графических процессоров до защищенных хранилищ, весьма существенны. Многие страны, особенно развивающиеся, могут не иметь финансовых ресурсов или технических возможностей для самостоятельного создания такой инфраструктуры, что делает ее серьезным препятствием. Вы уже догадались, кто сможет инвестировать в чей-то суверенитет — технологические, цифровые и финансовые гиганты, которых небезосновательно связывают напрямую с глобалистским блоком в развитии ИИ.
Экосистема ИИ по сути интернациональна; она строится на сотрудничестве, обмене талантами, научными публикациями и стандартами. Страны часто выбирают смешанные стратегии, где стремление к автономии сочетается с необходимостью оставаться частью мирового сообщества. Поэтому неверно радикально противопоставлять глобальный и суверенный ИИ.
Большинство кейсов — это спектр между двумя полюсами. При построении национальных ИИ-систем важно обеспечить принцип прозрачности, защиты прав и демократического контроля, что требует развития и согласования локальных стандартов с международными нормами во избежание новых форм цифрового колониализма и авторитаризма.
Текст: comrade-tovarishch