В июле 2023 года Генри Киссинджер в последний раз перед смертью побывал в Пекине. Среди посланий, которые он передал правителю Китая Си Цзиньпину, было предупреждение о катастрофических рисках искусственного интеллекта (ИИ). С тех пор американские технологические боссы и бывшие правительственные чиновники тайно встречались со своими китайскими коллегами в рамках серии неформальных встреч, получивших название «Диалоги Киссинджера». Разговоры частично были сосредоточены на том, как защитить мир от опасностей ИИ.

27 августа 2024 года американские и китайские официальные лица рассматривали эту тему (наряду со многими другими) во время визита в Пекин советника по национальной безопасности США Джейка Салливана.

I. В статье The Economist «Является ли Си Цзиньпин «обреченным» на смерть ИИ?» (25.08.2024) отмечается, что многие в мире технологий думают, что ИИ сравняется с когнитивными способностями человека или превзойдет их. Некоторые разработчики предсказывают, что модели «Общего» ИИ (AGI) однажды смогут обучаться, что может сделать их неуправляемыми.

Для справки (Е.Л., В.О.):

Общий искусственный интеллект (AGI) это тип ИИ, который превосходит возможности человека в решении широкого спектра когнитивных задач.

Тех, кто считает, что оставленный без контроля ИИ представляет экзистенциальный риск для человечества, называют «обреченными». Они, как правило, выступают за более строгие правила. С другой стороны находятся «акселерационисты», которые подчеркивают потенциал ИИ на благо человечества.

Для справки (Е.Л.,В.О.):

Акселерационизм – идея перенацеливания сложившихся политических взглядов на ускорение научно – технического прогресса.

Западные «акселерационисты» часто утверждают, что конкуренция с китайскими разработчиками, которые не ограничены сильными гарантиями, настолько жесткая, что Запад не может позволить себе замедлиться. Подразумевается, что дебаты в Китае носят односторонний характер, и «акселерационисты» имеют наибольшее влияние на нормативно-правовую среду. На самом деле, в Китае есть свои собственные сторонники ИИ, и они становятся все более влиятельными.

До недавнего времени регулирующие органы Китая были сосредоточены на риске того, что мошеннические чат-боты будут говорить политически некорректные вещи о Коммунистической партии, а не на риске того, что передовые модели выйдут из-под контроля человека.

В 2023 году правительство Китая обязало разработчиков регистрировать свои большие языковые модели. Алгоритмы регулярно проверяют, насколько они соответствуют социалистическим ценностям и могут ли они «подорвать государственную власть». Правила также призваны предотвратить дискриминацию и утечку данных клиентов. Но, в целом, правила безопасности ИИ в Китае легкие. Некоторые из наиболее обременительных ограничений Китая были отменены в 2023 году.

«Акселерационисты» Китая хотят, чтобы все оставалось так, как есть. Чжу Сунчунь, партийный советник и директор поддерживаемой государством программы по развитию AGI, утверждает, что развитие ИИ так же важно, как и проект «Две бомбы, один спутник», который был предпринят в эпоху Мао Цзэдуна и создал ядерное оружие дальнего действия.

Ранее в 2024 году Инь Хэцзюнь, министр науки и технологий, использовал старый партийный лозунг, чтобы настаивать на более быстром прогрессе, написав, что развитие, в том числе в области ИИ, является величайшим источником безопасности Китая. Некоторые политики предупреждают, что чрезмерное стремление к безопасности нанесет ущерб конкурентоспособности Китая.

Но «акселерационисты» получают отпор от группы элитных ученых, которые прислушиваются к Коммунистической партии. Наиболее выдающимся среди них является Эндрю Чи-Чи Яо, единственный китаец, получивший премию Тьюринга за достижения в области компьютерных наук. В июле 2024 года Яо заявил, что ИИ представляет больший экзистенциальный риск для человека, чем ядерное или биологическое оружие.

Чжан Я-Цинь, бывший президент китайского технологического гиганта Baidu, и Сюэ Лань, председатель экспертного комитета штата по управлению ИИ, также считают, что ИИ может угрожать человеческой расе.

И Цзэн из Китайской академии наук считает, что модели AGI в конечном итоге будут видеть людей так же, как люди видят муравьев.

Влияние таких аргументов проявляется все чаще. В марте 2024 года международная группа экспертов, собравшаяся в Пекине, призвала исследователей ликвидировать модели, которые стремятся к власти или демонстрируют признаки самовоспроизведения или обмана. Вскоре после этого риски, связанные с ИИ, и способы их контроля стали предметом изучения для партийных лидеров.

Государственный орган, финансирующий научные исследования, начал предлагать гранты исследователям, которые изучают, как привести ИИ в соответствие с человеческими ценностями. Государственные лаборатории проводят все более продвинутую работу в этой области. Частные фирмы были менее активны, но многие из них, по крайней мере, начали на словах говорить о рисках ИИ.

Дебаты о том, как подойти к этой технологии, привели к войне за сферы влияния между китайскими регулирующими органами.

Министерство промышленности обратило внимание на проблемы безопасности, попросив исследователей протестировать модели на предмет угроз для человека.

Но большинство китайских представителей спецслужб видят в отставании от Америки больший риск. Министерство науки и государственные экономические планировщики также выступают за более быстрое развитие.

Национальный закон об ИИ, запланированный на 2024 год, в последние месяцы тихо выпал из повестки дня правительства из-за этих разногласий. Тупиковая ситуация стала очевидной 11 июля 2024 года, когда чиновник, ответственный за написание закона об ИИ, предостерег от приоритета безопасности или целесообразности.

Решение в конечном итоге будет зависеть от того, что думает Си Цзиньпин.

В июне 2024 года он направил письмо Яо, в котором высоко оценил его работу над ИИ.

В июле 2024 года, на заседании центрального комитета партии, созванном «третьим пленумом», Си Цзиньпин дал самый четкий сигнал о том, что он серьезно относится к опасениям «обреченных».

В официальном отчете пленума перечислены риски, связанные с ИИ, наряду с другими серьезными проблемами, такими как биологические опасности и стихийные бедствия. Впервые он призвал к мониторингу безопасности ИИ, ссылаясь на потенциал технологии представлять опасность для людей. Доклад может привести к новым ограничениям на исследовательскую деятельность в области ИИ.

Больше ключей к разгадке мыслей Си Цзиньпина можно найти в учебном пособии, подготовленном для партийных кадров, которое, как говорят, он лично редактировал. Китай должен «отказаться от неограниченного роста, который происходит за счет жертвования безопасностью», говорится в руководстве. Поскольку ИИ будет определять «судьбу всего человечества», он всегда должен быть управляемым, продолжает он. Документ призывает к тому, чтобы регулирование было упреждающим, а не реактивным.

Гуру безопасности говорят, что важно то, как эти инструкции выполняются. Китай, вероятно, создаст институт безопасности ИИ, чтобы наблюдать за передовыми исследованиями, как это сделали Америка и Великобритания, говорит Мэтт Шихан из Фонда Карнеги за международный мир*, аналитического центра в Вашингтоне. Вопрос о том, какое ведомство будет курировать такой институт – вопрос открытый. На данный момент китайские официальные лица подчеркивают необходимость разделения ответственности за регулирование ИИ и улучшение координации.

Если Китай действительно продолжит усилия по ограничению самых передовых исследований и разработок в области ИИ, он зайдет дальше, чем любая другая крупная страна. Си Цзиньпин говорит, что хочет «укрепить управление правилами ИИ в рамках Организации Объединенных Наций». Для этого Китаю придется более тесно сотрудничать с другими. Но Америка и ее друзья все еще рассматривают этот вопрос. Дебаты между «обреченными» и «акселерационистами» в Китае и других странах далеки от завершения.

II. Британское издание The Conversation в статье «Китай склоняется к использованию ИИ, хотя США лидируют в его разработке» (21.08.2024) пишет, что на конкурентной арене мировых технологий амбиции Китая в области ИИ выделяются не только своим масштабом, но и особым стратегическим подходом.

В 2017 году Коммунистическая партия Китая заявила о своем намерении превзойти Соединенные Штаты и стать мировым лидером в области ИИ к 2030 году. Однако этот план в меньшей степени касается разработки новых технологий, а в большей — стратегической адаптации существующих для обслуживания государственных экономических, политических и социальных целей.

Хотя и Китай, и США активно развивают технологии ИИ, их подходы существенно различаются. США традиционно лидируют в фундаментальных исследованиях и инновациях в области ИИ, а такие институты, как Массачусетский технологический институт и Стэнфорд, а также технологические гиганты, такие как Google и Microsoft, добиваются прорывов в области машинного обучения.

Этот подход, ориентированный на инновации, контрастирует с фокусом Китая на адаптации и применении существующих технологий для конкретных государственных целей.

Развитие ИИ в США в первую очередь обусловлено децентрализованной сетью академических институтов, частных компаний и государственных учреждений, часто с конкурирующими интересами и фокусом на коммерческих приложениях.

Напротив, стратегия ИИ в Китае более централизована и управляется государством, с четким акцентом на поддержку государственных инициатив, таких как социальный контроль и экономическое планирование.

ИИ для идеологического контроля

В основе стратегии Китая в области ИИ лежит его стремление внедрить технологию в механизм идеологического контроля правительства. Ярким примером является чат-бот «Xue Xi», предназначенный для пропаганды политической идеологии президента Си Цзиньпина. «Xue Xi» (что означает «Учение Си») — это больше, чем просто чат-бот. Это цифровой эмиссар «Мысли Си Цзиньпина», доктрины, состоящей из 14 принципов, направленных на укрепление власти КПК, укрепление национальной безопасности и продвижение социалистических ценностей.

Крупные китайские чат-боты с языковой моделью на шаг впереди подобных ChatGPT в одном отношении: политической цензуре.

Это не просто единичная инициатива, а часть более широкой тенденции. Системы наблюдения на основе ИИ, такие как технология распознавания лиц, развернутая в китайском регионе Синьцзян, позволяют правительству поддерживать жесткий контроль над мусульманским уйгурским меньшинством этого региона.

Эти технологии не являются новаторскими. Они основываются на существующих инновациях, но тонко настроены на обслуживание усилий Коммунистической партии по поддержанию общественного порядка и предотвращению инакомыслия. Мастерство Китая в области ИИ достигается не за счет создания новейших технологий, а за счет освоения и развертывания ИИ способами, которые соответствуют его идеологическим императивам.

ИИ для экономического контроля

Стратегия Китая в области ИИ также тесно переплетена с его экономическими амбициями. Столкнувшись с замедлением роста, Коммунистическая партия рассматривает технологии как важнейший инструмент для вывода страны из экономического спада. Это особенно очевидно в таких секторах, как производство и логистика, где ИИ используется для повышения эффективности и поддержания конкурентоспособности Китая в глобальных цепочках поставок. Например, такие компании, как гигант онлайн-ритейла Alibaba, разработали логистические платформы на основе ИИ, которые оптимизируют маршруты доставки и управляют складскими операциями, гарантируя, что Китай останется фабрикой мира.

Кроме того, система социального кредита Китая, которая оценивает граждан по их гражданскому и финансовому поведению, представляет собой значительную стратегическую инициативу, в которой ИИ играет все более важную роль. Эта система Китая предназначена для мониторинга и влияния на поведение граждан в огромных масштабах. Хотя ИИ еще не полностью внедрен во всей системе социального кредита, он интегрируется для отслеживания и анализа огромных объемов данных, таких как финансовые транзакции, онлайн-взаимодействия и социальные отношения в режиме реального времени.

Затем эти данные используются для присвоения баллов, которые могут влиять на различные аспекты жизни, от одобрения кредитов до разрешений на поездки. Поскольку ИИ все больше внедряется в систему, он еще больше усилит государственный контроль и обеспечит соблюдение обществом правил, отдавая приоритет государственному надзору над личной автономией.

Стратегический экспорт

На международной арене Китай экспортирует свои технологии ИИ для расширения своего влияния, особенно в развивающихся странах. В рамках инициативы «Один пояс, один путь» китайские технологические гиганты, такие как Huawei и ZTE, предоставляют системы наблюдения на основе ИИ правительствам стран Африки, Юго-Восточной Азии и Латинской Америки. Эти системы, часто позиционируемые как инструменты для повышения общественной безопасности, являются частью более масштабной стратегии по экспорту китайской модели управления.

Например, в Зимбабве китайские фирмы помогли внедрить общенациональную систему распознавания для борьбы с преступностью. Политические активисты в Зимбабве опасаются, что технология используется для слежки за политическими оппонентами и активистами, как это происходит в Китае.

ИИ для стратегического военного преимущества

Народно-освободительная армия Китая, вкладывает значительные средства в автономные системы на основе ИИ, включая беспилотники и роботизированные платформы. Эти технологии не обязательно являются самыми передовыми в мире, но Китай адаптирует их под свои стратегические потребности.

Китай разрабатывает системы ИИ для поддержки своих военно-морских операций в Южно-Китайском море, регионе значительной геополитической напряженности. Китай развертывает автономные подводные лодки и разведывательные беспилотники для мониторинга и потенциального нарушения иностранной военной деятельности в регионе. Это стратегическое использование ИИ в военных приложениях подчеркивает сосредоточенность Китая на использовании существующих технологий для достижения конкретных геополитических целей, а не на поиске инноваций ради них самих.

Просчитанная стратегия

Подход Китая к ИИ — это рассчитанная стратегия адаптации и применения, а не сырые инновации. Осваивая использование существующих технологий и согласовывая их с государственными целями, Китай не только усиливает свой внутренний контроль, но и меняет глобальную динамику власти.

Будь то идеологическая обработка, экономический контроль, стратегический экспорт или военные достижения, китайский сценарий развития ИИ является убедительным напоминанием о том, что в сфере технологий то, как используются инструменты, может иметь такое же преобразующее значение, как и сами инструменты.

III. Financial Times в статье «Понимание прагматичного плана Китая в области ИИ» (31.07.2024) тоже подчеркивает различие в стратегиях развития ИИ в Китае и США:

«В то время как экосистема США имеет преимущество в революционных инновациях, китайская преуспевает в реализации».

С тех пор как американский стартап OpenAI запустил чат-бота ChatGPT в ноябре 2022 года, мир был поглощен лихорадочной гонкой по созданию больших языковых моделей, которые питают генеративный ИИ. Китаю в этой гонке мешают два фактора: отсутствие доступа к передовым американским чипам и цензура информации.

Без передовых чипов вычислительные мощности Китая ограничены. Такие компании, как OpenAI, расширяют размер своих моделей. Сообщается, что GPT-4, новейшая флагманская модель OpenAI, будет обучена на более чем 1 трлн параметров.

Вместо этого китайские компании должны сосредоточиться на эффективности. Например, компания DeepSeek, базирующаяся в Ханчжоу, в этом году выпустила DeepSeek-V2, большую языковую модель с открытым исходным кодом, которая использует 21 миллиард активных параметров.

Китайским компаниям также мешают данные, к которым они могут получить доступ. Введение в действие Закона о защите личной информации в Китае в 2021 году ввело строгие стандарты защиты данных, аналогичные Общему регламенту по защите данных Европы. В последние годы регулирующие органы Китая неоднократно заявляли о необходимости защиты индивидуальных и корпоративных данных.

Такие ограничения означают, что у китайских компаний больше стимулов для создания сервисов ИИ, построенных на небольших языковых моделях, вместо того, чтобы обучать их во всем Интернете. Им может не хватать грубой силы их более крупных собратьев, но они дешевле в создании и эксплуатации.

Технологическая экосистема Китая основана на таком прагматизме. Исследования, которые не могут быть превращены в продукт в обозримом будущем, такие как AGI, изо всех сил пытаются привлечь финансирование.

Всемирная организация интеллектуальной собственности недавно опубликовала отчет о патентном ландшафте в области генеративного ИИ, который показал, что в Китае было зарегистрировано более чем 38 000 заявок в период с 2014 по 2023 год по сравнению с 6 276 заявками США за тот же период. Лидировали Tencent, Ping An Insurance, Baidu и Китайская академия наук. Конечно, патенты не равны прорывам. Alphabet занимает место ниже Tencent с точки зрения названий патентов на ИИ, но Google DeepMind от Alphabet дал миру AlphaFold, который может стать преобразующим для открытия лекарств с помощью ИИ.

Однако большой объем патентов Китая может привести к увеличению количества продуктов. Одной из областей применения китайского ИИ для наблюдения являются электромобили. Китай потратил 26 лет на производство своих первых 10 миллионов электромобилей и всего 17 месяцев на производство следующих 10 миллионов.

Ожидается, что примерно половина автомобилей, проданных в Китае в 2024 году, будут «умными» автомобилями с планшетами на колесах.

Baidu, которая в конце июля 2024 года развернула 500 беспилотных такси в Ухане, проводит крупнейший в мире эксперимент по автономным транспортным средствам.

Китайские компании, возможно, не создадут сверхчеловеческий ИИ, но «достаточно хороший» ИИ, взаимодействующий с людьми через свои автомобили, будет популяризирован в Китае раньше, чем где-либо еще.

***

Думается, что в западных изданиях преувеличена роль использования ИИ в целях контроля над китайским обществом.

Как можно убедиться из анализа американских СМИ, ЦРУ, АНБ, ФБР, Министерство внутренней безопасности используют ИИ в целях контроля над американским обществом еще в больших масштабах, чем это делается в Китае.

Достаточно вспомнить историю Сноудена и обнародованную им систему PRISM.

Что касается военного использования ИИ Пентагоном, то в настоящее время ни одна из его новых систем вооружения не создается без использования ИИ.

Также преуменьшена роль Китая в создании AGI.

Известно, что такие работы активно ведутся, и, неизвестно, у кого здесь приоритет.

*НКО, признанное иностранным агентом в РФ

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...