
Роберт Мэннинг и Фериал Ара Саид (Центр Стимсона) опубликовали в «Нэшнл интерест» знаковую статью «ИИ: путь к утопии или антиутопии?» (09.08.2025).
Авторы пишут:
«Вера в неизбежность искусственного интеллекта (ИИ), обещание безграничных выгод и страх проиграть Китаю или друг другу толкают американских конкурентов в индустрии ИИ в яростную гонку за доминирование ИИ. Эта гонка ускоряется при недостаточном учете рисков, о многих из которых предупреждали даже создатели ИИ и руководители корпораций. Опасения по поводу безопасности, воздействия человека и неспособности предотвратить катастрофические последствия были преуменьшены в погоне за скоростью и превосходством.
Задача состоит не в том, чтобы остановить поезд или даже замедлить его, а в том, чтобы изменить направление, чтобы инновации соответствовали целям человека».
Техноутопия: «Больше всего, навсегда»
«Мы создаем мозг для всего мира», — объясняет генеральный директор OpenAI Сэм Альтман в блоге об искусственном сверхинтеллекте, превосходящкм человеческий интеллект. В один прекрасный день роботы смогут управлять целыми цепочками поставок, добывая сырье, водя грузовики и управляя заводами. Еще более примечательно то, что некоторые роботы могут производить дополнительных роботов для строительства заводов по производству чипов, центров обработки данных и другой инфраструктуры. Машины будут не только энергией будущего; они будут строить его — до бесконечности.
Технологические лидеры и венчурные капиталисты, такие как Илон Маск, Марк Цукерберг и Марк Андриссен, представляют себе технологически детерминированное будущее, в котором ИИ искоренит болезни, обратит вспять экологический коллапс, откроет безграничную энергию и эру изобилия.
Что здесь может не понравиться? Тем не менее, технологические лидеры также предполагают, что ИИ настолько полностью преобразует общество, что люди уйдут в виртуальную метавселенную, сформируют дружеские отношения с ИИ, совершат транзакции в криптовалютах и будут полагаться на универсальный базовый доход (UBI), частично финансируемый технологическими компаниями.
Некоторые видят, как формируется экстремальное, более мрачное видение, в котором национальные государства постепенно растворяются в сетевых государствах, управляемых технократическими элитами.
Возрождение технократии
В своем блоге за 2023 год «Манифест технооптимиста» венчурный капиталист Марк Андриссен утверждает, что все проблемы, природные и технологические, можно решить с помощью большего количества технологий. Такой образ мышления вызвал реакцию отторжения в социальных сетях, вызванную неконтролируемой властью технологических компаний над пользовательскими данными и контентом на их платформах, подрывая доверие потребителей и иллюзию о том, что новые технологии неизбежно ведут к прогрессу.
Андриссен определяет «врагов» прогресса как этатизм, коллективизм, централизованное планирование и монополии. Это тоже знакомо: капитализм свободного рынка с минимальным регулированием — это та же самая среда, которая способствовала раннему росту Интернета. Манифест Андриссена относится к обществу как к сломанному приложению: несовершенному, но исправимому, если разработчики продолжают совершенствовать технологические инструменты. Точно так же враги, которых он определяет, на самом деле являются сложными результатами человеческой истории, борьбы за власть и столкновения идеологий. Кроме того, это не те неисправности, которые можно устранить с помощью программных изменений. Они являются частью человеческого состояния.
Место человека в картине, когда всю тяжелую работу выполняют машины, явно отсутствует. Согласно этому видению, машины думают, строят и принимают решения для людей, а не за них. Это будущее спроектированного консенсуса,в котором политика и согласие управляемых исчезают вместе с человеческим фактором. Неудивительно, что некоторые представители отрасли, такие как генеральный директор Google Сундар Пичаи, поддерживают вовлечение социологов, философов и специалистов по этике в разговор — не в последнюю очередь для того, чтобы напомнить специалистам по обработке данных и венчурным капиталистам Кремниевой долины, что человеческая деятельность должна оставаться нетронутой. Это та часть программного обеспечения, которая нуждается в исправлении.
Социальные потрясения и становление техногосударства
Однако было бы ошибкой видеть в техноутопиях только искателей прибыли или идеологов. У них есть веские основания полагать, что ИИ может решить ранее неразрешимые проблемы. AlphaFold от DeepMind уже произвел революцию в биологии, принеся своим создателям Нобелевскую премию 2024 года за точное предсказание белковых структур, что ускоряет разработку лекарств. Оповещения Google о землетрясениях повышают общественную безопасность, а охлаждение на основе искусственного интеллекта может сократить коммерческое потребление энергии на 9 –13 процентов. ИИ однозначно обладает огромным потенциалом для улучшения жизни человека.
Тем не менее, ИИ также обещает трансформировать цивилизацию с беспрецедентной скоростью и со значительными потрясениями.Исторически сложилось так, что даже в обществах с обильным досугом у людей была целенаправленная работа. Тем не менее, разговоры об универсальном базовом доходе говорят об обратном. Когда промышленная революция вытеснила доиндустриальный и сельский физический труд, были созданы новые рабочие места, и изменения происходили в течение нескольких столетий, давая обществу время на адаптацию. Революция ИИ, напротив, угрожает быстро заменить работников умственного труда, не предлагая никаких немедленных рабочих мест. Половина рабочих мест начального уровня может исчезнуть в течение пяти лет.
Сегодняшние выпускники бизнес-школ не могут стать завтрашними банкирами, если путь от ученичества к трудоустройству рухнет, и его нечем будет заменить. Выхолащивание профессионального класса разрушает восходящую мобильность, заменяя высокооплачиваемые рабочие места со средним уровнем дохода меньшим количеством и более низкооплачиваемыми должностями, которые просто поддерживают автоматизированные системы. Кроме того, когда ИИ автоматизирует работу, основанную на рассуждении, суждении, ответственности, этике и морали — всех человеческих способностях, которых ему не хватает, — производительность и безопасность могут пострадать.
Неустанное стремление к скорости затмевает важнейшую задачу подготовки к переменам. ИИ уже переделывает общество, трансформируя то, как люди общаются, работают, ведут войну и участвуют в политике. ИИ стал передним краем национальной секьюритизации принятия экономических решений и геостратегической конкуренции. Трансформация общества ускоряется по мере того, как технологии цепляют пользователей и распространяются так быстро, что им приходится адаптироваться.
Авторы продолжают:
«Быстрое развертывание Китаем ИИ в области слежки, управления и военных приложений часто используется для оправдания дальнейшего ускорения. Однако, если Америка лидирует в разработке передовых моделей ИИ, в то время как Китай развертывает менее продвинутые, проблема заключается не только в том, чтобы развернуть их быстрее. Она заключается в том, чтобы руководить за счет иного развертывания, а именно отдавать приоритет безопасности, прозрачности и готовности к сбоям, тем самым закрепляя развертывание ИИ на принципах, ориентированных на человека, а не на геополитическую срочность».
В недавнем эссе «Форин афферс» американский политолог Ян Бреммер описывает этот новый мир как «технополярный», где технологическая индустрия является вездесущим негосударственным актором, формирующим геополитику и общественную жизнь.
Без сомнения, крупные американские технологические компании, или «Big Tech», берут на себя роли, которые исторически были прерогативой национальных государств, и в некоторых отношениях переплелись с государством.
Big Tech, безусловно, представляет собой новую — в значительной степени неподотчетную — форму власти.
Сегодняшние технологические гиганты накопили огромную власть, влияя на поведение государств через контроль над цифровой инфраструктурой и платформами, которые стали неотъемлемой частью современного общества.
Могут ли национальные государства восстановить достаточный контроль?
Возможно, но не в ближайшее время. Крупные технологические компании формируют политику правительства США (как показано в недавно опубликованном Плане действий администрации Трампа в области искусственного интеллекта) отчасти потому, что Конгресс только недавно начал действовать, а отчасти из-за быстрых темпов изменений.
Кроме того, с тех пор, как Китай дебютировал со своей моделью искусственного интеллекта DeepSeek, геополитика способствовала симбиозу между правительством и промышленностью. В отличие от Китая, где технологические компании находятся под жестким контролем партийного государства, в Соединенных Штатах Big Tech оказывает влияние на подход правительства. Политическое присутствие отрасли в Вашингтоне расширилось, даже несмотря на рост общественного контроля: в 2024 году американские технологические гиганты потратили 61 миллиард долларов на лоббирование.
Создатели ИИ всё чаще признают, что они не до конца понимают, как функционируют эти системы
Многие системы хорошо работают в средах с низкими ставками, устойчивых к ошибкам. Тем не менее, инженерный контроль становится актуальным в областях с высоким уровнем воздействия, таких как финансы, юриспруденция, здравоохранение и оборона, где сбои имеют серьезные последствия. Галлюцинации — ложные или сфабрикованные реакции — распространены в сложных логических задачах, встречаясь почти в 80 процентах оценок.
Если инженеры, которые проектируют эти системы, не могут удовлетворительно объяснить, как они работают, можно ли по-настоящему контролировать ИИ? Соучредитель DeepMind Мустафа Сулейман не уверен. Другие говорят, что определить режимы отказа сложно, что делает «аварийный выключатель» (для отключения ИИ в случае его сбоя) нереальным. Йошуа Бенджио, пионер в этой области, призвал инвестировать в усовершенствованный мониторинг для управления агентным ИИ, который может действовать автономно, прежде чем «мы создадим вещи, которые могут нас уничтожить».
Не все с этим согласны. Главный учёный Meta* в области искусственного интеллекта Ян Лекун, ещё один основополагающий голос, отвергает «думеризм» (технологическую опасность) ИИ. Он утверждает, что современные модели далеки от достижения автономии или общего интеллекта, а безопасный, управляемый ИИ является фундаментальной инженерной проблемой. Тем не менее, предложенное им решение — инновации с открытым исходным кодом для улучшения тестирования и отладки — даст Китаю доступ к ним. На данный момент проприетарные (не являющиеся свободными) модели по-прежнему доминируют в экосистеме США, хотя интерес к моделям с открытым исходным кодом растет.
Отсутствие ограничений, фрагментированное управление
Несмотря на то, что риски стали более заметными, а опасения более распространенными, регулирование не поспевает за ними. Соединенные Штаты, Китай и ЕС взяли на себя обязательство обеспечить безопасное, ориентированное на человека развитие. Но на Парижском глобальном саммите по искусственному интеллекту в 2025 году Соединенные Штаты и Великобритания отказались подписать последующую декларацию по этике и безопасности. На самом деле, вице-президент США Джей Ди Вэнс публично выступил против «чрезмерных» правил, ориентированных на безопасность.
Реальность, однако, такова, что наука для оценки эффективности и безопасности недостаточна. Это особенно тревожно, поскольку ИИ превращается из инструмента, расширяющего человеческие возможности, такого как генеративный ИИ (например, ChatGPT), в «агентный» и действующий автономно без контроля человека (вспомните беспилотные транспортные средства). Несмотря на связанный с этим экспоненциальный рост риска, только 2% глобальных исследований в области ИИ изучают соображения безопасности, и только 0,3% от общего объема финансирования ИИ расходуется на исследования в области согласования действий человека.
Многие ведущие исследователи в области безопасности покинули крупные технологические компании в разочаровании. Между тем, обязательных глобальных стандартов и обязательных механизмов надзора за агентным ИИ не существует. Кроме того, не существует ни технических протоколов для устранения несогласованности (когда ИИ не преследует целей, которые хотят его разработчики), ни надежных механизмов для отказоустойчивого вмешательства (например, аварийного выключателя).
Игнорирование предупреждений об искусственном интеллекте
Сейчас самое время сделать шаг назад и вернуться к вопросам первого порядка: куда ИИ ведет человечество? Заменит ли он людей? Даже техноутописты, такие как Сэм Альтман и Илон Маск, выразили тревогу. По оценкам Маска, существует 20-процентная вероятность того, что ИИ может уничтожить человечество. Альтман считает, что ИИ может полностью одолеть людей.
В марте 2023 года Маск вместе с технологическим предпринимателем Стивом Возняком и десятками ученых в области искусственного интеллекта подписали открытое письмо, призывающее приостановить обучение более продвинутых систем искусственного интеллекта, прямо спрашивая: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти числом, перехитрить, устареть и заменить нас?» Альтман не подписал письмо, но в нём цитируется заявление OpenAI о том, что продвинутые проекты ИИ должны ограничивать скорость, с которой вычислительные ресурсы увеличиваются для обучения моделей.
Тем не менее, развитие ИИ стремительно движется вперёд. Разработчики участвуют в головокружительном соревновании за будущее, подогреваемые верой в неизбежность ИИ и страхом упустить финансовое и геополитическое золотое дно. Иррациональное изобилие обогнало рыночную дисциплину. Несмотря на задержку прибыли и нерешенные риски, капитал вливается в развитие ИИ с почти религиозным рвением: в период с 2013 по 2024 год в ИИ в США было вложено 471 миллиард долларов, а только на 2025 год прогнозируется еще 300 миллиардов долларов.
Авторы статьи делают вывод:
«Риски не являются гипотетическими, предупреждения ясны и часто выдаются теми, кто создает системы самостоятельно. Подотчетность отсутствует, она приносится в жертву на алтарь ускорения, оставляя мало места для надзора или исправления. Без общих глобальных правил для защиты инноваций, ориентированных на человека, управление ИИ рискует быть сформированным исключительно властью и прибылью. Чем дольше будет сохраняться эта динамика, тем сложнее будет интегрировать этику и дальновидность в технологическое развитие, что, вероятно, приведет к глубоким последствиям для человечества».
Будущее без присмотра
Редко, когда технология с такой преобразующей силой — и с такими видимыми, хорошо понятными рисками и сбоями — была запущена с такой небольшой подготовкой. Как недавно предупредил генеральный директор Anthropic Дарио Амодеи: «Вы не можете просто встать перед поездом и остановить его». Но вы можете — и должны — «направить его на 10 градусов в другом направлении, чем то, куда он шел».
«Спринтеры», «марафонцы» и «скептики» о будущем ИИ и власти
Так назвал свою статью Джозеф Уэбстер (Глобальный энергетический центр Атлантического совета и Индо – Тихоокеанской инициативы по безопасности) в «Войне на скалах» /War On The Rocks (01.08.2025).
Автор считает, «что те, кто трудится на стыке ИИ и национальной безопасности, разделились на три лагеря: «спринтеры» придерживаются самых агрессивных взглядов и считают, что глубокий прорыв в виде искусственного интеллекта неизбежен; «марафонцы» считают, что технология будет распространяться избирательно, от сектора к сектору; а «скептики» проводят аналогии с пузырём интернет — компаний 2000 года.
Краткосрочная стратегия Америки в области искусственного интеллекта должна соответствовать одному из этих трёх подходов. Если сценарий «спринтеров» окажется верным, Соединённым Штатам следует приложить все усилия для скорейшего создания искусственного интеллекта общего назначения, определяемого здесь как интеллект человеческого уровня. Однако, если скептики правы, Соединённым Штатам следует действовать практически наоборот и избегать чрезмерного развития и расширения. Если же «марафонцы» правы больше всех, то Соединённым Штатам предстоит сложная и долгосрочная технологическая конкуренция со страной, превосходящей по численности население в четыре раза» (Китаем)».
По мнению автора, «принятие скептического подхода рискованно: ИИ уже является мощным инструментом. Помимо применения передовых методов конкуренции в сфере ИИ, политикам следует пока придерживаться «марафонского» подхода, но при этом сохранять гибкость. Этот подход позволит Вашингтону корректировать усилия в области ИИ по мере необходимости, минимизируя риски как чрезмерного расширения, так и недостаточного инвестирования».
Определение лагерей
Компромиссы между ИИ и другими приоритетами уже необходимы: инвестиции частного сектора США в 2024 году составили 109 миллиардов долларов, а по самым смелым оценкам, к 2030 году капитальные расходы могут достичь 2,35 триллиона долларов. Картирование трех лагерей ИИ помогает политикам определить, заслуживают ли расходы Вашингтона в размере 3,3 миллиарда долларов на исследования и разработки в области ИИ в 2025 финансовом году резкого увеличения или осторожной паузы.
«Спринтеры»
Представители этого лагеря считают, что ИИ стремительно движется к созданию общего искусственного интеллекта. Они предвидят практически немедленные и изменяющие мир последствия: первоначальные преимущества приведут к огромному и самоподкрепляющемуся росту производительности. С этой точки зрения, страна, первой получившая общий искусственный интеллект, обеспечит себе долгосрочные — и, вероятно, постоянные — геополитические преимущества. Аналогичным образом, «изобретатель» общего искусственного интеллекта может стать первым в мире триллионером.
К этому лагерю относятся такие американские специалисты по технологиям, как Сэм Альтман, Дарио Амодеи и Илон Маск. В США «евангелизация» (и обреченность) искусственного интеллекта общего назначения (ИИ) имеет потенциал для технологической элиты. Если спринт окупится появлением пригодного к использованию ИИ общего назначения, трофеи будут историческими. Однако, если марафонский подход сохранится, они по-прежнему будут пользоваться преимуществами первопроходцев.
Однако было бы ошибкой сбрасывать со счетов «спринтеров» исключительно из-за конфликта интересов технологических игроков. Часть специалистов по национальной безопасности США, например, Бен Бьюкенен, попадает в лагерь «спринтеров» из-за своих технических оценок и опасений по поводу скрытности Коммунистической партии Китая. Действительно, последние достижения в области ИИ постоянно опережают прогнозы экспертов. Некоторые анализы общего искусственного интеллекта, который появится до 2030 года, исключительно хорошо аргументированы. Кроме того, как отмечает Джулиан Гевирц, Китай может быть тайно нацелен на получение общего искусственного интеллекта раньше Америки. Оценки «спринтеров» могут основываться на непубличных признаках неминуемого прорыва.
Тем не менее, мало кто из китайских деятелей может быть отнесён к категории «спринтеров», исходя из их публичных действий, хотя DeepSeek — важное исключение. В Китае технологи не заинтересованы в продвижении общего искусственного интеллекта. Даже будучи втайне оптимистами, они понимают, что КПК рассматривает общий искусственный интеллект как потенциально дестабилизирующий фактор, особенно если он приведёт к появлению альтернативных источников власти.
Однако существует мало публичных доказательств того, что китайское государство рассматривает прорыв в области искусственного интеллекта как серьёзную среднесрочную угрозу, требующую принятия крайних мер. Китай строит меньше центров обработки данных, ориентированных на ИИ, чем США, и многие из этих объектов, как сообщается, не используются. Китайские политики «гораздо больше обеспокоены краткосрочным распространением и широкомасштабным внедрением», чем приобретением искусственного интеллекта общего назначения, пишет Уилл Райнхарт. Китайская политика в области ИИ, вероятно, формально поддерживает точку зрения, что конкуренция в области ИИ будет представлять собой марафон, а не спринт.
«Марафонцы»
«Марафонцы» — доминирующий лагерь в экспертном сообществе как в США, так и в Китае. Среди их приверженцев немало китайских технологов и американских «специалистов по Китаю», таких как Гарри Крейса, Уильям Ханнас, Кайл Чан, Билл Дрексел, Эльза Б. Кания и Джордан Шнайдер.
Они рассматривают ИИ не как единичный скачок к общему искусственному интеллекту, а как широкий, секторальный процесс значительного, но постепенного улучшения. «Марафонцы» признают приближение перемен, но считают, что изменения будут неравномерными и будут зависеть от контекста. Сторонники этой теории считают, что ИИ изменит ключевые отрасли — возможно, финансы, страхование, здравоохранение и транспорт — но не приведёт к появлению общего искусственного интеллекта к 2030 году, а возможно, и вообще никогда.
«Марафонцы» считают, что применение моделей ИИ конечным пользователем, окажется важнее обучения моделей или создания всё более надёжных моделей. В отличие от «спринтеров», которые отдают приоритет разработке наилучшей модели ИИ посредством обучения, марафонцы утверждают, что подход «максимум обучения — минимум вывода» «готов к изменениям».
«Скептики»
«Скептики» считают, что искусственный интеллект общего назначения появится лишь через десятилетия, если он вообще появится. Такие деятели, как Арвинд Нараянан, Сайаш Капур и Гэри Маркус, предупреждают, что представление ИИ как прорыва в развитии технологий нерационально. Они предостерегают от сравнения искусственного интеллекта общего назначения с ядерным оружием, ссылаясь на медленные темпы его реального внедрения, что напоминает о прошлых технологических пузырях.
Дэн Ван, аналитик, специализирующийся на Китае, предлагает схожую, но уникальную точку зрения: Пекин может отдать приоритет политическому контролю над инновациями. Несмотря на то, что у Китая не очень хорошие показатели безопасности многих технологий, он может сосредоточиться на развитии ИИ по принципу «партия прежде всего», а не на беспрепятственном развитии инноваций.
«Скептики», вероятно, окажутся правы в некоторых областях, но инструменты ИИ быстро добились существенных улучшений, уже сейчас являются ценными и, весьма вероятно, станут еще более мощными.
Стратегии, специфичные для разных лагерей
Каждый подход предполагает различные стратегии, компромиссы и риски. Лагерь «скептиков» наиболее склонен к риску. Хотя их подход ограничивает чрезмерные риски, инструментов хеджирования мало, если возможности искусственного интеллекта Китая начнут превосходить возможности Америки. «Спринтеры» могут в некоторой степени снизить риски, но подход «марафонцев» максимизирует гибкость и хеджирование.
«Спринтеры»
Если спринтерский сценарий сохранится, Соединенные Штаты должны приложить все усилия для достижения общего искусственного интеллекта раньше Китая. Обучение моделей ИИ будет самой важной рабочей нагрузкой ИИ. Соответственно, Соединенные Штаты должны быстро разместить центры обработки данных и принять весь вышеперечисленный подход к обеспечению своих потребностей в электроэнергии как можно быстрее, отдавая приоритет: «скорости-к-питанию»; накапливать передовые чипы, ограничивая при этом доступ Китая; принимать активные меры для замедления развития китайского общего искусственного интеллекта; защищать ключевой персонал и инфраструктуру — такую как завод Spruce Pine, который производит сверхчистый кварц для полупроводников — от наступательных действий Китая. Если спринтерская динамика сохранится, политики должны ожидать, что Пекин будет действовать агрессивно, потому что любая страна, которая первой получит общий искусственный интеллект, скорее всего, станет постоянной сверхдержавой.
Такой подход сопряжен с высоким риском и высокой отдачей. Учитывая первостепенную важность искусственного интеллекта общего назначения, «спринтеры» требуют от Соединенных Штатов снижения приоритета всех других долгосрочных инвестиций в национальную безопасность. В противном случае Соединенные Штаты могут потерять самую стратегическую технологию в истории.
Реально, «спринтерский» подход может означать сокращение поддержки или даже полный отказ от программ истребителя нового поколения для завоевания господства в воздухе (Next Generation Air Dominance) или ударной подводной лодки нового поколения (Next Generation Attack Submarine). Соответственно, если ставка «спринтеров» на ИИ и искусственный интеллект общего назначения не оправдается, ценой в сотни миллиардов долларов, Китай может закрепить свое промышленное доминирование и добиться технологического лидерства.
Автор полагает:
«Чтобы защититься от пузыря искусственного интеллекта, одновременно применяя подход «спринтера», Соединенные Штаты могли бы поощрять распределение затрат между союзниками и партнерами, ослабляя контроль над чипами на Ближнем Востоке и поощряя строительство центров обработки данных за рубежом. Распределение затрат снижает финансовые риски, но также может позволить китайским компаниям получить доступ к высокопроизводительным чипам, необходимым для обучения моделей ИИ».
«Марафонцы»
Если марафонский подход окажется верным, решающее значение будет иметь именно внедрение ИИ, а не приобретение общего искусственного интеллекта. Соответственно, хотя скорость по-прежнему важна, приоритет следует отдать секторальному внедрению и контролю затрат. Вместо обучения моделей ИИ Соединённым Штатам следует сосредоточиться на оптимизации рабочих нагрузок ИИ для вывода, то есть на применении уже созданных моделей.
Распределённые рабочие нагрузки вывода потребуют диффузии. Поскольку рабочие нагрузки вывода относительно энергозатратны по сравнению с обучением моделей ИИ, разработчики ИИ будут более избирательно и методично подходить к развертыванию центров обработки данных, чем в сценарии «спринт». Вместо строительства крупных центров обработки данных Соединённым Штатам придётся размещать более мелкие центры ближе к местам, где требуется вывод.
Источники генерации электроэнергии должны будут соответствовать распределенному спросу на вывод. Современные ядерные реакторы, способные обеспечить базовую нагрузку, открывают большие перспективы для приложений вывода (и военных микросетей), но еще не развернуты в масштабе или экономически эффективно. Учитывая, что существенное развертывание современных реакторов, вероятно, не произойдет до 2030-х годов, необходимы другие решения в краткосрочной перспективе. Солнечная энергия обладает уникальной привлекательностью: она дешева, может быть развернута практически на любой крыше, выработка достигает пика летом, а ее суточный профиль генерации электроэнергии хорошо совпадает с рабочими часами — когда спрос на вывод, вероятно, достигнет пика. Включение батарей и расширение сети существенно повысят надежность решений в области солнечной энергетики для рабочих нагрузок вывода. Тем не менее, прерывистость солнечного света будет ограничивать ее надежность.
Чтобы обеспечить спрос на электроэнергию для ИИ, Соединенным Штатам необходимо будет принять лоскутный подход, опираясь на солнечную энергию, батареи и природный газ для удовлетворения краткосрочного приростного спроса; выделяя ресурсы на технологии следующего поколения (такие как усовершенствованные реакторы и геотермальная энергия) в среднесрочной перспективе; и полагаясь на свой существующий парк газовых, атомных и, при необходимости, угольных электростанций, чтобы одержать победу в конкуренции с Китаем в области искусственного интеллекта.
Усовершенствованные аккумуляторы также будут иметь решающее значение в сценарии «марафонцев», учитывая необходимость использования встроенного искусственного интеллекта для автономных транспортных средств и платформ. Сотрудничество с союзниками и партнёрами, такими как Южная Корея, Япония и Тайвань, будет иметь решающее значение для развития преимуществ США в области применения усовершенствованных аккумуляторов двойного назначения.
Самым ценным технологическим партнёром Америки в сценарии «марафонцев» вполне может оказаться Индия — по крайней мере, в некоторых отношениях. Эта «крупнейшая демократия мира» будет играть непропорционально важную роль в обеспечении значительной части интеллектуальных ресурсов и человеческого капитала, необходимых для конкуренции с Китаем в области искусственного интеллекта, хотя Соединённым Штатам потребуется находить и привлекать ведущих исследователей в области искусственного интеллекта по всему миру. Сотрудничество с другими странами, особенно с традиционными союзниками, также будет иметь решающее значение.
Такой подход влечет за собой компромиссы и риски. «Марафонцы» могут застраховаться от потенциального чрезмерного развития ИИ с помощью других технологий, таких как квантовые. В качестве альтернативы, они могли бы заняться подготовкой к спринтерским забегам, включая закладку фундамента для огромного, суверенного кампуса центра обработки данных, управляемого общим искусственным интеллектом — такой подход Китай, возможно, рассматривает для своего огромного комплекса «Пекинский военный городок». Подход «марафонцев» является естественным страховым полигоном и позволяет масштабировать усилия по внедрению ИИ в зависимости от меняющихся реалий.
«Скептики»
Если «скептики» правы, главный риск ИИ — это чрезмерное развитие и расширение. Чрезмерная шумиха вокруг ИИ может привести к застою инфраструктуры, завышенному спросу на энергию или даже к финансовому заражению из-за инвестиционного пузыря в ИИ. «Скептики» считают, что ограниченные ресурсы следует вкладывать только в те сферы, где внедрение технологий даёт неоспоримые преимущества, и выступают против финансирования «прорывных» технологий, таких как искусственный интеллект общего назначения.
«Скептики» считают, что Америке следует отдать приоритет возможностям национальной безопасности, не связанным с искусственным интеллектом. Соответственно, учитывая вероятность дальнейшего технологического совершенствования Китая, снижение качественного преимущества Америки потребует значительных инвестиций в традиционные средства национальной безопасности, такие как судостроение и оружие ближнего действия.
Лагерь «скептиков» выступает за низкозатратный подход, но при этом существует огромный риск просчета. Если скептики правы, то предотвращенные затраты будут существенными. Однако если скептики ошибаются, то США отстанут в потенциально решающей технологии, преимущества которой являются уникальными и самоусиливающимися. Соответственно, Соединенным Штатам придется либо смириться с китайским технологическим доминированием, либо спешно догонять его, инвестируя даже больше, чем они бы вложили в рамках подходов «спринтеров» или «марафонцев».
«Скептики» выступают за самый рискованный подход: у этого лагеря мало возможностей для защиты, кроме мониторинга развития ИИ. Однако ИИ имеет присущие ему задержки в распознавании и наблюдении, и его развитие может продолжаться экспоненциально: затраты на вывод для ИИ, работающего на уровне GPT-3.5, упали в 280 раз с ноября 2022 года по октябрь 2024 года. Если США ошибочно применят скептический подход, последствия будут разрушительными.
Расхождения
Три лагеря придерживаются разных взглядов на оптимальный набор мер политики для китайско-американского соперничества в сфере искусственного интеллекта. Хотя Соединённым Штатам следует применять универсальные передовые практики в своей конкуренции с Китаем в сфере искусственного интеллекта, им также потребуется сделать последовательный выбор в четырёх ключевых областях политики: распределение ресурсов, кадровый потенциал, инфраструктура и энергетика, а также альянсы. От того, какой политической стратегии последует Вашингтон, может зависеть, кто будет доминировать в сфере искусственного интеллекта.
«Спринтеры» направляют все доступные ресурсы на экзистенциальную борьбу за искусственный интеллект, даже если это означает задержку внедрения военных технологий следующего поколения. «Марафонцы» считают, что ИИ — чрезвычайно важная технология, приоритет которой следует определять в каждом конкретном случае. «Скептики» же применяют к ИИ принцип «виновен, пока не доказана его польза».
Что касается талантов в сфере ИИ, «спринтеры» отдают приоритет немедленной выдаче виз элитным специалистам в этой области; «марафонцы» расширяют внутреннее научно-техническое образование, одновременно расширяя кадровый потенциал с партнерами-единомышленниками, возможно, особенно с Индией; а «скептики» считают, что риски, связанные с ИИ, — особенно связанные с дезинформацией, — требуют повсеместного повышения уровня цифровой грамотности.
«Спринтеры» считают, что энергетические и инфраструктурные требования ИИ предполагают создание огромных кампусов данных для обучения моделей ИИ, максимально быстрое создание всех видов новых источников энергии и даже ограничение конкурирующих энергетических потребностей, таких как криптовалюта. «Марафонцы» также придерживаются «всех вышеперечисленных» подходов к энергетике, но делают акцент на генерации энергии, основанной на логических выводах, особенно солнечной энергии и аккумуляторах. Они также делают акцент на долгосрочном развитии сетей, особенно на современных реакторах и линиях электропередачи. «Скептики», в свою очередь, опасаются чрезмерного строительства неэффективных генерирующих мощностей.
Лагеря также используют разные стратегии альянса. «Спринтеры» настаивают на строгом эмбарго на чипы, но считают, что развитие общего искусственного интеллекта может укрепить лидерство США, предоставив Вашингтону устойчивые рычаги влияния. «Марафонцы» же сосредоточены на создании долгосрочной экосистемы единомышленников в области ИИ, отдавая приоритет традиционным союзникам и развивая партнёрские отношения с Индией и другими потенциальными «колеблющимися державами» — и источниками талантов в области ИИ — на Ближнем Востоке, в Африке и за её пределами. Наконец, «скептики» считают контроль над чипами со стороны союзников потенциально контрпродуктивным, учитывая их надежды на чрезмерные инвестиции Китая в ИИ.
Ожидайте долгого бега, будьте готовы к спринту
По мнению автора, «на данный момент подход «марафонцев» наилучшим образом отвечает интересам США. ИИ уже является мощным инструментом и, скорее всего, станет ещё более эффективным, что указывает на ограничения подхода «скептиков». Тем не менее, создание искусственного интеллекта общего назначения представляется маловероятным в ближайшей перспективе, что снижает привлекательность спринтеров. Важно отметить, что подход «марафонцев» позволяет Соединённым Штатам масштабировать усилия по развитию ИИ в соответствии с развитием реальных событий.
Однако, независимо от того, позиция какого лагеря будет принята, американским политикам следует принять общие рекомендации, не зависящие от конкретных сценариев.
Американские компании в области ИИ и службы безопасности США должны углублять всестороннее сотрудничество. Кроме того, поскольку рабочая сила, как правило, является наиболее важным фактором затрат на обучение моделей ИИ, Соединенным Штатам следует поддерживать доступ к высококвалифицированной рабочей силе, связанной с ИИ, как внутри страны, так и за рубежом, а также обеспечивать ресурсами свои ведущие университеты.
Хотя сокращение зависимости от китайских цепочек поставок имеет решающее значение, Соединенным Штатам следует проявлять крайнюю осторожность при применении пошлин на товары, связанные с ИИ, от проверенных партнеров, поскольку эти меры повышают издержки для американских компаний и расширяют возможности Китая по получению передовых технологий за счет переориентации торговли. Соединенным Штатам следует принять прагматичный, основанный на всех вышеперечисленных факторах подход к энергетике, которая может стать серьезным узким местом для американских усилий в области ИИ. Наконец, политикам следует пересмотреть подходы к ИИ с учетом последних разработок».
***
Можно по — разному относится к предложенному выше подходу по определению различной политики развития ИИ.
Но относительно истории нашей страны ясно одно – скептики два раза загубили возможность прорыва развития ИИ.
Первый раз при Брежневе, когда отвергли предложенную академиком Виктором Михайловичем Глушковым Общегосударственную автоматизированную систему управления, основанную на ИИ. Тем самым не дали преодолеть с помощью ИИ систему формирующегося «застоя».
Второй раз при Горбачёве, когда заблокировали принятие Системы математического управления обществом, разработанной под руководством Побиска Георгиевича Кузнецова. Последствия мы испытываем до сего времени – распад СССР и все прочее, порожденное «перестройкой».
Скептицизм в развитии ИИ в современной России представляет одну из главных угроз обеспечения национальной безопасности страны и стратегии ее развития.
России предстоит решить сложнейшие задачи по строительству огромного пласта вычислительной инфраструктуры; подготовке кадрового ядра по развитию ИИ (тем более, что имеющийся потенциал до недавнего времени свободно вывозился из России); запуску предприятий, способных выпускать микроэлектронику по современным топологическим нормам и многие другие.
*компания, признанная экстремистской и запрещённая в РФ