20 октября 2025 года «Нэшнл Интерест» опубликовал две статьи американских учёных в области искусственного интеллекта на одну тему – ИИ и научная фантастика Голливуда: Пола Стейдлера «Некомпетентность Голливуда в оценке будущего искусственного интеллекта в Америке» и Рика Хаббарда «Когда научная фантастика сталкивается: строим будущее автономных систем и искусственного интеллекта».

Авторы пишут, что начиная с «Космической одиссеи 2001 года» и до мульсериала «Джетсоны», Голливуд долгое время неверно представлял себе технологическое будущее Америки. Настоящую историю искусственного интеллекта написали ученые — инноваторы, а не сценаристы.

Голливуд сыграл в этом вопросе свою характерную роль, создавая качественные и познавательные развлекательные фильмы. Важнейшими действующими лицами в реальной, по-настоящему важной драме об искусственном интеллекте являются этичные учёные и инженеры, которые стремятся построить лучший мир и делают это.

Как фильм «Космическая одиссея 2001 года» сформировал представление об ИИ

Пожалуй, ни один современный фильм не отражает влияние Голливуда на общественное мнение о науке, технологиях и даже об искусственном интеллекте лучше, чем «Космическая одиссея 2001 года». Вышедший в 1968 году, более чем за год до высадки на Луну, этот квази-антиутопический фильм рассказывает о том, как космические путешествия стали гораздо более распространёнными и сложными на рубеже тысячелетий. Кстати, это представление было далеко от истины в 2001 году, и остаётся таковым до сих пор.

Большинство, если не все, персонажи фильма — автоматы, лишенные индивидуальности, в отличие от суперкомпьютера (эвристически запрограммированного алгоритмического компьютера), то есть Хэла. Власть имущие манипулируют и лгут, когда речь заходит об открытии на Луне. А Хэл сеет хаос в важной миссии.

Поразительно полное отсутствие радости и энтузиазма у всех персонажей фильма, несмотря на их потрясающие технологии и принадлежность к научной элите, привилегированному классу. Помимо пессимистического тона фильма, существуют и распространённые заблуждения о Хэле.

Да, он был суперкомпьютером, который захватил управление и совершил злодеяния, убив всех членов экипажа, кроме одного, и вынудив отменить дорогостоящую и новаторскую миссию к Юпитеру. Но на самом деле Хэла одолел астронавт Дэйв, который обезвредил Хэла и в конце концов отключил его, уничтожив его.

Также очевидно, что отсутствие человеческого контроля и других резервных систем сделало действия Хэла возможными. Это предупреждение о том, что в управлении искусственным интеллектом и связанными с ним технологиями всегда должен присутствовать человеческий фактор. Если это был главный урок фильма, то миссия выполнена.

Голливуд глубоко ошибался в других изображениях будущего. В 1983 году фильм «На следующий день» предсказал, что ядерное уничтожение — наша судьба, намекая на то, что избежать его можно только заморозив ядерное оружие. Пять лет спустя, после наращивания ядерного оружия, Соединённые Штаты и Советский Союз заключили ряд исторических договоров о сокращении ядерного оружия.

Мультсериал «Джетсоны» — оптимистичный и довольно точный — показал светлое будущее технологий. Счастливой семье помогал робот по имени Рози.

Роботы сегодня становятся настоящим технологическим феноменом. Компания Amazon недавно объявила о выпуске более миллиона роботов. Илон Маск предвидит, что в будущем они получат широкое распространение для выполнения обычных домашних дел. Хотя мультфильм «Джетсоны» далёк от пророчества, он оказался точнее серьёзных фильмов о будущем технологий.

Будущее определяют лидеры технологий, а не Голливуд

Действительно, именно лидеры технологического бизнеса гораздо точнее, интереснее и проницательнее высказываются об ИИ.

В 2018 году генеральный директор Google Сундар Пичаи заявил: «Искусственный интеллект — одна из важнейших вещей, над которыми работает человечество. Он гораздо глубже, чем электричество или огонь». Он также пророчески высказался об искусственном интеллекте и его стремительном развитии 16 апреля 2023 года.

Энди Джасси, генеральный директор Amazon, в своем ежегодном письме акционерам в апреле 2025 года сказал: «Вы увидите, как ИИ все чаще меняет нормы в кодировании, поиске, покупках, личных помощниках, первичной медицинской помощи, исследованиях рака и лекарств, биологии, робототехнике, космосе, финансовых услугах, местных сетях — во всем».

Сегодня крайне важно, «чтобы избранные и общественные лидеры инициировали позитивные и воодушевленные дискуссии об ИИ для обеспечения процветания, создания материальных благ и решения человеческих проблем, подобного которым мир еще не видел.

Сейчас время для жизнерадостного, творческого, безграничного оптимизма, который многим молодым людям крайне необходимо услышать и принять всем сердцем. Лидеры современных сообществ могут и должны донести до всех, что сейчас время смело и без ограничений мыслить о благородных целях. Мрачный пессимизм Голливуда, зачастую присущий ему, должен быть отброшен».

«Мы должны побуждать людей писать собственные впечатляющие и эффективные сценарии для ИИ. Что вы хотите сделать? Лечить болезни? Сократить выбросы парниковых газов? Привлечь внимание к проблеме? Донести до других важные идеи? Улучшить выращивание сельскохозяйственных культур? Отправиться в космос?

Благодаря ИИ все эти цели становятся гораздо более достижимыми и реальными. Да, меры предосторожности необходимы, подобно тому, как мы уже более 80 лет защищаемся от аварий и несанкционированного использования атомного оружия.

По мере развития искусственного интеллекта и автономной войны наше будущее становится отражением столкновения «Особого мнения», «Звёздных войн», «Пятого элемента» и «Идиократии», требуя инноваций в сочетании с гарантиями безопасности и четким глобальным взаимодействием.

Мы живём в эпоху, когда автономные системы делят заголовки с дипфейковыми скандалами и вирусной дезинформацией. Когда размышляешь о том, к какому научно-фантастическому будущему мы движемся, то не видно единого видения — видно столкновение. Разворачивающееся будущее меньше похоже на чистую антиутопию «Бегущего по лезвию» или обнадеживающий порядок «Звёздного пути», а больше на некий хаос.

Нигде этот парадокс не проявляется так очевидно, как в сфере искусственного интеллекта (ИИ) и автономной войны, где передовые системы машинного обучения принимают решения, имеющие решающее значение для жизни, в то время как общество пытается понять, что эти возможности означают для нашего будущего.

«Особое мнение» подарило нам PreCrime — систему, способную предсказывать и предотвращать насилие до его совершения. Современный военный ИИ ещё не достиг своего пика, но он представляет собой фундаментальный сдвиг в ведении военных действий. Автономные системы теперь могут обрабатывать разведданные, выявлять угрозы и — во всё более совершенных системах — принимать решения о выборе цели быстрее, чем способен среагировать человек.

Это заманчивое обещание: более качественная информация, обрабатываемая мгновенно, что позволяет действовать более точно. В фильме персонаж Тома Круза борется с системой, которая одновременно поразительно точна и глубоко несовершенна. Сегодня мы сталкиваемся с похожими проблемами. Системы на базе искусственного интеллекта продемонстрировали реальный потенциал для сокращения потерь среди гражданского населения благодаря повышению точности и эффективности анализа данных. Они способны обрабатывать огромные объёмы данных с датчиков, выявлять закономерности, которые люди могут пропустить, и предоставлять лицам, принимающим решения, более чёткую картину сложных боевых действий.

Технология стремительно развивается, поскольку предлагает реальные преимущества. Ключевой вопрос не в том, стоит ли развивать эти возможности, а в том, как развивать их ответственно. Как использовать потенциал ИИ, сохраняя при этом центральное место в принятии самых важных решений с точки зрения человека?

«Звёздные войны: Эпизод II – Атака клонов» познакомили нас с армиями клонов: искусственными солдатами, которые сделали войну более приемлемой для демократических обществ, поскольку настоящие граждане не умирали. Параллели с автономными системами оружия заслуживают внимания, хотя и не потому, что автоматизация сама по себе проблематична.

«Когда системы работают с возрастающей автономностью — будь то турецкие барражирующие боеприпасы Kargu-2, российские и украинские автономные платформы или китайские инициативы «интеллектуальной войны» , — мы меняем математическое ожидание конфликта. Сама технология нейтральна. Важно то, как мы её применяем».

«Нам нужны структуры, сохраняющие ответственность человека, даже если мы используем скорость и точность ИИ. Это означает проектирование систем со значимым человеческим контролем, встроенным в базовую архитектуру, а не добавляемым постфактум. Это означает установление чётких правил взаимодействия, определяющих, когда и как могут функционировать автономные системы. Это означает инвестиции в доктрину, обучение и структуры управления, которые гарантируют, что технологии дополняют, а не заменяют человеческое суждение».

Пятый элемент реальности — глобальная конкуренция

«Пятый элемент» подарил нам будущее, где ошеломляющие технологии существуют на фоне вопиющего неравенства: летающие машины наверху, нищета внизу и вертикально расслоенный мир. Нью-Йорк в фильме буквально разделял тех, у кого был доступ к передовым технологиям, и тех, у кого его не было.

Такое расслоение уже заметно в сфере военного ИИ. США, Китай, Россия и ряд других стран вкладывают огромные средства в автономные системы, искусственный интеллект и вычислительную инфраструктуру для их поддержки. Это не случайно: возможности ИИ становятся синонимом геополитической проекции силы.

«Глобальная гонка вооружений в сфере ИИ создаёт новые уровни военного потенциала. Страны, обладающие развитым ИИ, смогут отслеживать, прогнозировать и реагировать с беспрецедентной скоростью и точностью. Те, у кого его нет, окажутся в всё более невыгодном положении, не имея возможности защитить свой суверенитет от противников, действующих с машинной скоростью».

Вот почему ответственное развитие так важно. Цель не в том, чтобы замедлиться, а в том, чтобы целенаправленно двигаться вперёд, демонстрируя, что развитый ИИ и этические ограничения не противоречат друг другу.

Риск идиократии — поддержание стратегического мышления

Фильм Майка Джаджа «Идиократия» показал будущее, в котором общество настолько деградирует в культурном плане, что больше не может решать базовые проблемы, несмотря на то, что технологии продолжают существовать.

Речь здесь идёт не об интеллекте, а о внимании и строгости. Публичные дискуссии о войне с использованием ИИ часто колеблются между утопическим ажиотажем и апокалиптическим страхом, оставляя мало места для тонкого анализа, которого требуют эти вопросы.

Риск заключается не в недостатке технологических возможностей. Риск заключается в том, что концентрация общественного внимания сократилась, а стратегические задачи стали сложнее. Когда публичные дебаты сводят войну ИИ к пустым фразам, когда становится сложно постоянно концентрироваться на критически важных вопросах национальной безопасности, мы создаём уязвимости.

«Именно здесь мы, разработчики этих технологий, несем ответственность. Нам необходимо чётко доносить как возможности, так и ограничения. Нам необходимо серьёзно относиться к этическим вопросам, а не отвергать их как препятствия для инноваций. И нам нужно продемонстрировать, что развитие возможностей ИИ и внедрение ответственных мер безопасности — это не конкурирующие, а взаимодополняющие приоритеты».

Путь вперёд — ответственные инновации

Итак, к какому научно-фантастическому будущему мы движемся? Честный ответ: мы решаем прямо сейчас. «Мы находимся на переломном этапе, когда наш выбор в отношении ИИ-войны определит геополитическую стабильность на десятилетия вперёд».

Оптимистичный сценарий достижим.

Для этого необходимо несколько вещей:

«Техническое совершенство со встроенными защитными механизмами. Нам необходимо разрабатывать системы ИИ, которые одновременно обладают высокой производительностью и изначально управляемы. Это означает инвестиции в объяснимый ИИ, надежные режимы тестирования и отказоустойчивые механизмы с самого начала.

Чёткая доктрина и правила взаимодействия. Технологии сами по себе не определяют результаты, а определяют то, как мы их применяем. Нам нужны доктринальные рамки, которые определяют, когда автономные системы могут работать, какими полномочиями они обладают и как осуществляется человеческий надзор.

Международное взаимодействие без наивности. Контроль над вооружениями в сфере ИИ-оружия — задача чрезвычайно сложная, но это не делает её бесполезной. Мы должны следовать международным нормам прозрачности и ограничений, сохраняя при этом потенциал, необходимый для сдерживания.

Участие общественности и просвещение. Важнейшей гарантией безопасности является информированное гражданское сообщество, которое понимает как необходимость этих возможностей, так и важность ответственного развития».

Будущее, которое мы строим, не будет похоже на какой-то отдельный фильм или книгу — оно будет сложным, вероятно, противоречивым и уникальным. «ИИ даёт реальные преимущества: более качественную разведку, более точные операции и более быстрое реагирование на угрозы. Это не абстрактные преимущества — они воплощаются в спасённых жизнях и предотвращении конфликтов.

Но потенциал и результат — это не одно и то же. Мы сможем достичь оптимистичного будущего, только если будем ответственно подходить к инновациям — если будем расширять границы технических возможностей, сохраняя при этом этические принципы, определяющие нашу личность.

Оптимистичный прогноз на наше будущее заключается не в том, что технологии нас спасут. А в том, что мы можем быть достаточно вдумчивыми, осмотрительными и мудрыми, чтобы по мере развития возможностей ИИ мы развивали и нашу способность контролировать его и направлять к достойным целям».

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...