
The Guardian* в статье «Искусственный интеллект обвинили в организации взрыва в иранской школе. Правда гораздо тревожнее» (24.03.2026) пишет:
«В течение нескольких дней главным вопросом, определявшим освещение событий войны в Иране, стал вопрос о том, выбрал ли Claude, чат-бот компании Anthropic, именно эту школу в качестве цели. Конгресс США направил письмо министру обороны США Питу Хегсету по поводу масштабов использования ИИ в ударах. Журнал New Yorker задавался вопросом, можно ли доверять Claude в выполнении приказов в бою, не прибегнет ли он к шантажу в качестве стратегии самосохранения и должна ли главная забота Пентагона заключаться в наличии у чат-бота личности. Почти ничто из этого не имело отношения к реальности. Наведение в рамках операции «Эпическая ярость» осуществлялось с помощью системы Maven. Никто не спорил о Maven».
Восемь лет назад Maven был самым спорным проектом в Силиконовой долине. В 2018 году более 4000 сотрудников Google подписали письмо, выступая против контракта компании на разработку ИИ для систем наведения Пентагона. Рабочие организовали забастовку. Инженеры уволились. И в итоге Google отказался от контракта. Компания Palantir Technologies, занимающаяся анализом данных и являющаяся оборонным подрядчиком, одним из соучредителей которой был Питер Тиль, взяла проект под свой контроль и следующие шесть лет занималась развитием Maven, превращая его в инфраструктуру наведения, которая объединяет спутниковые снимки, данные радиоэлектронной разведки и данные датчиков для идентификации целей и проведения их через все этапы — от первого обнаружения до приказа на удар.
Здание в Минабе было классифицировано как военный объект в базе данных Агентства военной разведки, которая, по данным CNN*, не была обновлена с учетом того, что здание было отделено от соседнего комплекса Корпуса стражей исламской революции и переоборудовано в школу — изменение, которое, как показывают спутниковые снимки, произошло не позднее 2016 года. Чат-бот не убил этих детей. Люди не обновили базу данных, а другие создали систему достаточно быстро, чтобы эта ошибка стала фатальной. К началу войны с Ираном Maven — система, которая обеспечила такую скорость — зашла в тупик, стала частью военной инфраструктуры, и все споры свелись к Claude. Эта одержимость Claude — своего рода психоз ИИ, хотя и не тот, о котором обычно говорят, и он поражает критиков и противников технологии так же сильно, как и ее сторонников.
В 2019 году исследователь Морган Эймс опубликовал книгу «Машина харизмы», в которой рассматривается, как определенные технологии привлекают к себе внимание, ресурсы и авторитет, отвлекая их от всего остального. Обычно для понимания этой динамики используется концепция «хайпа», но хайп описывает лишь действия тех, кто его продвигает, и отводит критикам привилегированную роль разоблачителя, оставляя при этом технологию в центре всех споров. Харизматичная технология формирует всю окружающую ее сферу, подобно тому, как магнит упорядочивает железные опилки.
К началу войны термины «безопасность ИИ», «согласование», «галлюцинации» и «стохастические попугаи» стали основой любых дискуссий об ИИ, структурируя и ограничивая то, что мы могли говорить. Когда школу бомбили, именно эти термины люди использовали, несмотря на то, что этот критически важный аппарат плохо сочетался со старым, более зрелым набором технологий, используемых для наведения на цель. Настоящий вопрос, вопрос, который почти никто не задавал, касается не Claude или какой-либо языковой модели. Это бюрократический вопрос о том, что случилось с цепочкой поражения, и ответ — Palantir.
В военной терминологии термин «цепочка поражения» звучит на удивление честно. По сути, он обозначает бюрократическую структуру, определяющую этапы от обнаружения объекта до его уничтожения. Самое старое упоминание этого термина относится к 1990-м годам, но сама идея довольно стара – по меньшей мере, с 1760-х годов, когда французские артиллеристы-реформаторы начали заменять опытный взгляд наводчика баллистическими таблицами, винтами вертикального возвышения и стандартизированными процедурами стрельбы. Этапы цепочки поражения постоянно меняются, чтобы соответствовать изменениям в доктрине целеуказания, а также учитывать любые управленческие тенденции, которые начинают влиять на стратегических мыслителей в армии. В армии США эти этапы переименовывались на протяжении 80 лет. Во время Второй мировой войны последовательность была такой: найти, зафиксировать, сражаться, завершить. К 1990-м годам ВВС расширили её до: найти, зафиксировать, отслеживать, нацелиться, поразить цель, атаковать, оценить, или F2T2EA. Каждое поколение военных технологий продавалось с обещанием сократить все аспекты цепочки поражения целей, за исключением аббревиатур.
Интеллектуальная система Maven от Palantir — это последняя итерация этой стратегии сжатия, и она возникла в результате изменения стратегического мышления во время второго срока Обамы. В 2014 году министр обороны Чак Хейгел и его заместитель Роберт Уорк объявили о том, что они назвали «третьей стратегией компенсации». «Компенсация» в этом контексте — это ставка на то, что технологическое преимущество может компенсировать стратегическую слабость, которую страна не может исправить напрямую. Первые две стратегии компенсации решали одну и ту же проблему: Соединенные Штаты не могли сравниться с Советским Союзом по численности обычных вооруженных сил.
Ядерное оружие, первая стратегия компенсации, сделало преимущество в личном составе неактуальным в 1950-х годах. Когда Советский Союз достиг ядерного паритета в 1970-х годах, высокоточные боеприпасы и технологии невидимости дали надежду на то, что меньшие по численности силы смогут победить большие. К 2014 году это преимущество начало ослабевать. Китай и Россия потратили два десятилетия на приобретение высокоточных боеприпасов и создание систем обороны, предназначенных для того, чтобы не допустить попадания американских войск в зону поражения. Роберт Уорк настаивал на том, что третье преимущество заключалось не в какой-либо конкретной технологии, а в использовании технологий для реорганизации военных действий, позволяя США принимать решения быстрее, чем Китай и Россия, подавляя и дезориентируя противника за счет поддержания более высокого оперативного темпа, чем тот мог обеспечить.
В апреле 2017 года, в начале первого срока администрации Трампа, Уорк помог создать межфункциональную группу по алгоритмической войне, получившую название Project Maven. Один из генералов, руководивших проектом Maven, генерал-лейтенант Джек Шанахан, прямо сформулировал проблему: тысячи аналитиков разведки тратили 80% своего времени на рутинные задачи, утопая в видеоматериалах с беспилотников наблюдения, которые никто не успевал просматривать. Одна миссия беспилотника Predator могла генерировать сотни часов видео, и аналитики, которым было поручено разбираться в этом, столкнулись с проблемой информационной перегрузки. «Мы не собираемся решать эту проблему, просто добавляя к ней больше людей», — сказал Шанахан . «Это последнее, что мы хотим сделать». Основная идея проекта заключалась в том, что машина могла наблюдать, чтобы аналитик мог думать.
Пентагону нужен был строитель. Контракт достался Google, и то, что произошло дальше, стало самой заметной забастовкой рабочих в истории Силиконовой долины.
После того, как Google отказался от контракта с Maven, в 2019 году его переняла компания Palantir. XVIII воздушно-десантный корпус начал тестирование системы в рамках учений под названием Scarlet Dragon («Алый дракон»), которые стартовали в 2020 году как настольные военные игры в подвале без окон на базе Форт-Брэгг. Командир учений, генерал-лейтенант Майкл Эрик Курилла, хотел создать то, что он назвал первым «корпусом с поддержкой ИИ» в армии. Цель состояла в том, чтобы проверить, сможет ли система обеспечить небольшой команде возможности целеуказания, которые ранее требовали тысяч человек.
В течение следующих пяти лет учения Scarlet Dragon превратились в военные учения с использованием боевых патронов, охватывающие несколько штатов и родов войск, с «передовыми инженерами» из Palantir и других подрядчиков, работающими вместе с солдатами. Каждое проведение учений ставило перед собой одну и ту же задачу: насколько быстро система может перейти от обнаружения к принятию решения? В качестве эталона использовалось вторжение в Ирак в 2003 году, где около 2000 человек работали над процессом наведения на цель на протяжении всей войны. Во время учений Scarlet Dragon 20 солдат, использующих систему Maven, обработали тот же объем работы. К 2024 году заявленная цель составляла 1000 решений по наведению на цель в час. Это 3,6 секунды на одно решение, или, с точки зрения отдельного «наводчика», одно решение каждые 72 секунды.
Система Maven Smart System — это платформа, созданная в результате этих учений, и именно она, а не Claude, используется для производства «целевых пакетов» в Иране.
Интерфейс Maven выглядит как версия корпоративного программного обеспечения для управления проектами в военном стиле, смешанная с картографическим приложением. Военный аналитик, составляющий список целей, видит либо карту, на которую наложены разведывательные данные, либо экран, организованный в столбцы, каждый из которых представляет собой этап процесса целеуказания. Отдельные цели перемещаются по столбцам слева направо по мере прохождения каждого этапа — формат, заимствованный из Kanban, системы организации рабочих процессов «бережливого производства», разработанной в Toyota и широко используемой в разработке программного обеспечения.
До появления Maven операторы работали одновременно с восемью или девятью отдельными системами, извлекая данные из одной, сопоставляя их с данными в другой, вручную перемещая обнаружения между платформами для сбора разведывательной информации и получения разрешений, необходимых для каждого удара. Maven объединил все это в едином интерфейсе. Кэмерон Стэнли, главный специалист Пентагона по цифровым технологиям и ИИ, назвал это «уровнем абстракции» — распространенным термином в разработке программного обеспечения, означающим систему, скрывающую скрытую сложность. Наведением занимаются люди. Под интерфейсом системы машинного обучения анализируют спутниковые снимки и данные датчиков для обнаружения и классификации объектов, оценивая каждое обнаружение по степени уверенности системы в правильности определения цели. Три щелчка мыши преобразуют точку данных на карте в формальное обнаружение и перемещают ее в конвейер наведения. Затем эти цели перемещаются по столбцам, представляющим различные процессы принятия решений и правила ведения боя. Система рекомендует, как поразить каждую цель — какой самолет, беспилотник или ракету использовать, какое оружие использовать в паре с ней — то, что военные называют «планом действий». Офицер выбирает один из предложенных вариантов, и система, в зависимости от того, кто ею пользуется, либо отправляет целевой пакет офицеру на утверждение, либо переводит его в стадию выполнения.
ИИ, лежащий в основе интерфейса, не является языковой моделью, или, по крайней мере, тот ИИ, который имеет значение. Основные технологии — это те же базовые системы, которые распознают вашу кошку в фотобиблиотеке или позволяют беспилотному автомобилю объединять камеру, радар и лидар в единое изображение дороги, — здесь они применяются к видеозаписям с дронов, радарам и спутниковым снимкам военных целей.Они появились задолго до больших языковых моделей. Ни Claude, ни какие-либо другие большие языковые модели не обнаруживают цели, не обрабатывают радарные данные, не объединяют данные датчиков и не сопоставляют оружие с целями. Большие языковые модели — это поздние дополнения к экосистеме Palantir. В конце 2024 года, спустя годы после того, как основная система была введена в эксплуатацию, Palantir добавила слой больших языковых моделей — именно здесь находится Claude — который позволяет аналитикам искать и обобщать разведывательные отчеты на простом английском языке. Но языковая модель никогда не была тем, что имело значение в этой системе. Важно было то, что Maven сделал с процессом целеуказания: он консолидировал системы, сократил время и уменьшил количество людей. Это не новая идея. Американские военные пытаются сократить разрыв между обнаружением объекта и его уничтожением с тех пор, как этот разрыв существует, и каждая попытка заканчивается одним и тем же провалом. Возможно, Maven — не самый крайний случай.
В конце 1960-х годов США столкнулись с аналогичной проблемой во Вьетнаме. Поставки осуществлялись на юг по тропе Хо Ши Мина через джунгли, которые военные не могли контролировать. Решением стала операция «Иглу Уайт» — программа стоимостью 1 миллиард долларов в год, в рамках которой вдоль тропы было размещено 20 000 акустических и сейсмических датчиков. Эти датчики передавали данные на самолеты-ретрансляторы, которые, в свою очередь, передавали сигналы на компьютеры IBM 360 на авиабазе Накхон Пханом в Таиланде. Компьютеры анализировали данные с датчиков и прогнозировали местоположение конвоев, после чего ударные самолеты направлялись по этим координатам.
Система могла чувствовать, но не могла видеть. Она могла обнаружить вибрацию, но не могла отличить грузовик от телеги, запряженной волами. Северовьетнамцы это поняли. Они включали записи двигателей грузовиков, загоняли животных к датчикам, чтобы активировать обнаружение вибрации, и развешивали ведра с мочой на деревьях, чтобы срабатывали химические детекторы. Систему можно было обмануть, потому что никто не мог видеть, что она измеряет. ВВС заявили, что за время кампании было уничтожено или повреждено 46 000 грузовиков. ЦРУ сообщило, что за один год количество грузовиков, предположительно находившихся во всем Северном Вьетнаме, превысило общее число. Единственным показателем эффективности системы была ее собственная производительность, и никто за пределами системы не имел права оспаривать ее. Историк ВВС Бернард Налти позже назвал расчеты потерь службы «упражнением в метафизике, а не в математике», а его коллега Эрл Тилфорд пришел к выводу, что «ВВС удалось обмануть только самих себя». Когда дневные разведывательные полеты не принесли результатов, обломки всех этих грузовиков не были обнаружены, военнослужащие ВВС придумали существо, чтобы объяснить его отсутствие. Они назвали его «великим лаосским пожирателем грузовиков».
Схема, которая развернулась во Вьетнаме — система наведения, способная измерять только собственную эффективность и в итоге поверившая в собственные результаты, — на самом деле старше цифровых вычислений. В своей книге 1987 года «Возникновение американской воздушной мощи» Майкл Шерри прослеживает её истоки до основополагающей доктрины высокоточных бомбардировок, чья уверенность в собственных методах делала ненужным изучение результатов этих методов. «Вера в успех, — писал Шерри, — порождала неточность в том, как его достичь». К 1944 году аналитики операций по обе стороны Атлантики измеряли бомбардировки на общем языке промышленной оптимизации. Гражданские лица, выбитые из своих домов в результате бомбардировок, регистрировались как «выселенные». На каждую тонну сброшенных бомб аналитики рассчитывали, сколько часов работы противника было уничтожено. В одной из британских оценок сам бомбардировщик рассматривался как капитальный актив: один вылет против немецкого города обнулял стоимость постройки самолета, а всё остальное было «чистой прибылью». Шерри назвал получившийся образ мышления «технологическим фанатизмом».
Суть аргумента Шерри заключалась не в том, что кто-то выбрал разрушение. Дело в том, что люди, совершенствовавшие технику бомбардировок, перестали задаваться вопросом, для чего эти бомбардировки нужны. Но даже к тому времени, когда исследователи операций получили в своё распоряжение методы целеуказания, эта логика уже начала формироваться. Как утверждал историк науки Уильям Томас, аналитики операций не навязывали эту логику военным. Военные уже десятилетиями преобразовывали оперативный опыт в систематизированные процедуры. Никто не перестал выносить суждения. Но суждения больше не касались того, служит ли бомбардировка стратегической цели. Они касались того, как её измерить и как оптимизировать действия, исходя из этих измерений.
Карл фон Клаузевиц, прусский генерал XIX века, чьи труды до сих пор лежат в основе западной военной мысли, нашел слово для всего, что упускается из виду при оптимизации. Он назвал это «трением» — накоплением неопределенности, ошибок и противоречий, которое гарантирует, что ни одна операция не пройдет по плану. Но именно в трении формируется суждение. Клаузевиц заметил, что большая часть разведывательной информации ложна, что доклады противоречат друг другу. Командир, прошедший через это, учится видеть, как глаз адаптируется к темноте, не за счет улучшения освещения, а за счет того, что остается достаточно долго, чтобы использовать имеющийся свет. Именно это «пребывание» требует времени. Сократите время, и трение не исчезнет. Вы просто перестанете его замечать. Клаузевиц назвал такой вид планирования «войной на бумаге». План выполняется без сопротивления не потому, что его нет, а потому, что все, что связывает план с реальным миром, было исключено.
Воздушная мощь особенно уязвима к этому. Пилот никогда не видит, во что попадает бомба. Аналитик работает с изображениями, координатами и базами данных. Всё предприятие опосредовано представлениями о цели, а не самой целью, что означает, что разрыв между посылкой и миром может увеличиваться, и никто в этом процессе этого не почувствует. Вторжение в Ирак в 2003 году, операция, которую «Алый дракон» позже использовал в качестве эталона, является ярким примером. Марк Гарласко, начальник отдела по целеуказанию особо важных целей Пентагона во время вторжения, руководил самым быстрым циклом целеуказания, который США когда-либо проводили. Он рекомендовал 50 ударов по высокопоставленным иракским лидерам. Бомбы были точными — они попали точно туда, куда были направлены, — но разведывательная информация, лежащая в их основе, была неточной. Ни одна из 50 бомб не уничтожила намеченную цель. Через две недели после вторжения Гарласко покинул Пентагон и перешёл в Human Rights Watch, отправился в Ирак и стоял в воронке от удара, целью которого он сам и был. «Это не просто безымянные, безликие цели», — сказал он позже. «Это место, последствия которого люди будут ощущать ещё долгое время». Цикл наведения был достаточно быстрым, чтобы поразить 50 зданий, и слишком быстрым, чтобы обнаружить, что цель была не в те здания.
В руководстве по целеуказанию ВВС, действовавшем во время войны в Ираке, говорилось, что этого никогда не должно было произойти. Опубликованное в 1998 году, оно описывало шесть функций целеуказания как «взаимосвязанные», при этом специалист по целеуказанию «отступал назад», чтобы уточнить цели, и «двигался вперед», чтобы оценить осуществимость. «Лучший анализ, — говорилось в руководстве, — это обоснованное мышление, подкрепленное фактами и выводами, а не контрольный список». Но Джон Линдсей, служивший офицером военно-морской разведки в Косово, а позже изучавший целеуказание в специальных операциях в Ираке, обнаружил нечто иное. Как только цель фиксировалась на слайде PowerPoint — пакете разведывательной информации о цели, или TIP, — она превращалась в «черный ящик». Ставить под сомнение лежащие в ее основе предположения становилось все сложнее по мере того, как охота за целью набирала обороты, поскольку папка становилась все более объемной из того, что Линдсей называет «репрезентативными остатками». Механизмов для создания цели стало больше, чем для проверки качества ее построения. Персонал перестал интересоваться, являются ли некоторые цели потенциальными союзниками или вовсе не плохими парнями, потому что создание целей означало участие в охоте. В руководстве по целеуказанию тоже об этом предупреждали. «Если специалисты по целеуказанию не обеспечат полноценное целеуказание, — говорилось в нем, — то в дело вмешаются другие, благонамеренные, но недостаточно подготовленные и неопытные группы». В конце концов, так и случилось с Maven.
Книга Линдси «Информационные технологии и военная мощь» — это самое тщательное исследование того, как на самом деле работает система наведения на цель, которое я нашел, по крайней мере, отчасти потому, что она написана человеком, который действительно этим занимался. Во время воздушной войны в Косово генерал Уэсли Кларк потребовал 2000 целей, что позволяло легко обосновать связь любой цели с правительством Милошевича. ЦРУ за всю войну назначило всего одну цель: федеральное управление снабжения и закупок. У аналитиков был адрес, но не было координат, поэтому они попытались восстановить местоположение по трем устаревшим картам. В итоге они попали в китайское посольство, которое недавно переехало, в 300 метрах от здания, на которое они нацелились. Госдепартамент знал о переезде посольства. Военная база данных объектов об этом не знала. Проверка целей этого не заметила, потому что каждое подтверждение основывалось на предыдущем. Линдси называет это «круговым отчетом»: накопление подтверждающих документов, которые «создают иллюзию множественных подтверждений», одновременно усиливая одну ошибку. Презентация PowerPoint выглядела столь же тщательно подготовленной, как и сотни других, которые НАТО обрушило без происшествий. В ночь удара аналитик разведки позвонил в штаб, чтобы выразить сомнения. На вопрос о сопутствующем ущербе он не смог сформулировать никаких опасений. Удар был продолжен. В результате погибли три китайских журналиста. Линдсей, писавший тогда в своем дневнике, назвал результат «огромной ошибкой, идеально упакованной».
В 2005 году подполковник Джон Файф из ВВС США опубликовал исследование по оперативной целеуказанию во время вторжения 2003 года. Файф подчеркнул различия в подходах британских и американских войск к решению этой задачи. В Объединенном центре воздушных операций офицеры Королевских ВВС занимали ключевые руководящие должности наряду со своими американскими коллегами. Они действовали в условиях более строгих правил ведения боевых действий. Файф отметил, что их «более сдержанные, консервативные характеры» оказывали, по его словам, «очень позитивный сдерживающий эффект на порой хаотичный темп наступательных операций». Контраст между сменами был очевиден: американские командиры продвигались вперед на полной скорости, в то время как британские офицеры методично пересматривали риски и соотношение затрат и выгод, прежде чем одобрить выполнение операции. В сменах под руководством Великобритании не было инцидентов с «дружественным огнем» и значительного сопутствующего ущерба. Файф отмечает, что во многих случаях британский офицер, отвечавший за операцию, не позволял ей выйти из-под контроля. То, что следующее поколение реформаторов будет считать латентным периодом — задержкой между определением цели и нанесением удара по ней, — представляло собой окно, в течение которого можно было выявить ошибки.
С точки зрения эффективности, каждая описанная Файфом функция воспринималась как недостаток. В Великобритании смены происходили медленнее. Ограниченные правила ведения боя создавали дополнительные препятствия. Эффект затухания увеличивал время. Скорость спасает жизни, утверждают они, но самый быстрый цикл наведения до Maven был у Garlasco, и он поразил 50 зданий, не попав ни в одну из намеченных целей. Scarlet Dragon устранил все это. Разногласия по поводу наведения прекратились. Прекратились и обсуждения, колебания, и моменты, когда у кого-то появлялось время возразить или заметить, что что-то не так.
«Организациям, работающим на основе формальных процедур, необходим кто-то внутри процесса, кто будет интерпретировать правила, замечать исключения, распознавать ситуации, когда категории больше не соответствуют случаю. Если организация признает, что ее результаты зависят от усмотрения людей, которые ее выполняют, то процедура перестает быть процедурой, а становится рекомендацией, и авторитет, который организация получает, создавая впечатление, что она руководствуется правилами, рушится. Поэтому решение должно быть принято, и оно должно выглядеть иначе. Оно должно выглядеть как следование процедуре, а не как ее интерпретация».
«Бюрократическая двойная ловушка»: организация не может функционировать без оценки, и она не может признать эту оценку, не подорвав себя и не будучи воспринятой как «политически мотивированная». Одно из решений этой проблемы — заменить оценку числом. В своей книге 1995 года «Доверие к числам» историк науки Теодор Портер утверждал, что организации принимают количественные правила не потому, что числа точнее, а потому, что они более обоснованы. Оценка политически уязвима. Правила — нет. Процедура существует для того, чтобы дискреционные полномочия исчезли или казались таковыми. Фактическая гибкость системы полностью заключается в этой непризнанной интерпретационной работе, а это значит, что ее может устранить любой, кто ошибочно примет ее за неэффективность.
В 1984 году историк Дэвид Нобл показал, что, когда американские военные и американские производители автоматизировали свои заводы, они неизменно выбирали системы, которые были медленнее и дороже, но которые переносили принятие решений от рабочих к руководству. Цель заключалась не в эффективности — зачастую это было крайне расточительно — а в контроле. Рабочий, понимающий, что он делает, может принимать решения, которые учреждение не может контролировать. Перенесите это понимание в систему, и рабочему ничего не останется, кроме как следовать инструкциям. Алекс Карп, генеральный директор Palantir, описывает именно это достижение в своей книге «Технологическая республика», которая вышла в 2025 году. «Программное обеспечение теперь находится у руля», — пишет он, а аппаратное обеспечение «служит средством, с помощью которого рекомендации ИИ реализуются в мире». Его модель того, как это должно выглядеть, взята из природы: пчелиные рои и стаи скворцов. «Нет никакого посредничества в информации, полученной разведчиками после их возвращения в улей», — пишет Карп. Скворцам не нужно никакого разрешения сверху, им не требуются «еженедельные отчеты для среднего звена управления, презентации для руководителей высшего звена, совещания или телефонные конференции для подготовки к другим встречам». Это звучит освобождающе, даже утопично. Но сигнал, передаваемый без посредничества, — это также сигнал, который никто не может подвергнуть сомнению.
«Карп думает, что уничтожает бюрократию. Он её кодирует. Презрение к совещаниям, еженедельным отчётам и презентациям для высшего руководства — он рассматривает их как саму бюрократическую процедуру. Но это не так. Именно там люди интерпретировали процедуры, именно там можно было заметить, когда категории больше не соответствуют делу. Доктрина целенаправленного воздействия всё ещё существует. Теперь это просто столбцы на доске рабочих процессов, этапы, которые проходит цель на пути к поражению. Карп устранил свободу действий, от которой учреждение никогда не могло признать свою зависимость. Осталась бюрократия, которая может выполнять свои правила, но некому их интерпретировать. Бюрократия, закодированная в программном обеспечении, не гнётся. Она разрушается».
В качестве целевого объекта для школы Шаджаре-Тайебе был выбран военный объект. Люси Сачман, чья книга 1987 года «Планы и ситуативные действия»остается наиболее точным описанием того, как формальные процедуры скрывают работу, которая фактически приводит к их результатам, не удивилась бы. Планы всегда выглядят завершенными. Они достигают полноты, отфильтровывая все, что не поддается классификации. Этот пакет выглядел как любой другой в очереди. Но вне рамок пакета школа фигурировала в иранских бизнес-каталогах. Она была видна на Google Maps. Поисковая система могла бы ее найти. Никто не стал искать. При 1000 решениях в час никто и не собирался. Бывший высокопоставленный правительственный чиновник задал очевидный вопрос: «Здание годами находилось в списке целей. И все же это было упущено, и вопрос в том, как». Как же так получилось?
Конгресс не санкционировал эту войну. За две недели американские войска нанесли удары по 6000 целям. Школа была одной из них. Американские войска убили почти 200 человек, а в сообщениях СМИ указывалось на «ошибку ИИ», что приукрасило событие, представив его как нечто, что можно было бы предотвратить с помощью более совершенного алгоритма или более надежных механизмов защиты.
В дни после удара харизма ИИ организовала всю политическую дискуссию вокруг этой технологии: галлюцинировал ли Claude, соответствовала ли модель действительности, несет ли компания Anthropic ответственность за ее применение.
Конституционный вопрос о том, кто санкционировал эту войну, и юридический вопрос о том, является ли этот удар военным преступлением, были вытеснены техническим вопросом, который легче задать, но на который невозможно ответить в тех же терминах.
Дебаты вокруг Claude поглотили всю энергию. Вот что делает харизма.
«Это также скрыло нечто более глубокое: человеческие решения, которые привели к убийству от 175 до 180 человек, большинство из которых — девочки в возрасте от семи до двенадцати лет. Кто-то решил ускорить цепочку убийств. Кто-то решил, что обдумывание — это задержка. Кто-то решил создать систему, которая принимает 1000 решений о нацеливании в час и называет их высококачественными. Кто-то решил начать эту войну. Несколько сотен человек сидят на Капитолийском холме, отказываясь остановить её. Называя это «проблемой ИИ», мы даём этим решениям и этим людям возможность спрятаться».
*вражье сми









