В соответствии с целями агентства по управлению ИИ в 2023 году ЦРУ создало Совет по управлению ИИ. В настоящее время агентство работает над меморандумом о национальной безопасности, который будет решать «уникальные проблемы разработки и управления ИИ в сфере национальной безопасности».

В 2023 году ЦРУ предприняло инициативу по созданию общей платформы общих служб, и с тех пор оно продолжает разрабатывать и развивать каталогизацию моделей и данных.

Развивая эти усилия, ЦРУ также разрабатывает платформу «модели как услуги» для поддержки многопользовательской среды для размещения микросервисов с целью централизации развертывания и обслуживания моделей ИИ.

Благодаря централизованной платформе «модели как услуга» команды ЦРУ по науке о данных будут иметь общий подход к развертыванию и размещению моделей ИИ как услуги, а команды по разработке приложений будут иметь централизованное местоположение, из которого можно интегрировать услуги ИИ в свои приложения. На данный момент это находится в стадии активной разработки.

ЦРУ осваивает генеративный ИИ

«Обычно скрытное ЦРУ так же увлечено генеративным ИИ, как и весь остальной мир, и, возможно, становится все смелее в публичном обсуждении того, как они используют зарождающуюся технологию для улучшения разведывательных операций», пишут аналитики Nextgov/FCW (03.07.2024).

«Мы были захвачены духом времени генеративного ИИ, как и весь мир пару лет назад», — сказала Лакшми Раман, директор ЦРУ по инновациям в области ИИ, 26 июня 2024 года на саммите Amazon Web Services Summit в Вашингтоне.

Лакшми Раман

 

Раман также сказала, что аналитики разведки США в настоящее время используют генеративный ИИ в засекреченных условиях для помощи в поиске и обнаружении, помощи в написании текстов, выработке идей, мозговом штурме и помощи в генерации контраргументов. Эти новые способы использования генеративного ИИ основываются на существующих возможностях разведывательных агентств, которым уже более десяти лет, включая перевод, транскрипцию и обработку данных на человеческом языке.

Как функциональный менеджер по сбору данных из открытых источников разведывательного сообщества, Раман сказала, что ЦРУ обращается к генеративному ИИ, чтобы идти в ногу с, например, «всеми новостями, которые поступают каждую минуту каждого дня со всего мира». ИИ, по словам Раман, помогает аналитикам разведки прочесывать огромные объемы данных, чтобы извлечь информацию, которая может быть использована для политиков. «В гигантском стоге сена ИИ помогает точно определить иголку».

«В нашем пространстве с открытым исходным кодом мы также добились большого успеха с генеративным ИИ, и мы использовали генеративный ИИ, чтобы помочь классифицировать и сортировать события с открытым исходным кодом, чтобы помочь искать, обнаруживать и выполнять уровни запросов на естественном языке к этим данным», — сказала Раман.

Что ждет ЦРУ и генеративный ИИ?

У Раман есть несколько интересных мыслей о будущем генеративного ИИ в ЦРУ. Она полагает, что он может стать обычной частью каждого из пяти управлений агентства. Однако, в конечном итоге она не видит, что это меняет миссию ЦРУ, а будет лишь служить «еще одним инструментом в нашем наборе инструментов, помогающим управлять взаимодействием человека и машины, которое теперь так необходимо для выполнения нашей работы».

«Мы не рассматриваем ИИ или технологию как нечто, что заменит нашу рабочую силу. Но мы рассматриваем это как нечто, что значительно улучшит нашу рабочую силу и поможет нам ускорить выполнение рутинных задач, в то время, как мы сможем использовать свой разум для работы более высокого порядка», — сказала она. «Поэтому мы определенно рассматриваем ИИ— и генеративный ИИ в частности — как нечто, что может быть включено в рабочие процессы по всему агентству, чтобы помочь нам усилить наше собственное суждение и быстрее проходить наши рабочие процессы».

В связи с этим Раман заявила, она ожидает, что ИИ и рабочие роли, ориентированные на ИИ, будут проникать во все подразделения ЦРУ.

«У нас в ЦРУ очень широкая миссия. У нас есть пять управлений, которые занимаются всем, от создания объективного анализа до сбора информации, создания уникальных, изысканных технических инструментов, направления нашего внимания на цифровой ландшафт, а также выполнения административных и логистических функций», — сказала она.

«Мы много думаем о рисках, и один из них заключается в том, как наши пользователи смогут использовать эти технологии безопасным, надежным и надежным способом». — сказала Раман. «Таким образом, речь идет о том, чтобы убедиться, что челочек может посмотреть на выходные данные и проверить их на точность».

«Вдумчивый» подход к ИИ

Экономисты считают, что генеративный ИИ может ежегодно приносить мировой экономике триллионы долларов. Однако эта технология не лишена рисков. Бесчисленные отчеты демонстрируют так называемые «галлюцинации» — или неточные ответы, — выдаваемые программным обеспечением генеративного ИИ. В условиях национальной безопасности галлюцинации ИИ могут иметь катастрофические последствия. Высокопоставленные сотрудники разведки признают потенциал этой технологии, но должны ответственно взвесить ее риски.

«Мы рады видеть возможности, которые есть у генеративного ИИ», — сказала директор по информационным технологиям разведывательного сообщества Адель Мерритт в интервью в апреле 2024 года. «И мы хотим убедиться, что мы вдумчиво подходим к тому, как мы используем эту новую технологию».

Мерритт курирует разработку стратегии в области информационных технологий в 18 агентствах, входящих в разведывательное сообщество. Она регулярно встречается с другими высокопоставленными должностными лицами разведки, в том числе с директором по данным разведывательного сообщества Лори Уэйд, недавно назначенным директором по ИИ разведывательного сообщества Джоном Бейлером и Ребеккой Ричардс, которая возглавляет подразделением по гражданским свободам, конфиденциальности и прозрачности Управления директора Национальной разведки, чтобы обсудить и обеспечить безопасность и соответствие усилий в области ИИ стандартам конфиденциальности и другим политикам.

«Мы также признаем, что существует огромный технический потенциал, который мы все еще должны использовать, чтобы убедиться, что мы не обращаем внимания на шумиху и понимаем, что происходит, и как мы можем привнести это в наши структуры», — сказала Мерритт.

Из-за того, что требования к безопасности в разведывательном сообществе очень строгие, гораздо меньше инструментов генеративного ИИ достаточно безопасны для использования в некоммерческом пространстве. Аналитики разведки не могут, например, получить доступ к коммерческому инструменту генеративного ИИ, такому как ChatGPT, в секретном информационном центре, где выполняются некоторые из их самых секретных работ.

Тем не менее, растущее число инструментов генеративного ИИ соответствует этим стандартам и уже влияет на миссии.

В марте 2024 года Гэри Новотны, начальник отдела управления программой ServiceNow в ЦРУ, объяснил, как по крайней мере один инструмент генеративного ИИ помогает сократить время, необходимое аналитикам для выполнения разведывательных запросов. Его замечания последовали за докладом 2023 года о том, что ЦРУ строит свою собственную большую языковую модель.

В мае 2024 года Microsoft объявила о доступности GPT-4 для пользователей своего облака Azure Government Top Secret, в число которых входят клиенты из сферы обороны и разведки. Представители Microsoft отметили, что аккредитация безопасности заняла 18 месяцев, что свидетельствует о том, насколько сложной может быть проверка защищенности программного обеспечения на самом высоком уровне даже для технологических гигантов.

Каждый из крупных поставщиков коммерческих облачных услуг берет на себя аналогичные обязательства. Google Cloud внедряет многие из своих коммерческих предложений ИИ в некоторые безопасные правительственные рабочие нагрузки, включая популярную платформу разработки Vertex AI. Аналогичным образом, облачная инфраструктура Oracle и связанные с ней инструменты ИИ теперь доступны в облаке для государственных учреждений США.

В то же время AWS, первый поставщик коммерческих облачных сервисов, обслуживающий разведывательное сообщество, стремится использовать свои лидирующие позиции на рынке облачных вычислений, чтобы лучше удовлетворять растущий спрос клиентов на генеративный ИИ.

«Реальность генеративного ИИ заключается в том, что у вас должна быть основа облачных вычислений», – сказал вице-президент AWS по глобальному государственному сектору Дэйв Леви в интервью Nextgov/FCW 26 июня 2024 года на саммите AWS. «Вы должны хранить свои данные в таком месте, где вы действительно можете что-то с ними сделать».

На саммите Леви объявил о реализации инициативы AWS Public Sector Generative AI Impact Initiative – двухлетних инвестиций в размере 50 млн долларов США, направленных на оказание помощи государственным и образовательным учреждениям в решении проблем, связанных с генеративным ИИ, включая обучение и техническую поддержку.

«Наша задача — помочь клиентам понять этот путь», — сказал Леви.

26 июня 2024 года главный исполнительный директор компании Anthropic, специализирующейся на искусственном интеллекте, Дарио Амодей и Леви совместно объявили о доступности моделей ИИ Claude 3 Sonnet и Claude 3 Haiku от Anthropic для спецслужб США. Коммерчески популярные инструменты генеративного ИИ теперь доступны через AWS Marketplace для разведывательного сообщества США, который, по сути, является засекреченной версией коммерческого облачного маркетплейса.

Хотя Anthropic отвечает за безопасность большой языковой модели, она сотрудничает с AWS из-за ее превосходных стандартов облачной безопасности и репутации лидера государственного сектора в области облачных вычислений. По словам Амодей, рынок частных объявлений, который позволяет государственным заказчикам запускать и тестировать программное обеспечение, прежде чем покупать его, также упрощает закупки для правительства. И это дает спецслужбам возможность использовать те же инструменты, что и противники.

«Intelligence Community Marketplace упрощает эту задачу, потому что AWS уже много раз работала с этой платформой, поэтому нам не нужно изобретать велосипед», – сказал Амодей.

Применение ИИ в ЦРУ требует нестандартного мышления

Технический директор ЦРУ Нанд Мулчандани занимается управлением технологическими инструментами.

Бывший генеральный директор Кремниевой долины, который руководил успешными стартапами, Мулчандани был назначен на эту должность в 2022 году после работы в Объединенном центре ИИ Пентагона.

Среди проектов, которые он курирует: Приложение генеративного ИИ, похожее на ChatGPT, которое использует данные с открытым исходным кодом (то есть несекретные, публичные или коммерчески доступные). Тысячи аналитиков из 18 разведывательных агентств США используют его.

Нанд Мулчалдани

 

Интервью с Мулчандани в Milwaukee Independent (06.07.2024):

Недавно Вы сказали, что к генеративному ИИ нужно относиться как к «сумасшедшему, пьяному другу». Не могли бы Вы рассказать об этом подробнее?

Нанд Мулчандани: Когда эти генеративные системы ИИ производят «галлюцинации», они иногда могут вести себя как ваш пьяный друг в баре, который может сказать что-то, что вытолкнет вас за пределы ваших обычных концептуальных границ и пробудит нестандартное мышление. Помните, что эти системы, основанные на ИИ, являются вероятностными по своей природе, поэтому они не являются точными (они склонны к фальсификации). Поэтому для творческих задач, таких как искусство, поэзия и живопись, эти системы отлично подходят. Но я бы пока не стал использовать эти системы для точных вычислений или проектирования самолета или небоскреба – в этих видах деятельности системы «достаточно точно» не работают. Они также могут быть предвзятыми и узконаправленными, что я называю проблемой «кроличьей норы».

Единственное известное мне в настоящее время использование большой языковой модели в масштабе ЦРУ — это ИИ с открытым исходным кодом под названием Osiris, который был создан для всего разведывательного сообщества. Это так?

Нанд Мулчандани: Это единственное, что мы раскрыли публично. Это был абсолютный хоум-ран для нас. Однако мы должны расширить дискуссию за пределы только LLM — например, мы обрабатываем огромные объемы контента на иностранных языках в различных типах медиа, включая видео, и используем другие алгоритмы и инструменты ИИ для его обработки.

Проект специальных конкурентных исследований, влиятельная консультативная группа, специализирующаяся на ИИ в национальной безопасности, опубликовала доклад, в котором говорится, что разведывательные службы США должны быстро интегрировать в свою работу генеративный ИИ, учитывая его подрывной потенциал. Проект устанавливает двухлетний график для выхода за рамки экспериментов и ограниченных пилотных проектов и «развертывания инструментов поколения ИИ в масштабе всего разведывательного сообщества». Так ли это?

Нанд Мулчандани: ЦРУ на 100% использует эти технологии и масштабирует их. Мы относимся к этому так же серьезно, как, вероятно, и к любой другой технологической проблеме. Мы считаем, что значительно опередили первоначальные сроки, так как уже используем инструменты Gen AI в рабочей среде. Более глубокий ответ заключается в том, что мы находимся на ранней стадии огромного количества дополнительных изменений, и большая часть работы заключается в более широкой интеграции технологии в наши приложения и системы. Это только начало.

Можете ли Вы назвать своих партнеров по большой языковой модели?

Нанд Мулчандани: Я не уверен, что сейчас интересно называть поставщиков. В настоящее время на рынке наблюдается взрывной рост количества LLM. Как умный клиент, мы не привязываем свою лодку к определенному набору LLM или определенному набору поставщиков. Мы оцениваем и используем практически все высокопроизводительные LLM, как коммерческие, так и с открытым исходным кодом. Мы не рассматриваем рынок LLM как единственный, где одна лаборатория лучше других.

Каковы наиболее важные сценарии использования больших языковых моделей в ЦРУ?

Нанд Мулчандани: Первичным является суммирование. Аналитик ЦРУ, работающий с открытыми источниками, не может переварить огромные массы информации, которую мы собираем каждый день. Таким образом, это изменило правила игры для понимания настроений и глобальных тенденций. Затем аналитики углубляются в конкретику. Они должны быть в состоянии — с полной уверенностью — аннотировать и объяснять данные, на которые они ссылаются, и то, как они приходят к соответствующим выводам. Наше ремесло не изменилось. Дополнительные материалы дают аналитикам гораздо более широкую перспективу — как секретные, так и открытые материалы, которые мы собираем.

Каковы самые большие проблемы адаптации генеративного ИИ в агентстве?

Нанд Мулчандани: Внутри страны нет большого культурного сопротивления. Наши сотрудники ежедневно сталкиваются с ИИ на конкурентной основе. Очевидно, что весь мир охвачен этими новыми технологиями и удивительным ростом их производительности и эффективности. Хитрость заключается в том, чтобы справиться с ограничениями, которые у нас есть на разделение информации и на то, как строятся системы. Во многих случаях разделение данных происходит не по соображениям безопасности, а по юридическим причинам. Как эффективно соединить системы, чтобы воспользоваться преимуществами ИИ, сохранив при этом все это? Появляются действительно интересные технологии, которые помогают нам продумать это и объединить данные таким образом, чтобы обеспечить шифрование и контроль конфиденциальности.

Генеративный ИИ в настоящее время так же сложен, как ученик начальной школы. Разведывательная работа, напротив, предназначена для взрослых. Все дело в том, чтобы попытаться обнаружить обман противника. Как поколение ИИ вписывается в эту работу?

Нанд Мулчандани: Во-первых, давайте подчеркнем, что человек-аналитик имеет первенство. У нас работают ведущие мировые эксперты в своих областях. И во многих случаях поступающей информации требуется огромное количество человеческих суждений, чтобы взвесить ее важность и значимость, в том числе и тех, кто может ее предоставлять. У нас нет машин, которые могли бы это воспроизвести. И мы не ищем компьютеры, чтобы выполнять работу экспертов в предметной области. То, на что мы смотрим, — это модель второго пилота. Мы считаем, что поколение ИИ может оказать огромное влияние на мозговой штурм, придумывая новые идеи. А также в повышении производительности и проницательности. Мы должны быть очень детерминированными в том, как мы это делаем, потому что при правильном использовании эти алгоритмы являются силой добра. Но при неправильном обращении они могут вам действительно навредить.

ИИ от Microsoft для ЦРУ

Microsoft развернула модель генеративного ИИ для ЦРУ и других разведывательных агентств США для анализа сверхсекретной информации, сообщает Bloomberg (12.05.2024). Microsoft объявила о предложении ИИ на выставке SCSP AI Expo 2024 для национальной конкурентоспособности в Вашингтоне 7 мая 2024 года. Модель, основанная на GPT-4, была создана таким образом, чтобы быть полностью отделенной от Интернета, что позволяет безопасно обрабатывать секретные данные.

«Это первый раз, когда у нас есть изолированная версия — когда изолированная означает, что она не подключена к Интернету — и она находится в специальной сети, доступ к которой имеет только правительство США», — сказал Уильям Чаппелл, главный технический директор Microsoft по стратегическим миссиям и технологиям. «Вы же не хотите, чтобы он учился на вопросах, которые вы задаете, а затем каким-то образом раскрывал эту информацию».

Уильям Чаппел

 

Разведывательные сообщества отчаянно нуждались в продукте, подобном ChatGPT, но риски безопасности с продуктами генеративного ИИ слишком высоки. Чаппелл сообщил Bloomberg, что новая модель безопасна благодаря облачной среде, которая изолирует ее от Интернета. В то время как большинство моделей ИИ обучаются на основе загруженных в них файлов, эта шпионская модель GPT-4 так не делает. Таким образом, правительство может сохранить эту модель «чистой» и предотвратить попадание секретной информации в платформу.

По-видимому, это первая в мире модель ИИ, созданная специально для классифицированных рабочих нагрузок, а также первая крупная языковая модель, работающая полностью независимо от Интернета.

В 2023 году ЦРУ развернуло свой собственный инструмент ИИ в стиле ChatGPT, чтобы просеивать горы публичной информации. Однако эта модель ИИ не использовалась ни в одной секретной документации.

Microsoft потратила 18 месяцев на работу над этой шпионской моделью GPT-4, которая включала в себя капитальный ремонт существующего суперкомпьютера с ИИ в Айове. Модель должна пройти тестирование и аккредитацию разведывательного сообщества, сообщает Bloomberg.

Развертывание модели ИИ для сверхсекретных рабочих нагрузок происходит в критический момент для репутации Microsoft в области кибербезопасности. Министерство внутренней безопасности США недавно опубликовало разгромный обзор методов обеспечения безопасности Microsoft, обвинив облачного провайдера в раскрытии электронных писем высокопоставленных правительственных чиновников. В отчете говорится, что культура безопасности Microsoft «требует пересмотра». Это побудило генерального директора Сатью Наделла сказать сотрудникам, что безопасность теперь является «главным приоритетом» Microsoft.

В то же время Microsoft не стесняется разрабатывать инструменты ИИ для государственных учреждений. Апрельский (2024 года) отчет The Interceptпоказал, что версия DALL-E от Microsoft Azure была представлена Министерством обороны США в качестве инструмента на поле боя. Microsoft уже давно сотрудничает с военными и правительственными учреждениями, хотя внедрение ИИ является относительно новым.

Обзор проекта Guardian

«Project Guardian» от Microsoft — это современная модель ИИ, разработанная специально для разведывательных служб США, включая ЦРУ. Эта модель, основанная на передовой архитектуре GPT-4, работает в полностью автономной среде с изоляцией от внешнего мира, что обеспечивает высочайший уровень безопасности. Разработкой Project Guardian руководил Уильям Чаппелл.

Модель размещена в статическом облаке, отключенном от Интернета, что не позволяет ей поглощать или обучаться на внешних данных, тем самым защищая конфиденциальную информацию от киберугроз и несанкционированного доступа.

Project Guardian предназначен для чтения и анализа файлов без обучения на основе обрабатываемых данных, что позволяет поддерживать целостность и безопасность информации. Он может отвечать на запросы и генерировать код, предоставляя мощные инструменты для анализа данных в разведывательном сообществе.

В настоящее время модель находится в рабочем состоянии и проходит тщательное тестирование и оценку различными разведывательными агентствами США. Процесс аккредитации, необходимый для ее официального развертывания, пока не завершен.

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...