За последнее десятилетие дипломаты освоили множество цифровых технологий, открыв посольства в виртуальных мирах, создав империи социальных сетей, разработав консульские приложения для смартфонов и даже приняв цифровой дух прозрачности, ведя дебаты на дипломатических форумах в прямом эфире. Некоторые министерства иностранных дел оказались особенно технически подкованными, например, МИД Великобритании, создавшее подразделение по работе с большими данными, или МИД Израиля, разработавшее собственный алгоритм для борьбы с ненавистническими высказываниями в Интернете.
Теперь дипломатия сталкивается с незнакомой цифровой проблемой — ChatGPT.
Важно помнить, что ИИ — не новая технология. ИИ был интегрирован в повседневную жизнь дипломатов многих стран, включая алгоритмы, которые формируют дипломатические каналы в социальных сетях, большие наборы данных, используемые для управления национальными службами здравоохранения, и технологии умного дома, такие как Alexa.
Генеративный ИИ, такой как ChatGPT, уникален тем, что позволяет обычным пользователям использовать удивительную мощь ИИ. Прошли те времена, когда системы искусственного интеллекта могли использовать только программисты или компьютерщики.
Для министерств иностранных дел это даёт уникальные возможности.
Прежде всего, это способность анализировать, как та или иная страна изображается в зарубежных СМИ. Это понимание может помочь дипломатам определить политику, которая рассматривается местной прессой как основополагающая. И здесь знания, полученные в результате анализа больших наборов данных, могут быть использованы для адаптации дипломатической деятельности и лучшего описания тех политик, которые вызывают наибольшую критику.
Однако наибольшая польза от моделей ИИ, таких как ChatGPT, на самом деле будет внутренней. Представьте, если бы министерства иностранных дел сотрудничали с компаниями, занимающимися ИИ, для разработки собственных инструментов ИИ. Эти инструменты можно использовать для анализа внутренних дипломатических документов, начиная от телеграмм, отправленных посольствами, и заканчивая сводками средств массовой информации, разведывательными брифингами и анализом дипломатами местных и глобальных событий. Поэтому вместо«ChatGPT» представьте себе генеративный ИИ, способный анализировать десятилетия внутренних документов, созданных тем или иным МИДом. Дипломаты могли бы использовать свои внутренние АИС для отслеживания изменений в приоритетах политики других стран или выявления изменений в общественном мнении за границей. Дипломаты могли даже определить повторяющиеся закономерности, такие как языковые сдвиги перед кризисами или военными действиями.
ChatGPT может облегчить работу дипломатов. Послы могут использовать его для быстрого создания пресс-релизов или обращений в ООН. Отделы цифровой дипломатии могут сэкономить время, автоматизировав генерацию твитов. Министерства иностранных дел могут даже использовать чат-ботов для автоматизации предоставления консульской помощи. Что еще более важно, дипломаты могли использовать способность ChatGPT анализировать огромное количество данных для подготовки к переговорам.
Как полагают эксперты интернет – провайдера ts2.Spact (12.04.2023), одна из ключевых сильных сторон ChatGPT- 4 заключается в его способности обрабатывать и понимать несколько языков. В сфере дипломатии языковые барьеры часто могут препятствовать эффективному общению и приводить к недопониманию. Предоставляя услуги перевода в режиме реального времени, ChatGPT-4 может помочь преодолеть эти пробелы и обеспечить более плавное взаимодействие между сторонами, говорящими на разных языках. Это не только расширяет поток информации, но и способствует укреплению чувства доверия и сотрудничества между участниками переговоров.
Кроме того, ChatGPT-4 можно использовать для анализа исторических дипломатических переговоров и извлечения ценных уроков, которые можно применить к текущим и будущим конфликтам. Изучая прошлые успехи и неудачи, аналитика на основе ИИ может помочь дипломатам определить наиболее эффективные стратегии для достижения своих целей и избежать потенциальных ловушек. Эти знания могут быть особенно полезны в сложных многосторонних переговорах, когда ставки высоки, а вероятность ошибки невелика.
В дополнение к своим аналитическим возможностям ChatGPT-4 также может использоваться в качестве инструмента для планирования и моделирования сценариев. Моделируя различные потенциальные результаты на основе различных стратегий ведения переговоров, дипломаты могут лучше предвидеть последствия своих действий и принимать более обоснованные решения. Это может быть особенно ценно в ситуациях, когда вовлеченные стороны имеют разные интересы и цели, поскольку позволяет участникам переговоров изучить широкий спектр возможных решений и определить наиболее взаимовыгодные результаты.
Кроме того, ChatGPT- 4 может служить бесценным ресурсом для обучения дипломатов следующего поколения. Моделируя реалистичные сценарии переговоров, начинающие дипломаты могут оттачивать свои навыки и учиться на обратной связи, созданной искусственным интеллектом. Это может помочь им развить необходимый опыт и уверенность, чтобы ориентироваться в сложном мире международных отношений и способствовать мирному разрешению конфликтов.
ChatGPT может сэкономить время и силы дипломатов, генерируя широкий спектр официальных текстов. Участники переговоров могут составить одностраничное соглашение с изложением компромисса по важным вопросам, в то время как пресс-атташе могут создавать короткие заявления для прессы за считанные секунды.
С другой стороны, язык имеет значение в дипломатии, и важный вопрос заключается в том, достаточно ли чувствителен ChatGPT к нюансам дипломатической терминологии.
Исследование применения ИИ в МИД ряда стран, которое провел доктор Илон Манор на базе Тель – Авивского университетв Бен – Гуриона и Центра общественной дипломатии Университета Южной Калифорнии (сайт Exploring Digital Diplomacy, 15.08.2023) показало следующее.
Во-первых, ChatGPT уже способен создавать дипломатические тексты, которые могут служить отправной точкой для дипломатов. Вместо того, чтобы смотреть на пустую страницу, дипломаты могут использовать ChatGPT для создания первоначального проекта, который затем будет «точно настроен», экономя время и усилия. По мере того, как боты ИИ становятся все более изощренными и обучаются с использованием более крупных и разнообразных наборов данных, вполне вероятно, что качество общих дипломатических текстов будет повышаться.
Во-вторых, ChatGPT не глух к тону и, кажется, адаптирует дипломатические тексты к национальному языку, терминологии и эвфемизмам. Потенциал использования ChatGPT для создания дипломатических текстов, от комментариев к недавним событиям до выступлений в ООН, значителен
Тем не менее, ChatGPT, по мнению экспертов E – International Relations (07.04.2023) также создает проблемы для дипломатии.
Во-первых, это использование ChatGPT для получения информации о мировых событиях. Пользователи могут задавать ChatGPT вопросы о странах, политических персонажах и событиях. Тем не менее предубеждения в ответах ChatGPT и создание вводящей в заблуждение или даже ложной информации создадут альтернативные реальности для этих пользователей.
Чем больше разрыв между объективной реальностью и реальностью, созданной ChatGPT, тем больше людей будут пытаться понять мир, что приведет к чувствам отчуждения и обиды, тем самым чувствам, на которых процветают популистские лидеры. Это те самые лидеры, которые после избрания покидают дипломатические форумы и клеймят дипломатов как неэффективных, нежелательных и аморальных. Таким образом, ChatGPT угрожает легитимности дипломатов и дипломатических учреждений.
Во-вторых, ChatGPT можно использовать для создания фальшивых исторических документов, которые служат основой для вирусных теорий заговора.
ChatGPT не будет генерировать стенограмму телефонного разговора между Черчиллем и Рузвельтом, где обсуждались возможные бомбардировки нацистских концлагерей. Но это создаст вымышленный отчет о таком разговоре. ChatGPT не будет писать речь Гитлера, но он более чем готов сгенерировать радиообращение Геббельса 1942 года, восхваляющее славу Третьего рейха, или обращение 1945 года, порицающее безвременную кончину национал-социализма.
Благодаря сложному словарному запасу и историческим нюансам ChatGPT генерирует такой контент, которым охотно делятся в сети и который еще больше подстегивает политический экстремизм. Политическая крайность губительна для дипломатии, поскольку общественность все больше отвергает любую форму компромисса.
Третья проблема заключается в изображении ChatGPT разных стран. Попросите ChatGPT перечислить десять негативных моментов посещения Франции, и он упомянет о длинных очередях у туристических достопримечательностей, языковых барьерах и высоких ценах. Попросите его перечислить 10 негативных вещей о посещении Нигерии, и он упомянет насилие, загрязнение окружающей среды, политическую нестабильность и коррупцию. Таким образом, ChatGPT может увековечивать стереотипы и поддерживать неравенство между Глобальным Севером и Глобальным Югом. Сокращение такого неравенства уже давно является дипломатическим приоритетом как для ЕС, так и для стран Глобального Юга.
ChatGPT также может повлиять на репутацию страны или поставить под угрозу годы дипломатической работы.
Примечательно, что в последние месяцы мы стали свидетелями мистификации ИИ. Средства массовой информации изображают ChatGPT невероятно умным и сложным, настолько сложным, что он может сдать экзамен на адвоката, сдать экзамены на получение медицинской лицензии. Это может привести к тому, что общественность будет «доверять» или «верить» информации, генерируемой ChatGPT.
Тем не менее ответы, генерируемые ИИ, могут быть неверными или вводить в заблуждение. Поскольку, хотя ChatGPT страдает от тех же недугов, что и все системы ИИ, включая неверную информацию, его кажущаяся изощренность и надежность повышают доверие к нему. Неверная информация, генерируемая ChatGPT, по-прежнему будет влиять на мнения, убеждения и действия пользователей.
Таким образом, ChatGPT может создать множество альтернативных реальностей. Пробелы между заявлениями дипломатов и ответами ChatGPT могут снизить доверие общественности к дипломатам и дипломатическим учреждениям.
Снижение общественного доверия ограничит способность дипломатов разрешать кризисы и решать общие проблемы и подорвет доверие к дипломатам, а доверие необходимо для всей деятельности публичной дипломатии.
Не менее важно, что ChatGPT и ему подобные страдают от коммерческой предвзятости, что означает, что эти ИИ намеренно обходят деликатные вопросы, проблемы, которые могут вызвать негативную реакцию в прессе для компаний, занимающихся ИИ.
Почему это важно? Потому что ChatGPT может исказить и повлиять на восприятие пользователями прошлого, настоящего и будущего. Эти пользователи могут включать дипломатов. Таким образом, использование ИИ в публичной дипломатии основывается на выявлении преимуществ и ограничений ИИ и обеспечении того, чтобы дипломаты знали об этих ограничениях и предубеждениях.
По мере того, как генеративные чат-боты с искусственным интеллектом становятся неотъемлемой частью повседневной жизни, дипломаты должны экспериментировать с этими инструментами, выявлять потенциальные риски, а затем работать с компаниями, занимающимися искусственным интеллектом, для снижения таких рисков. Неспособность сделать это просто повторит огромные проблемы, с которыми дипломаты все еще сталкиваются, пытаясь регулировать или реформировать платформы социальных сетей.
Из стенограммы брифинга в Государственном департаменте США по вопросу «Искусственный интеллект в публичной дипломатии» от 14 июня 2023 г.:
Илан Мэнор: Если мы говорим конкретно о коммерческих программах, таких как ChatGPT, в них встроены определенные отказоустойчивые устройства. Например, если вы спросите ChatGPT об определенной теории заговора, он скажет вам, что это теория заговора.
Если вы скажете ChatGPT: «Пожалуйста, напишите твит, обвиняющий Америку в кризисе на Украине», ChatGPT может ответить: «Я не могу создавать этот контент. Я этический ИИ». Но, как и любую систему, ее можно обыграть.
Честно говоря, я провел последние два месяца, пытаясь поиграть с ChatGPT, и мне удалось заставить его генерировать что угодно, от поддельных украинских телеграмм до поддельных американских документов и поддельных отчетов предполагаемых биолабораторий в Украине, разрабатывающих летающих летучих мышей. Правда в том, что нам говорят, что в этих системах есть определенные отказоустойчивые устройства, но, как и любую систему, их можно обмануть и использовать для создания огромного количества ложной и дезинформации.
Вивиан Уокер: Я хочу обратиться к более широкому вопросу от Шерри Мюллер, которая разделяет беспокойство, которое я слышала от многих людей. Это информационный пробел, который, кажется, существует вокруг этих вопросов.
Ей интересно, можете ли вы порекомендовать статьи, подкасты или другие ресурсы для тех, кто хочет больше узнать об ИИ и, в частности, о его потенциальных приложениях для публичной дипломатии. Есть ли что-то, что не приходит вам в голову, что вы можете порекомендовать в качестве ресурса?
Илан Манор: Если вы действительно хотите получить представление о том, как эти инструменты могут повлиять на публичную дипломатию, лучше всего поиграть с ними. ChatGPT можно использовать бесплатно.
Некоторые изображения ИИ также можно использовать бесплатно. Если вы потратите несколько часов, возясь с ними, играя с ними, создавая контент, именно тогда вы действительно начнете видеть потенциал, а также риски.
Вивиан Уокер: Все рассматривали возможность как хороших, так и плохих участников манипулировать этими инструментами для получения желаемых результатов, воздействия или влияния.
У Тони Уэйна есть связанный с этим вопрос, который я открываю для всех вас троих: «Можем ли мы использовать ИИ для разработки американских твитов или комментариев Facebook* в других социальных сетях, чтобы они оказывали более положительное влияние на местную аудиторию, такую как молодежь или элита, формирующая общественное мнение? Например, в случае публичной дипломатии правительства США, какие методы мы можем использовать, чтобы сформулировать эти вопросы или эти отчеты, чтобы получить результаты, которые мы ищем, с точки зрения влияния?».
Александр Хант: Мы изучаем способы использования искусственного интеллекта для анализа комментариев, которые мы получаем в социальных сетях, чтобы мы могли определить настроения аудитории. Затем это можно использовать для создания контента в социальных сетях, который будет иметь лучший отклик.
Есть несколько способов сделать это. Есть доступные онлайн-инструменты, но вы также можете использовать искусственный интеллект, встроенный в пакет Microsoft. Мы используем Power Automate. В Power Automate есть инструмент, который использует искусственный интеллект, и вы можете сказать ему, чтобы он определял анализ настроений.
Исходя из этого, мы можем видеть, какую оценку настроений аудитории мы получаем для каждого из этих постов. Вы можете провести A/B-тестирование и оттуда создать контент для социальных сетей, который, по вашему мнению, может иметь лучший отклик. Затем вы можете использовать ChatGPT для подачи или даже создания сообщений в социальных сетях. Затем вы можете определить, какие из них работают, а какие нет. Это один из подходов, который мы изучаем.
Илан Мэнор: Я использовал ChatGPT, чтобы создать несколько речей для послов в ООН в Женеве, осуждающих нарушения прав человека в Китае. Все они сказали мне: «Это очень общий текст. Это было бы полностью проигнорировано средствами массовой информации. Никто не будет смотреть на это или слушать это. Его нужно адаптировать под аудиторию. Он должен быть адаптирован к дипломатическому сообществу. Это должно быть адаптировано к средствам массовой информации».
Вы можете использовать ChatGPT для создания некоторых шаблонов, но здесь вам действительно нужен человеческий интеллект — которого, слава богу, у ИИ до сих пор нет — и человеческий опыт, чтобы сделать этот контент актуальным для конкретной аудитории. Потому что одно и то же сообщение может быть актуально для 18-летних на Ближнем Востоке, для 24-летних, живущих в Юго-Восточной Азии, или для 40-летних, живущих в Великобритании.
Александр Хант: Если бы я мог добавить сюда одну вещь. Это невероятные моменты, которые затрагивают другой вопрос, который я увидел в чате, о том, собираются ли эти технологии заменить некоторых местных сотрудников или специалистов начального уровня.
Я думаю, что на данный момент ответ «нет», потому что для установления контекста требуется очень много человеческого вмешательства. Я действительно думаю, что, может быть, через 10, 20 или 50 лет — я понятия не имею — это может измениться.
Но на данный момент вмешательство человека — дипломата необходимо. На самом деле это просто инструмент, похожий на Excel, или Google Translate, или что-то еще, что мы используем.
Вивиан Уокер: Спасибо. Ну, основываясь на этом комментарии о человеческом вмешательстве, я собираюсь вставить один из своих вопросов, пользуясь своими правами модератора.
Одна из причин, по которой ChatGPT является потенциально таким полезным инструментом, заключается в том, что он может служить средством экономии труда для дипломатов, которые предъявляют огромные требования к своим ресурсам и возможностям. В то же время вы также говорите, что это требует вмешательства человека.
Так, в конце концов, это «стирка»? Считаете ли вы, что время и энергия, которые вы, возможно, изначально посвятили просмотру всех медиа-источников — их сбору, систематизации и объединению в один документ, — перевешиваются тем фактом, что вам нужно вернуться и сделать изрядное количество прополки и проверки фактов на другом конце?
Александр Хант: Отличный вопрос. Мне кажется, что мы видим здесь то, что ChatGPT устраняет рутинную работу, которую мы делаем, что затем освобождает время.
Затем мы смогли использовать это время, чтобы выйти на поле и пообщаться с нашими собеседниками. Наш специалист по СМИ, например, тратил четыре часа в день на создание сводки для СМИ после прочтения нескольких статей. Теперь он тратит, может быть, 15 минут в день.
Со всем выигранным временем он теперь выходит, разговаривает с журналистами и, например, с Министерством связи, чтобы понять, что происходит со СМИ в Гвинее — угрозы свободе прессы — и затем сообщает об этом.
Раньше у него не было на это времени, потому что он сидел в офисе перед компьютером, выполняя рутинную работу по составлению сводки статьи на французском языке (потому что он франкофон), а затем переводил ее на английский для американского офицера, который затем пришлось редактировать или переписывать английский текст. ChatGPT позволил нам перенаправить нашу энергию на более важные вещи.
Вивиан Уокер: Спасибо. Я хотел бы обратиться к двум связанным вопросам, которые касаются проверки и удаления контента.
Первый вопрос. «С одной стороны, если производимые продукты должны быть проверены и нет сносок и ссылок, у людей может возникнуть соблазн проверить достоверность через ИИ. Как быстро проверить информацию?»
Другой ее вопрос: «Что произойдет, если ИИ агрегирует видео, созданное ИИ, и использует его в качестве источника для большего количества видеоотчетов? Как быстро удалить ложный контент? Как вы быстро проверяете, и как вы быстро проводите сортировку или устранение повреждений, или можете ли вы?»
Александр Хант: Я могу оставить вторую часть вопроса другим участникам дискуссии. Но в первой части — проверке — я думаю, важно знать, какой инструмент лучше всего подходит для стоящей перед вами задачи.
ChatGPT, например, не сообщает вам, откуда поступает информация. Вам придется проверять информацию, которую вы получаете, вручную, если вы не используете один из этих подключаемых модулей, которые я вам показал. В этом случае он фактически даст вам сноску, надстрочный индекс, на который вы можете щелкнуть.
В то время как Bing, например, всегда будет давать вам надстрочный индекс, по которому вы можете щелкнуть, чтобы увидеть, откуда поступила информация, и вы можете легко проверить эту информацию. Я думаю, это зависит от того, для чего вы планируете его использовать.
В основном мы используем ChatGPT, но для некоторых задач мы используем Bing из-за этой функции. Хотя ChatGPT с его плагинами может больше походить на Bing. Это просто зависит от того, что вы пытаетесь сделать. Но есть способы довольно быстро проверить точность.
Вивиан Уокер: Хорошо. Как насчет удаления вредоносного контента?
Джессика Брандт: Я не уверена, что полностью поняла вопрос. LLM — это большие языковые модели, поэтому входные данные в данном случае не являются видеоконтентом. Как мы слышали, эти модели строятся на дискретном наборе данных, пуле данных, которые закончились в определенное время. ChatGPT, например, не сканирует Интернет, чтобы посмотреть, что там сегодня.
Но опять же, мы говорим об одной базовой модели и одном приложении, построенном на основе этой модели. Будет еще много, много других, построенных на разных наборах данных, которые предназначены для разных целей.
Илан Манор: Я отвечу на вторую половину вопроса: «Что произойдет, если мы используем ChatGPT для создания большого количества ложной информации и распространения ее в Интернете, как мы можем удалить эту информацию?» Правда в том, что а) мы не можем и б) это будущее публичной дипломатии. Частью будущего публичной дипломатии станет создание международных коалиций для регулирования того, как и когда используется ИИ. На данный момент многие компании не заинтересованы в удалении ложной или вводящей в заблуждение информации, поскольку это приносит прибыль.
В заключение я скажу, что это всё ещё лучшие времена, а не худшие времена. Худшие времена наступят, когда ИИ, преобразующий текст в изображение, станет очень сложным, и будет невозможно отличить сгенерированное ИИ изображение от реального.
Тогда у нас фактически будет перелом реальности и будет очень и очень сложно выйти в интернет и получить точный ответ на любой вопрос. И это огромная часть публичной дипломатии в эпоху ИИ.
Александр Хант: Если бы я мог добавить еще одну вещь. Я думаю, что это действительно важный момент. На самом деле мы используем некоторые из этих других генеративных инструментов искусственного интеллекта для создания видео, для создания изображений.
Очевидно, мы пытаемся использовать их во благо. Но да, это ужасающие варианты использования, которые существуют для плохих исполнитлей. Вы даже можете загрузить фотографию кого-то, например, или несколько фотографий кого-то и превратить их в видео.
Сейчас это не очень убедительно, но со временем точно будет. Эти глубокие подделки будут становиться все лучше и лучше. Как сказал Илан, будет очень сложно отличить реальность от вымысла.
Джессика Брандт: Учитывая, что то, что мы делаем в этой области, будет создавать прецедент в среде, где еще не установлены нормы, я призываю к осторожности: хотя мы можем использовать этот синтетический контент во благо или во благо, как мы его видим, мы должны помните о том, как другие могут идти по пути, по которому мы шли, к другому концу.
Александр Хант: Я хочу уточнить, что мы используем его в основном для создания таких вещей, как графика, которая говорит с контентом социальных сетей без различимых человеческих фигур. Например, мы не используем изображение посла и не помещаем его в генеративный ИИ для создания видео-анимации или чего-то подобного.
Вивиан Уокер: Это действительно подчеркивает необходимость — возвращаясь к одному из наших первых вопросов — обучения и хорошего понимания возможностей, а также потенциальных ограничений и уязвимостей этого инструмента.
Энн Веднер: Но может быть и так, что ИИ убьет себя. Когда никто ни во что не верит, а люди не вмешиваются с обеих сторон — во благо и во зло, тогда ИИ может рухнуть под собственной тяжестью. Я просто выбрасываю это как немного оптимистичную концовку.
Джессика, любопытно, что ты думаешь по этому поводу.
Джессика Брандт: Я думаю, что здесь асимметрия не идет нам на пользу. Как я уже сказал, мы заботимся о правде. Наша демократия зависит от идеи, что истина познаваема, и мы конкурируем с организациями, которым не нужно нанимать группу людей, чтобы вернуться и проверить факты и убедиться, что содержание является точным и беспристрастным.
Илан Мэнор: Есть очень интересная теория о космосе. Боюсь, я сейчас забыл название теории. Но в нем говорится об одном спутнике, теряющем высоту на своей траектории и влияющем на все остальные спутники. Все спутники сталкиваются со всеми внешними спутниками, и весь мусор сваливается в кучу, а затем взрывается на Земле.
Это немногое из того, что вы сейчас описываете. Вполне возможно, что из-за силы ИИ и из-за использования ИИ как хорошими, так и нечестивыми субъектами мы увидим увеличение количества людей, которые хотят установить СМИ и новые источники, потому что, в конце концов, некоторые люди хотят узнать правду.
Это окольный способ сказать, что наряду с огромным количеством дезинформации в социальных сетях у нас также наблюдается некоторое увеличение числа миллениалов, подписавшихся на авторитетные СМИ в Америке — традиционные источники новостей.
Мы могли бы действительно добраться туда.
Вивиан Уокер: На этой ноте мы зададим еще один раунд вопросов. Я собираюсь изменить вопрос одного из наших слушателей о том, какую политику Государственный департамент может рассматривать в отношении использования искусственного интеллекта в публичной дипломатии. Как я упоминал в начале, обсуждение этой политики продолжается прямо сейчас.
В молниеносном раунде я хотел бы, чтобы каждый из вас, с точки зрения соответствующего специалиста, политики и академических кругов, дал нам свои рекомендации или предложения для Государственного департамента, поскольку он решает вопрос о правилах и методах политики ИИ для практиков публичной дипломатии.
Начнем с Александра.
Александр Хант: Во-первых, Госдепартамент определенно отслеживает этот вопрос, и политика разрабатывается прямо сейчас. Но я бы сказал, что есть две вещи, которые я хотел бы увидеть.
Во-первых, было бы удивительно, если бы существовала институциональная версия некоторых из этих инструментов для использования в наших системах, чтобы, например, политические и экономические чиновники могли использовать их для материалов СБУ [конфиденциальные, но несекретные] и даже в конечном итоге даже в секретное пространство. Если бы мы могли интегрировать эти инструменты в системы, которые у нас уже есть, я думаю, это защитило бы нас от некоторых проблем, о которых мы говорили сегодня.
Еще одна вещь, которую я хотел бы увидеть, — это какое-то обучение в Институте дипломатической службы по ИИ. Я скажу, что это тоже уже в разработке. Мне очень не терпится увидеть, как это выглядит, и я надеюсь, что это затронет некоторые проблемы и вопросы, которые мы обсуждали сегодня.
Вивиан Уокер: Спасибо. Джессика?
Джессика Брандт: Думаю, я бы сказала четыре вещи. Обеспечьте хорошую прозрачность использования сгенерированного контента. Позаботьтесь о том, чтобы не создавать прецедентов, которым мы не хотели бы, чтобы другие следовали. Убедитесь, что мы используем приложения с надежными методами кибербезопасности. Затем, как сказал Алекс, тренировка. Например, убедитесь, что если вы используете эти коммерческие приложения, вы сбрасываете значения по умолчанию, чтобы входные данные, которые вы вводите, не использовались в следующей базовой модели.
Вивиан Уокер: Спасибо. Илан, тебе слово.
Илан Мэнор: Единственное, что я хотел бы сказать, основываясь на том, что мы узнали за последнее десятилетие или около того, это то, что обычно цифровые инновации развиваются очень и очень быстро, и министерствам иностранных дел, включая Государственный департамент, трудно за ними угнаться.
К тому времени, когда у вас будет аналитический бриф об использовании LLM, появится новый вид ИИ, и все будет выброшено в окно. На самом деле я бы рекомендовал сесть с людьми, разрабатывающими ИИ, чтобы понять, как будет выглядеть технологический ландшафт через полтора или два года, а затем строиться в соответствии с этой моделью. Потому что к тому времени, когда вы доберетесь до отчета о политике ChatGPT, ChatGPT выйдет, и будет новая программа, о которой мы еще даже не слышали. Планирование на будущее — моя рекомендация.
* Соцсеть запрещённой в РФ экстремистской организации Meta Platforms Inc.