The Atlantic опубликовал статью Натана Э. Сандерса и Брюса Шнайера «ИИ все еще может сорвать президентские выборы» (24.09.2024).

The Atlantic выкуплен лучшей подругой Камалы Харрис – женой покойного основателя Apple Стива Джобса — Лорен Пауэлл Джобс.

Поэтому статья начинается с описания опасностей в использовании ИИ в предвыборной борьбе со стороны сторонников Трампа:

«В течение многих лет ИИ подрывал способность общества доверять тому, что оно видит, слышит и читает. Национальный комитет Республиканской партии выпустил провокационную рекламу, предлагающую «сгенерированный искусственным интеллектом взгляд на возможное будущее страны в случае переизбрания Джо Байдена», демонстрируя апокалиптические машинные изображения разрушенных городских пейзажей и хаоса на границе.

Поддельные автоматические звонки, якобы от Байдена, призвали жителей Нью-Гэмпшира не голосовать на первичных выборах 2024 года.

Этим летом Министерство юстиции США расправилось с российской ботофермой, которая использовала ИИ для выдачи себя за американцев в социальных сетях, а OpenAI нарушила работу иранской группы, использующей ChatGPT для создания поддельных комментариев в социальных сетях.

Не совсем ясно, какой ущерб может нанести сам ИИ, хотя причины для беспокойства очевидны — эта технология облегчает злоумышленникам создание очень убедительного и вводящего в заблуждение контента. Учитывая этот риск, наблюдается некоторое движение в сторону ограничения использования ИИ, но прогресс был мучительно медленным в той области, где он может иметь наибольшее значение: выборы 2024 года».

Два года назад администрация Байдена опубликовала проект Билля о правах ИИ (куратором разработки этого проекта была, как сейчас стало известно, Камала Харрис – Е.Л., В.О.), направленный, среди прочего, на борьбу с «небезопасными или неэффективными системами», «алгоритмической дискриминацией» и «неправомерной практикой работы с данными». Затем, в 2023 году, Байден опирался на этот документ, когда издал свой указ об искусственном интеллекте (этот документ тоже готовился под началом Харрис – Е.Л., В.О.). Также в 2023 году лидер большинства в Сенате Чак Шумер провел в Вашингтоне саммит по искусственному интеллекту, в котором приняли участие миллиардеры Билл Гейтс, Марк Цукерберг и Илон Маск. Несколько недель спустя в Соединенном Королевстве состоялся международный саммит по безопасности ИИ, который привел к принятию серьезно звучащей «Декларации Блетчли», призывающей к международному сотрудничеству в области регулирования ИИ. Риски фальсификаций с помощью ИИ на выборах никто не заметил.

Тем не менее, ничто из этого не привело к изменениям, которые могли бы решить проблему использования ИИ в политических кампаниях в США.

25 июля 2024 года Федеральная комиссия по связи США (Federal Communications Commission) выступила с предложением, согласно которому политическая реклама на телевидении и радио должна раскрывать информацию о том, использует ли она ИИ. (Федеральная комиссия по связи США (FCC) не обладает юрисдикцией в отношении потоковой передачи, социальных сетей или веб-рекламы.) Это кажется шагом вперед, но есть две большие проблемы.

Во-первых, предлагаемые правила, даже если они будут приняты, вряд ли вступят в силу до начала досрочного голосования на выборах в этом году.

Во-вторых, предложение сразу же превратилось в партизанскую перепалку. Республиканский комиссар FCC заявил, что Национальный комитет Демократической партии организует изменение правил, потому что демократы отстают от Республиканской партии в использовании ИИ на выборах. Кроме того, он утверждал, что это — работа Федеральной избирательной комиссии.

Тем не менее, в августе 2024 года Федеральная избирательная комиссия объявила, что она даже не будет пытаться разработать новые правила против использования ИИ для выдачи себя за кандидатов в предвыборной рекламе с помощью аудио или видео, с помощью дипфейка. FEC также заявила, что у нее нет законных полномочий для принятия правил об искажении фактов с использованием аудио или видео. Кроме того, FEC посетовала, что ей в любом случае не хватает технических знаний для этого. Затем, уже в сентябре 2024 года, Федеральная избирательная комиссия пошла на компромисс, объявив, что намерена применять свои существующие правила против мошеннического искажения фактов независимо от того, с помощью какой технологии это происходит.

Сторонники более строгих правил в отношении ИИ в предвыборной рекламе, такие как Public Citizen, не сочли этого достаточным, охарактеризовав как «выжидательный подход» к борьбе с «избирательным хаосом».

Возможно, этого и следовало ожидать: свобода слова, гарантированная Первой поправкой к Конституции США, в целом разрешает ложь в политической рекламе. Но американская общественность дала понять, что хотела бы ввести некоторые правила, регулирующие использование ИИ в кампаниях.

В 2024 году около половины опрошенных американцев заявили, что, по их мнению, политические кандидаты, которые намеренно манипулируют аудио, изображениями или видео, должны быть отстранены от должности, если они выиграли выборы.

Основная проблема заключается в том, что Конгресс четко не возложил на какое-либо ведомство ответственность за то, чтобы политическая реклама основывалась на реальности, будь то продукт ИИ или старомодные формы дезинформации.

FCC несет ответственность за регулирование политической рекламы, но только в определенных средствах массовой информации: трансляциях, автоматических звонках, текстовых сообщениях. Однако, со временем FCC фактически ослабила правила в отношении политического спама, что привело к шквалу сообщений, которые многие получают сегодня. (Тем не менее, в феврале FCC единогласно постановила, что автоматические звонки с использованием технологии клонирования голоса ИИ, такие как реклама Байдена в Нью-Гемпшире, уже являются незаконными в соответствии с законом 30-летней давности.)

Просмотр информационных бюллетеней

По существу, это раздробленная система, в которой многие важные виды деятельности становятся жертвами пробелов в законодательной власти и войны за сферы влияния между федеральными агентствами. И по мере того, как политические кампании становятся цифровыми, они входят в онлайн-пространство с еще меньшим количеством требований к раскрытию информации или других правил. В отсутствие широкого регулирования некоторые штаты приняли свои собственные решения.

В 2019 году Калифорния стала первым штатом в стране, запретившим использование обманчиво манипулируемых СМИ на выборах, и осенью 2024 года усилила этот запрет с помощью ряда недавно принятых законов. Девятнадцать штатов приняли законы, регулирующие использование дипфейков на выборах.

Одна из проблем, с которой приходится сталкиваться регулирующим органам, заключается в широкой применимости ИИ: эту технологию можно использовать для множества различных задач, каждая из которых требует своего регулирования. Люди могут согласиться с тем, что кандидат отретушировал свою фотографию в цифровом виде, чтобы выглядеть лучше, но не сделать то же самое, чтобы его оппонент выглядел хуже. Мы привыкли получать персонализированные предвыборные сообщения и письма, подписанные кандидатом.

«Нормально ли получить робота с голосовым клоном того же политика, произносящего наше имя? И что нам следует делать с созданными ИИ предвыборными мемами, которыми сейчас делятся такие фигуры, как Маск и Дональд Трамп?».

Несмотря на тупиковую ситуацию в Конгрессе, эти вопросы представляют интерес для обеих партий. Это делает возможными определенные шаги, но, вероятно, не раньше выборов 2024 года и только если законодатели преодолеют серьезные препятствия. Один из рассматриваемых законопроектов, Закон о прозрачности выборов в области искусственного интеллекта, предписывает Федеральной избирательной комиссии требовать раскрытия информации, когда в политической рекламе используются СМИ, в основном созданные ИИ. Критики говорят, что это обременительно и увеличит стоимость политической рекламы. Закон о честной рекламе модернизирует закон о финансировании избирательных кампаний, расширяя полномочия FEC. Закон о защите выборов от вводящего в заблуждение ИИ запретит контент, созданный ИИ, на федеральных выборах, в Калифорнии и других штатах. Это многообещающие предложения, но либертарианские группы и группы по защите гражданских свобод уже сигнализируют о проблемах на основании Первой поправки. И, к сожалению, по крайней мере один комиссар Федеральной избирательной комиссии прямо сослался на рассмотрение Конгрессом некоторых из этих законопроектов в качестве причины, по которой его ведомство не должно действовать в отношении ИИ в настоящее время.

Одна группа, которая извлекает выгоду из всей этой неразберихи: технологические платформы. Когда мало или совсем нет очевидных правил, регулирующих расходы на политические кампании в Интернете, а также использование новых технологий, таких как ИИ, технологические компании имеют максимальную свободу для продажи рекламы, услуг и персональных данных для подобных кампаний. Это отражается в их лоббистских усилиях, а также в добровольных политических ограничениях, о которых они время от времени трубят, чтобы убедить общественность в том, что им не нужно более строгое регулирование.

Big Tech продемонстрировала, что они будут выполнять эти добровольные обещания только в том случае, если они принесут пользу отрасли. Facebook* однажды, на короткое время, запретил политическую рекламу на своей платформе. Затем разрешил. Теперь он даже допускает рекламу, которая безосновательно отрицает исход президентских выборов 2020 года. Политика OpenAI уже давно запрещает политическим кампаниям использовать ChatGPT, но обойти эти ограничения просто. Например, несколько компаний вызвались добавить водяные знаки к контенту, созданному ИИ, но их легко обойти. Водяные знаки могут даже усугубить дезинформацию, создавая ложное впечатление, что изображения без водяных знаков являются подлинными.

Эта важная государственная политика не должна быть оставлена на усмотрение корпораций, однако Конгресс, похоже, смирился с тем, что не будет действовать до выборов. Шумер намекнул NBC News в августе 2024 года, что Конгресс может попытаться прикрепить правила дипфейков к обязательным законопроектам о финансировании или обороне в сентябре 2024 года, чтобы гарантировать, что они станут законом до выборов. Совсем недавно он указал на необходимость действий «после выборов 2024 года».

Три законопроекта, перечисленные выше, — это только начало. «Федеральная избирательная комиссия и Федеральная комиссия по связи США (FCC) не должны спорить друг с другом о том, какая территория принадлежит какому агентству. И Федеральная избирательная комиссия нуждается в более значительной, структурной реформе, чтобы позволить ей сделать больше. Нам также нужна прозрачность и управление алгоритмическим распространением дезинформации на платформах социальных сетей.

Для этого необходимо, чтобы всепроникающее влияние технологических компаний и их инвесторов-миллиардеров было ограничено за счет более сильного лоббирования и защиты финансирования избирательных кампаний».

«Вводящие в заблуждение видео вредят нашему демократическому процессу, независимо от того, созданы ли они ИИ или актерами на звуковой сцене. Но насущная озабоченность по поводу ИИ должна быть использована для продвижения законодательной реформы. Конгрессу нужно сделать больше, чтобы контролировать грядущую волну дезинформации о выборах. Он должен действовать более смело, чтобы изменить ландшафт регулирования политических кампаний».

ИИ помогает формировать президентскую гонку 2024 года. Но не так, как опасались эксперты

Associated Press (21.09.2024) пишет в статье с таким названием, что «с приближением выборов 2024 года, первых с момента массовой популяризации генеративного ИИ, эксперты опасались худшего: социальные сети наводнили созданные ИИ дипфейки , которые были настолько реалистичны, что озадаченные избиратели не знали, чему верить.

Пока этого не произошло. Вместо этого избиратели видят гораздо более абсурдное: видео бывшего президента Дональда Трампа, едущего на кошке и держащего в руках штурмовую винтовку. Усатый вице-президент Камала Харрис, одетая в коммунистическую одежду. Трамп и Харрис страстно обнимаются.

ИИ играет важную роль в президентской кампании, даже если самые большие опасения относительно того, как он может угрожать президентским выборам в США, еще не материализовались. Поддельные изображения, созданные ИИ, регулярно рикошетят по сети, но многие из них настолько карикатурны и абсурдны, что даже самый наивный зритель не может воспринимать их всерьез.

Тем не менее, даже эти мемы могут быть проблематичными. Привлекательные фотографии и видео, созданные ИИ, некоторые из которых стремятся быть смешными, стали полезными инструментами для распространения ложных, иногда расистских сообщений с явным политическим уклоном — и кандидаты и их сторонники входят в число тех, кто делится ими в социальных сетях.

Например, Трамп и многие его союзники не только неоднократно продвигали теорию заговора о том, что гаитянские мигранты крадут и едят кошек и собак в Спрингфилде, штат Огайо, но и распространяли связанные с этим мемы, созданные ИИ. Один из мемов, опубликованный в аккаунте Трампа Truth Social, изображал его в роскошном самолете, окруженном кошками и белыми утками. Другой был изображен с группой котят, держащих табличку с надписью: «НЕ ДАЙТЕ ИМ СЪЕСТЬ НАС, голосуйте за Трампа!»

Франческа Триподи, эксперт по интернет-пропаганде, заявила, что подобные изображения, созданные с помощью ИИ, являются новыми вирусными средствами распространения старых антииммиграционных идей.

«Мемы, которые усиливают это утверждение, совсем не юмористичны. Когда у вас есть избранные должностные лица, которые используют эти образы как способ увековечения расизма и ксенофобии, это огромная проблема», — сказал Триподи, социолог из Университета Северной Каролины в Чапел-Хилл.

Республиканцы защищают эти изображения, называя их беззаботными шутками и побочными продуктами личности Трампа.

«Вокруг Дональда Трампа существует культура личности, которая поощряет такой чрезмерный стиль общения, превращающий вещи в комичные мемы», — сказал Калеб Смит, республиканский стратег. «Цель — развлекать, а не обманывать. Так и должно быть».

Не только сторонники Трампа

Трамп и его сторонники не единственные, кто создает мемы с ИИ, но они, похоже, используют генераторы изображений ИИ чаще, чем их коллеги-демократы. Некоторые пользователи левых взглядов опубликовали изображения ИИ, высмеивающие миллиардера Илона Маска, владельца X и открытого сторонника кампании Трампа. Демократы также опубликовали сгенерированные ИИ изображения Трампа в наручниках и преследуемого полицией, когда он был в суде на Манхэттене в 2023 году.

Однако кампания Камалы Харрис не склонялась к усилению контента, созданного с помощью ИИ, вместо этого сосредоточившись на трендах TikTok и других мемах, для создания которых не требуются модели ИИ.

«В настоящее время единственным разрешенным применением генеративного ИИ в ходе предвыборной кампании являются инструменты повышения производительности, такие как анализ данных и стандартная в отрасли помощь в кодировании», — заявила представитель кампании Харрис Миа Эренберг.

Что нужно знать о выборах 2024 года

Представитель предвыборной кампании Трампа Стивен Чунг сообщил, что стратегия кампании не изменилась с мая 2024 года, когда он отправил по электронной почте заявление о том, что кампания «не задействует и не использует» инструменты, предоставленные какой-либо компанией, работающей в сфере ИИ.

Использование фейковых, развлекательных, часто нелепых изображений для набора политических очков — это не новость. Но в отличие от слепленных в Photoshop изображений или политических карикатур, изображения, созданные ИИ, наносят более сильный удар своей гиперреалистичностью и могут привлечь новое внимание к политическому сообщению.

Хотя некоторые из изображений, связанных с домашними животными в Спрингфилде, были карикатурными и глупыми, многие посчитали, что они увековечивают вредоносную теорию заговора о сообществе, которое с тех пор получает угрозы о взрывах, что приводит к эвакуации школ и правительственных зданий.

«Одно дело — мемы, которые явно пародируют. Другое дело, когда они явно направлены на обман», — сказал представитель Адам Шифф, демократ из Калифорнии и ярый критик Трампа. «И мы уже видим, как кампания Трампа действительно размывает грань».

ИИ упрощает задачу

Скорость и доступность генеративных инструментов ИИ позволяют легко создавать необычный политический контент, который может собирать клики и лайки. Благодаря генераторам изображений ИИ, доступным любому человеку с подключением к Интернету, они являются дешевым и удобным способом для кампаний реагировать на онлайн-тенденции и доносить сообщение.

«Кампаниям уже очень давно приходится иметь дело с дезинформацией и недостоверной информацией. … Это не новая проблема. Но очевидно, что ИИ позволяет делать это быстрее, возможно, более убедительно и целенаправленно», — сказал Тедди Гофф, цифровой директор предвыборной кампании Барака Обамы в 2012 году.

Пол Инграссия, политический комментатор и юрист из Нью-Йорка, сказал, что он создал вирусное изображение Трампа, выходящего из логова льва, за считанные секунды, с помощью нейросети Grok, затем вставил его в свой информационный бюллетень и отправил его сотрудникам кампании Трампа. Аккаунт Truth Social Трампа опубликовал информационный бюллетень Инграссии, включая изображение, в тот же день.

«Я получил сообщение от своего контактного лица с президентом, и они сказали: «Президенту понравилось изображение, как вы его сделали? Кто его создал?» И я сказал: «Я сделал это для статьи», — сказал Инграссиа. «И он сказал: «Продолжайте свою замечательную работу, ему это нравится»».

Использование ИИ для политической сатиры и пропаганды не ограничивается США и наблюдалось на выборах от Индонезии до Нидерландов.

Более зловещие дипфейки также пытались повлиять на президентские гонки по всему миру. В 2023 году в Словакии изображения, созданные ИИ, выдавали себя за лидера либеральной партии, говорящего о фальсификации голосования за несколько дней до парламентских выборов. На праймериз в Нью-Гэмпшире в январе 2024 года аудиодипфейки президента Джо Байдена отправлялись в автоматических звонках избирателям-демократам, призывая их не голосовать. Инцидент быстро получил огласку и привел к уголовным обвинениям.

Принятие Трампом изображений, созданных ИИ, противоречит некоторым его прошлым комментариям. В интервью Fox Business в 2024 году Трамп назвал ИИ «очень опасным» и «таким страшным», потому что «нет реального решения» проблем, созданных передовыми технологиями.

В то же время некоторые республиканцы обеспокоены тем, как Трамп и Республиканская партия используют ИИ для создания политических мемов».

Что говорит социология о влиянии ИИ на президентскую кампанию США 2024 года?

Согласно новому исследованию Pew Research Center (опубликовано 19.09.2024)):

«Большинство американцев заявляет, что они обеспокоены влиянием ИИ на президентскую кампанию 2024 года; американцы также не доверяют крупным технологическим компаниям в плане предотвращения неправомерного использования их платформ с целью влияния на выборы.

Согласно опросу, проведённому среди американцев, 39% респондентов считают, что искусственный интеллект (ИИ) будет использоваться преимущественно в негативных целях во время президентской кампании. В то же время только 5% опрошенных уверены, что ИИ будет применяться исключительно в благих целях. Ещё 27% участников опроса предполагают, что использование ИИ будет распределено равномерно между хорошими и плохими намерениями.

Большинство взрослых американцев (57%), включая почти одинаковое количество республиканцев и демократов, заявляют, что они крайне или очень обеспокоены тем, что люди или организации, стремящиеся повлиять на выборы, будут использовать ИИ для создания и распространения ложной или вводящей в заблуждение информации о кандидатах и ​​кампаниях.

Просмотры по партиям

Большинство в обеих партиях продолжают считать, что технологические компании обязаны предотвращать ненадлежащее использование своих платформ. Но демократы и их сторонники (84%) чаще, чем республиканцы и их сторонники (72%), выражают эту точку зрения.

Хотя взгляды демократов мало изменились с 2020 года, доля республиканцев, которые теперь говорят, что технологические компании несут эту ответственность за предотвращение неправомерного использования своих платформ, выше, чем четыре года назад. В августе 2020 года 64% республиканцев заявили, что технологические компании несут за это ответственность.

Как со временем менялось доверие американцев к технологическим компаниям

За последние шесть лет снизилось доверие общественности к технологическим компаниям и их способности предотвратить неправомерное использование их платформ для влияния на выборы.

Сегодня лишь 20% американцев говорят, что они полностью или частично уверены в способности таких технологических компаний, как Facebook*, X, TikTok и Google, предотвратить неправомерное использование их платформ с целью повлиять на президентские выборы 2024 года.

В 2018 году треть американцев заявили, что уверены в том, что эти компании смогут это сделать.

Сегодня, в 2024 году 79% взрослых говорят, что они не слишком уверены или вообще не уверены в том, что технологические компании смогут остановить неправомерное использование своих платформ для влияния на выборы.

Просмотры по партиям

Большинство в обеих партиях говорят, что не уверены в том, что технологические компании предотвратят нецелевое использование своих платформ. Республиканцы и демократы стали менее уверенными с 2018 года.

80% республиканцев и независимых избирателей, симпатизирующих республиканцам, совсем или не слишком уверены в способности технологических компаний предотвратить неправомерное использование своих платформ, по сравнению с 72%, которые не были уверены в этом в 2018 году. Однако доля республиканцев, которые говорят, что они совсем не уверены, снизилась с 2020 года (33% сейчас, 43% тогда).

79% демократов и сторонников демократов заявляют, что не уверены в способности технологических компаний прекратить злоупотребления. Это на 20 процентных пунктов больше, чем в 2018 году, когда в этом не были уверены 62% демократов».

***

Почему именно демократы раздувают проблему ИИ на выборах?

Пока ситуация складывается не в их пользу.

В проигранных выборах можно будет легко найти главного виновного.

И им, скорее всего, станет ИИ!

За обоими кандидатами в президенты стоят лидеры Кремниевой долины, где и разрабатываются основные модели ИИ.

Профессионалы всегда найдут основания обвинить ИИ противника.

Влияние ИИ на результаты выборов может быть признано основанием считать их недействительными (естественно, после соответствующих судебных процедур).

*соцсеть компании Meta, признанной экстремистской и запрещённой в РФ

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...