Владимир Овчинский: Мощь искусственного интеллекта

О новых достижениях в области искусственного интеллекта (ИИ) каждый день сообщают ведущие информационные агентства. ИИ превратился в один из главных инструментов войны. О необходимости развития ИИ постоянно говорят лидеры мировых держав.

ИИ меняет глобальную динамику власти

28 февраля 2023 года в США вышла в свет книга Пола Шарре (вице-президента и директора по исследованиям Центра новой американской безопасности) «Четыре поля битвы: власть в эпоху искусственного интеллекта».

Шарре ранее работал специалистом по стратегическому планированию в канцелярии министра обороны США, работая над установлением политики в отношении беспилотных и автономных систем и новых оружейных технологий, а также определял политику Пентагона в отношении программ разведки, наблюдения и рекогносцировки.

Шарре исследует, как международная битва за самую мощную технологию — искусственный интеллект меняет глобальную динамику власти. Эта битва, по его словам, представляет собой глобальное соревнование в поисках лучших и наиболее эффективных данных, вычислительного оборудования, человеческих талантов и организаций, внедряющих технологии ИИ, которые определят следующую глобальную сверхдержаву.

Шарре утверждает, что доминирование ИИ определит следующую глобальную державу. Битва за мощь ИИ произведет революцию в мировых вооруженных силах и экономике.

12 марта 2023 г. Insider опубликовал интервью с Шарре о проблемах, отраженных в его книге. Вот его основные утверждения:

«Мы видели во время промышленной революции, что нации поднимались и опускались на мировой арене в зависимости от того, насколько быстро они индустриализировались. Теперь технология является ключевым фактором политической, экономической и военной мощи. И я думаю, что технологии искусственного интеллекта являются чрезвычайно мощными инструментами для способности страны или общества влиять на глобальный прогресс и международную среду».

«В книге исследуется соперничество США и Китая в области искусственного интеллекта. И рассматривается то, что происходит с искусственным интеллектом как с технологией общего назначения, очень похожей на электричество, компьютерные сети или двигатель внутреннего сгорания. Как и другие технологии, она имеет широкое применение в обществе.

В книге делается вывод о четырёх ключевых полях битвы глобальной конкуренции:

в области искусственного интеллекта или данных;

вычислительного оборудования или вычислений;

человеческого таланта;

институтов, необходимых для успешного внедрения систем ИИ».

«Вероятно, наиболее важным применением ИИ, которое поможет укрепить национальную мощь, является широкое применение ИИ для повышения экономической производительности и научных исследований. Когда технология ИИ будет внедрена в широкий спектр отраслей и повысит экономическую производительность, это будет иметь последствия второго и третьего порядка для национальной мощи за счёт увеличения ВВП, а затем позволит стране превратить экономическую производительность в другие, иногда более осязаемые инструменты национальной мощи — для разведки, создания спутников и обработки собранной разведывательной информации или строительства вооруженных сил».

«Технология искусственного интеллекта имеет большой потенциал в интеллектуальных приложениях. Я думаю, вполне вероятно, что министерство обороны США и разведывательное сообщество используют ИИ для анализа изображений, полученных со спутников или дронов, и, хотя они не признают этого публично, вполне возможно, что это играет роль в информации, которой США делятся с Украиной. Мы видели и другие примеры использования технологий искусственного интеллекта непосредственно украинскими силами на местах, в частности, некоторыми операторами гражданских беспилотников. И это действительно подчеркивает, насколько вездесущей является технология ИИ: вам не нужно быть самым продвинутым человеком в мире, чтобы использовать эту технологию, она довольно широко доступна.

Мы также видим в войне на Украине важность логистики, например, и операций по техническому обслуживанию, и это то, что основная часть того, что военные делают изо дня в день, это перемещение людей и вещей из пункта А до пункта Б — это очень похоже на Walmart или Amazon, просто то, что происходит в конце, отличается. Это место, где военные могут улучшить свою логистику, боеготовность, финансы, персонал и техническое обслуживание. Общая сумма этих эффектов с точки зрения военной эффективности может быть весьма значительной и весьма преобразующей».

«Что касается военных достижений в области ведения войны, то также есть несколько примеров. В конкурсе DARPA Alpha Dog целью было создание агента ИИ, который мог бы достичь сверхчеловеческих характеристик в симуляторе против человека в воздушном бою. ИИ преуспел, вышел лицом к лицу с опытным пилотом ВВС и полностью разгромил пилота-человека со счётом 15: 0 — человек не сделал ни одного выстрела против ИИ.

В частности, выстрелы «лицом к лицу» фактически запрещены при обучении пилотов-людей, потому что существует высокий риск столкновения, если пилот пытается маневрировать летательным аппаратом, когда вы мчитесь друг за другом со скоростью сотни миль в час. И в любом случае это чрезвычайно сложно сделать и требует сверхчеловеческого уровня точности, но всё это не было проблемой для агента ИИ. Он может делать эти выстрелы за доли секунды, избегая при этом столкновения. И агент ИИ научился делать все это сам — его этому не обучали. Система искусственного интеллекта, которая победила, была обучена на симуляторе и имела более 30 лет имитируемого времени полета. Это была одна из вещей, которые она просто выучила сама за все эти годы имитируемых воздушных боев».

«Есть множество мест, где ИИ может со временем оказать довольно значительное влияние на экономическую производительность. Один из них, конечно, вы знаете, — специальные приложения ИИ, которые могут улучшить финансы, медицину, транспорт или другие отрасли. Автомобили с автоматическим управлением должны быть на том этапе, когда они действительно эффективны и жизнеспособны на дорогах. Использование ИИ в медицине, для визуализации, — такие вещи могут быть очень полезными для всего общества. Но одна из самых захватывающих вещей в ИИ — это его способность повышать производительность в самых разных местах».

Когда я думаю об ИИ, я думаю о таких вещах, как распознавание лиц Clearview AI, когда правоохранительные органы могут использовать сканирование распознавания лиц гражданских лиц».

«Одним из действительно важных компонентов этой глобальной конкуренции в области искусственного интеллекта является нарастающая борьба за то, как ИИ используется внутри стран для внутренней безопасности и наблюдения, а также постепенное распространение, которое мы наблюдаем во всем мире, моделей техноавторитаризма в китайском стиле. В Китае находится половина из 1 миллиарда камер наблюдения в мире, и они всё чаще используют инструменты искусственного интеллекта, такие как распознавание лиц или распознавание походки, чтобы определить, кем являются люди, на основе их моделей походки и того, как они ходят. И в соединении этого с другими типами данных, такими как данные номерных знаков, звонки или данные геолокации на телефонах и покупательском поведении людей, чтобы отслеживать граждан Китая.

Китай экспортирует большую часть технологий за границу, поэтому 80 стран мира приобрели китайские технологии наблюдения. И, возможно, что мы всё чаще наблюдаем экспорт норм и законов, которые использует Китай, в другие страны для использования этой технологии. Итак, социальное программное обеспечение, если хотите, сочетается с физическим оборудованием некоторых технологий наблюдения».

«Одна из проблем, с которыми сталкиваются демократии, заключается в том, что пока нет единой модели использования ИИ. Для распознавания лиц, например, у нас есть лоскутная система, которая разрабатывается в Соединённых Штатах для различных правил, например, использования правоохранительными органами распознавания лиц в зависимости от того, где вы живете в Соединённых Штатах, а также в ряде других городов и штатов, где правоохранительные органы ввели запрет на использование распознавания лиц, я думаю, что одна из проблем, с которыми сталкиваются демократии, заключается в том, что децентрализованный характер власти внутри демократий означает, что поиск решения для управления технологиями занимает больше времени. Это занимает больше времени, потому что иногда быстрый ответ не является правильным».

«Какие ограждения должны быть установлены для этой технологии?

Регулирование ИИ в медицинских приложениях будет соответствовать более широкой парадигме того, как мы регулируем инструменты и безопасность медицинских устройств, а то, как мы регулируем ИИ в финансовых приложениях, будет отличаться от того, как мы регулируем торговлю и другие финансовые вопросы. Но я думаю, что ИИ не соблюдает правила, и стоит задуматься о том, что у нас есть только чистый воздух и вода, и безопасные дороги, и безопасные авиаперелеты, и безопасная еда в Америке из-за государственного регулирования. промышленности.

Нам нужна некоторая нормативно-правовая база для очень крупных моделей обучения. Я думаю, что это тот разговор, который нам нужно начать, отчасти потому, что эти большие модели во многих случаях имеют двойное назначение. Их можно было бы использовать для генерации текста и общения с ними или написания эссе, но их также можно было бы использовать для поиска киберуязвимостей, в принципе, если бы они были более сложными, их можно было бы использовать, чтобы помочь кому-то спланировать террористическую атаку, чтобы вызвать навредить или придумать, знаете ли, не сегодня, а в будущем сделать биологическое оружие или какое-то другое разрушительное устройство. И это разговор, который нам нужно начать прямо сейчас, отчасти потому, что темп развития технологий намного, намного, намного выше, чем темп политических дискуссий в Вашингтоне».

«Я думаю, что у нас должны быть оговорки в отношении технологии ИИ, потому что сегодня с технологией ИИ много проблем: она ненадежна, часто очень хрупка в том смысле, что системы ИИ могут хорошо работать в некоторых контекстах, а затем часто могут довольно серьезно выйти из строя в других.

Одним из моих любимых примеров такой хрупкости была, как сообщается, одна из ранних версий AlphaGo, агента ИИ, который достиг сверхчеловеческой производительности в игре Го. Он был обучен только для определенного размера, и это хороший пример проблем, которые часто возникают довольно хрупко и не позволяют распространить одну ситуацию на другую.

Мы наблюдаем некоторые из них совсем немного времени, например, при внедрении этих чат-ботов в поиск. Я имею в виду, что Microsoft и Google совсем недавно публично развернули чат-боты с искусственным интеллектом, которые не были готовы. И проблема не в том, что Bing заявляет о своей любви к пользователям и говорит, что тот, с кем общается чат, должен оставить свою жену, чтобы быть с ним — я имею в виду, что это довольно странно — а настоящая проблема в том, что лучшие учёные в области искусственного интеллекта в мире не знает, как помешать этим чат-ботам сделать это.

И поэтому для меня это то, что должно заставить нас задуматься, когда мы думаем о том, как мы используем эти системы ИИ в более реальных приложениях. В настоящее время риск того, что чат-бот заденет чьи-то чувства, не ошеломляет мир, но поскольку мы видим, что ИИ интегрирован в приложения с более серьёзными последствиями, мы хотим убедиться, что эти системы будут делать то, что мы от них хотим.

Поведение некоторых крупных компаний здесь не было сверхответственным. И это мы уже видим с Open AI, и Microsoft, и Google видели спешку за последнее время».

«Я бы не сказал, что оптимистично отношусь к технологии. Я имею в виду, что я довольно оптимистичен в отношении того, куда движется ИИ с точки зрения возможностей. Я просто думаю, что мы наблюдаем огромный прогресс, и я думаю, что нет никаких признаков его замедления в ближайшем будущем. Но есть много рисков, связанных с ИИ. Я бы просто сказал, что с оптимизмом смотрю на способность общества справиться с этими рисками. Я думаю, что когда мы делаем шаг назад и смотрим на человеческий прогресс, это лучшее время для жизни».

«Я действительно думаю, что есть очень серьезные проблемы с технологией искусственного интеллекта. Беспокоит то, что эти проблемы кажутся очень сложными. Эти технические проблемы, связанные с тем, чтобы заставить ИИ делать то, что вы хотите, довольно сложны. И я думаю, что важно, чтобы мы ясно представляли себе некоторые из этих технических проблем».

Представления об ИИ

Кей Ферт-Баттерфилд (глава отдела искусственного интеллекта и машинного обучения на Всемирном экономическом форуме), подробно описала на сайте ВЭФ (08.03.2023) различные типы ИИ, важные разработки и приложения в области машинного обучения и, возможно, самое главное, распространенные недоразумения об ИИ.

Какие существуют типы ИИ?

«ИИ состоит из нескольких разных моделей машинного обучения. К ним относятся, помимо прочего, обучение с подкреплением, обучение с учителем и без учителя, компьютерное зрение, обработка естественного языка и глубокое обучение.

Все модели машинного обучения разрабатывают и совершенствуют статистические прогнозы, но различаются по использованию и пониманию данных. Например, ChatGPT — это чат-бот на базе искусственного интеллекта, который может предсказывать наиболее вероятное следующее слово в предложении. Благодаря многочисленным и относительно точным прогнозам ChatGPT может создавать связные абзацы».

Что большинство людей неправильно понимает в отношении ИИ?

«ИИ — это не интеллект — это предсказание. С большими языковыми моделями мы наблюдаем увеличение способности машины точно предсказывать и выполнять желаемый результат. Но было бы ошибкой приравнивать это к человеческому интеллекту.

Это становится очевидным при изучении систем машинного обучения, которые по большей части всё ещё могут очень хорошо выполнять только одну задачу за раз. Это не соответствует здравому смыслу и не эквивалентно человеческому уровню мышления, который может легко облегчить многозадачность. Люди могут брать информацию из одного источника и использовать ее по-разному».

В чём вы видите наибольший потенциал ИИ?

«ИИ обладает огромным потенциалом для того, чтобы приносить пользу в различных секторах, включая образование, здравоохранение и борьбу с изменением климата. Например, FireAId — это компьютерная система на базе искусственного интеллекта, которая использует карты риска лесных пожаров для прогнозирования вероятности лесных пожаров на основе сезонных переменных. Он также анализирует риск и серьезность лесных пожаров, чтобы помочь определить распределение ресурсов.

Тем временем в здравоохранении ИИ используется для улучшения ухода за пациентами за счёт более личной и эффективной профилактики, диагностики и лечения. Повышение эффективности также снижает расходы на здравоохранение. Более того, искусственный интеллект должен радикально изменить — а в идеале — улучшить уход за пожилыми людьми».

Как вы думаете, где потенциальное влияние ИИ было преувеличено?

«Преувеличения в отношении потенциала ИИ в значительной степени связаны с непониманием того, что ИИ на самом деле может сделать. Мы всё ещё видим много машин с искусственным интеллектом, которые постоянно галлюцинируют, а это означает, что они делают много ошибок. Так что идея о том, что этот тип ИИ заменит человеческий интеллект, маловероятна.

Ещё одним препятствием для внедрения ИИ является тот факт, что системы ИИ получают данные из нерепрезентативных источников. Подавляющее большинство данных создается определенной частью населения Северной Америки и Европы, что приводит к тому, что системы искусственного интеллекта отражают это мировоззрение. ChatGPT, например, в основном извлекает письменное слово из этих регионов. Между тем почти 3 миллиарда человек до сих пор не имеют постоянного доступа к Интернету и сами не создали никаких данных».

Каковы самые большие риски, связанные с ИИ?

«Системы искусственного интеллекта невероятно новы. Поэтому компании и широкая общественность должны быть осторожны, прежде чем использовать их. Пользователи всегда должны проверять, что система искусственного интеллекта была спроектирована и разработана ответственно и хорошо протестирована.

Риск использования непроверенных и плохо разработанных систем искусственного интеллекта не только угрожает ценности и репутации бренда, но и делает пользователей уязвимыми для судебных разбирательств. Например, в Соединённых Штатах правительственные постановления ясно дали понять, что предприятия будут нести ответственность за использование дискриминационных инструментов найма на базе ИИ.

Есть также серьезные проблемы с устойчивостью, связанные с ИИ и передовыми компьютерными системами, которые используют огромное количество энергии для разработки и эксплуатации. Уже сейчас углеродный след всей экосистемы информационных и коммуникационных технологий равен выбросам топлива в авиационной отрасли».

Какие шаги можно предпринять, чтобы обеспечить ответственную разработку ИИ?

«Прежде всего, люди должны подумать о том, является ли ИИ лучшим инструментом для решения проблемы или улучшения системы. Если ИИ подходит, система должна быть тщательно разработана и тщательно протестирована, прежде чем она будет выпущена для широкой публики.

Пользователи также должны быть осведомлены о правовых нормах, а государственный и частный секторы должны работать вместе, чтобы разработать адекватные ограничения для приложений ИИ.

Наконец, пользователи должны использовать различные инструменты и ресурсы, которые были разработаны, чтобы помочь ввести ответственный ИИ».

Музей ИИ — Апокалипсиса

В Сан-Франциско, США открылся Музей рассогласования. Он представляет собой постапокалиптический мир, в котором ИИ уже уничтожил большую часть человечества, а затем, поняв, что это плохо, создал этот музей как памятник и принес извинения перед оставшимися людьми.

Это художественная инсталляция с целью расширения знаний об искусственном интеллекте и его силе разрушения и добра. Цель авторов — создать пространство для размышлений о самой технологии и критического осмысления искусственного интеллекта и его последствий. Авторы надеются вдохновить и заручиться поддержкой для разработки и принятия мер по снижению рисков, которые можно предпринять, чтобы обеспечить позитивное будущее по мере развития ИИ.

Ведь развитие ИИ резко ускорило научный и технологический прогресс и быстро переносит человечество в незнакомое будущее.

По замыслу авторов:

«Мы все больше обязаны взаимодействовать с машинами для работы и принятия решений, влияющих на жизнь людей (например, принятие решений с помощью компьютера в здравоохранении, уголовном правосудии, кредитовании). Если эта технология не будет продуманно разработана в соответствии с человеческой жизнью, она может дестабилизировать цивилизацию и даже привести к уничтожению человечества. Он также обладает огромным потенциалом для радикального улучшения жизни и развития цивилизации.

Мы в состоянии оказать огромное влияние на будущее человечества, разрабатывая технологии и соответствующие меры защиты от несогласованных целей в искусственном интеллекте, чтобы использовать его удивительные возможности.

Мы надеемся улучшить общественное обсуждение и понимание этой мощной технологии, чтобы вдохновить на продуманное сотрудничество, создание соответствующей нормативно-правовой среды и продвижение к обнадеживающему и яркому будущему».

ИсточникЗавтра
Владимир Овчинский
Овчинский Владимир Семенович (род. 1955) — известный российский криминолог, генерал-майор милиции в отставке, доктор юридических наук. Заслуженный юрист Российской Федерации. Экс-глава российского бюро Интерпола. Постоянный член Изборского клуба. Подробнее...