Автор этих строк участвовал в Ежегодной встрече полицейских экспертов ОБСЕ, которая проходила в Вене 23 – 24 сентября т.г. Впервые обсуждалась тема «Искусственный интеллект и правоохранительные органы: союзники или противники?».
На форуме выступило немало специалистов, но, на наш взгляд, наиболее содержательными и полезными для всех правоохранительных органов стран ОБСЕ были выступления директора Инновационного центра Интерпола (расположен в Сингапуре) Аниты Хазенберг и руководителя Центра искусственного интеллекта и робототехники Межрегионального НИИ ООН по вопросам преступности и правосудия (ЮНИКРИ) Ираклия Беридзе.
Они подчеркнули, что достижения в области ИИ создают новые беспрецедентные возможности для правоохранительной и правоприменительной деятельности, прежде всего, по направлению идентификации фигурантов или транспортных средств, связанных с уголовными делами и другими нарушениями. ИИ способствует повышению качества аналитики и прогнозирования криминальной деятельности, созданию эффективных комплексов противодействия поведенческой агрессии в виде манипулирования контентными потоками, загрязнением информационного пространства фейками и т.п. При всех возможностях ИИ и робототехники правоохранительным органам надо помнить, что они – не панацея, а всего лишь инструмент. Соответственно ими, как любыми инструментами, надо уметь эффективно пользоваться.
Правоохранительные и правоприменительные органы втянуты в тяжелое и изматывающее соревнование по эффективности использования ИИ и робототехники с криминалом. При этом следует помнить, что использование ИИ и робототехники правоохранительными и правоприменительными органами затрагивает широкий диапазон проблем экономического, юридического, этического, политического и даже демографического характера.
Обсуждение позволило четко сформулировать два, в значительной степени не пересекающихся направления развития ИИ и робототехники.
Первое носит поисковый, исследовательский характер и на сегодняшний момент не может похвастаться сколько-нибудь значимыми практическими результатами. Речь идёт о так называемом сильном (универсальном) ИИ, в полном объеме способном заменить человека.
Другое направление развивается ошеломительными темпами. Это – так называемый, слабый ИИ, и базирующиеся на нем полностью автоматизированные робототехнические системы. В рамках этого направления ИИ не стремится заменить человека по всей гамме его способностей и возможностей. Он решает конкретные задачи, связанные либо с распознаванием, либо с установлением взаимосвязей на основе матричных и статистических методов.
Грубо говоря, слабый ИИ может быть уподоблен механическим вычислительным машинам, типа арифмометра, в том же смысле, в котором реактивный самолет может быть уподоблен воздушным шарам. ИИ и робототехника такого рода не стремятся полностью заменить человека. Их задача научиться выполнять конкретные операции на порядки лучше, чем человек. Принципиально нового в этом ничего нет. Строго говоря, впервые подобную задачу человечество решало, когда сконструировало обычный бензиновый автомобиль. Он передвигался по дороге на порядок быстрее, чем мог бежать самый быстрый и выносливый спортсмен или карета, запряженная лошадьми. ИИ подобен автомобилю, за тем исключением, что решает он не физические, а информационные задачи.
Преступники охотно берут на вооружение ИИ и робототехнику. В основном на сегодняшний день это происходит по трем направлениям:
— во-первых, ИИ используется высокотехнологичным криминалом при совершении сложных киберпреступлений, связанных либо с атакой на крупные торговые порталы, либо с попытками взять на себя управление объектами интернета вещей – от дома до системы управления водохранилищами;
— во-вторых, на сегодняшний день, особенно в Северной Америке, Южной Азии повседневностью стало использование управляемых с участием ИИ дронов и других робототехнических систем для перевозки преступных товаров, прежде всего, наркотиков, человеческих донорских органов и т.п., а также для доставки запрещенных товаров на территорию тюрем и исправительных учреждений;
— в-третьих, и это представляет наибольшую угрозу для глобальной экономики, продвинутые преступники используют ИИ и боты для атак на финансовую инфраструктуру банков, инвестиционных компаний, финансовых институтов. В настоящее время уже более 80% объёма транзакций на рынках капитала осуществляется в рамках полностью автоматической торговли на базе электронных платформ. Преступники стремятся нарушить целостность этих платформ и либо украсть деньги, либо осуществлять манипуляцию рынками путем внесения изменений в программы.
Основной акцент в выступлениях сделан на том, что ИИ и робототехника могут сделать для правоохранителей. Здесь выделено четыре главных направления: сбор информации, хранение и обработка информации; аналитические и прогнозные модели; осуществление цифровых расследований; обеспечение коммуникаций и взаимодействия.
Все выступающие подчеркивали, что ИИ и робототехника – это в значительной степени обоюдоострый меч. Его могут использовать как полицейские, так и преступники, и тем более террористические группы. Также вполне вероятно, что ИИ породит новые типы преступности, о которых мы пока не догадываемся. Как показывают экспертные опросы, подавляющее большинство исследователей и практиков в области ИИ уверены, что любое решение, работающее на правоохранителей может быть использовано в своих целях и криминалом.
С точки зрения использования ИИ в преступных действиях выделяются три главных направления:
Первое — цифровые нападения. Они включают в себя как элементарный автоматизированный фишинг, так и разработку и применение многофункциональных платформенных вредоносных программ. Такие программы нацелены не только на проникновение в защищенные сети и изъятие из корпоративных сетей информации, но и на разрушение или перехват управления физическими структурами, управляемыми корпоративным или федеральным ИИ.
Второе – политические нападения. В современном мире это отнюдь не покушения или убийства политических деятелей. Это – манипулирование коллективным поведением на основе создания эхо-интернет камер, потоков фейковых новостей, запуска фальсифицированных видеороликов и фотографий, и в целом дискредитация любой информации в сети, особенно той, которая могла быть использована в качестве доказательств, предъявляемых в суде.
Третье – физические нападения. Если раньше преступники нападали на человека, используя кулаки, ножи или пистолеты и винтовки, то сегодня уже зарегистрированы нападения с использованием интернета вещей. В Соединенных Штатах зафиксировано несколько случаев взятия под контроль при помощи вредоносного софта имплантатов — физических устройств, вживленных в человеческое тело. Также для физических нападений, особенно террористами, используются дроны и беспилотные автомобили.
Всерьез обсуждение использования ИИ и робототехники в правоохранительной и правоприменительной практике началось с конца нулевых годов. Практическое использование – с середины десятых. По этой причине между странами мира уже сложились и с каждым годом все четче проявляются различия в использовании правоприменительными и правоохранительными органами, в первую очередь полицейскими «на земле», достижений ИИ и робототехники. Ряд стран, прежде всего Соединенные Штаты, Великобритания, Китай, Япония, Южная Корея, Израиль не только создали в структуре правоохранительных органов Центры адаптации ИИ и робототехники к повседневной работе правоохранителей, но и широко осуществляют контакты с университетами и бизнесом как для создания полицейского софта с элементами ИИ, так и для обучения сотрудников правоохранительных органов ИИ и робототехнике.
Если подытожить практику работы подобных центров, то она демонстрирует, что в подавляющем большинстве случаев правоохранительные органы не используют какой-то уникальный, специально разработанный полицейский софт на базе ИИ, а адаптируют уже имеющиеся военные, разведывательные и бизнесовые разработки под нужды полиции.
Среди технологий, которые уже вошли в повседневную жизнь сотрудников полиции, можно выделить в первую очередь:
— алгоритмы ИИ, нацеленные на распознавание подозрительных или украденных транспортных средств;
— программы машинного распознавания образов, способные, в том числе, в толпе выделять и распознавать в толпе лиц, находящихся в розыске, либо подозреваемых полицией в совершении преступлений (не только по полному, но и частичному изображению);
— программы распознавания голосов на основе сравнительного анализа с образцами, действующую в режиме реального времени . Предположим, полиции удалось записать голос преступника. Программа, подключенная к оборудованию компании мобильной связи позволяет прослушивать все разговоры. Если имеет место совпадение образца с аудиофайлом разговора, программа автоматически дает команду поставить телефон на прослушку и одновременно определяет его локацию;
— программы контент- и латентно-семантического анализа, позволяющие на основе содержательного анализа письменных или аудио текстов определять психологическое состояние их автора, а также скрытые смыслы, заложенные в сообщения;
— платформенное решение на основе ИИ, позволяющее собирать, хранить и проводить интеллектуальный анализ информации с целью превентивного выявления слабых сигналов, указывающих на всплеск уличной преступности, неконтролируемые волнения, беспорядки, выступления и акты вандализма;
— биометрические методы, позволяющие проводить идентификацию граждан, распознавать преступников и обнаруживать подозрительное поведение по микромоторике мускулов лица и движения тела и т.п.;
— патрульные роботы периметра;
— функционирующий на основе ИИ полностью автоматизированный комплекс поиска и анализа контента детской порнографии в сети;
— масштабируемая, открытая цифровая система судебной экспертизы;
— комплексные решения на основе ИИ, обеспечивающие переход от бумажного к электронному полицейскому офису;
— интеллектуальные программы на базе ИИ, позволяющие распознавать аномалии при проведении финансовых транзакций, при заключении хозяйственных договоров и т.п., способствующие раскрытию финансовых преступлений;
— специализированные программы распознавания необычных колебаний цен на активы, указывающие на инсайдерскую торговлю или криминальное поведение на финансовых рынках;
— автономные роботы, которые могут производить осмотр особо опасных объектов, включая объекты с наличием взрывчатых, отравляющих веществ и т.п.;
— боты, используемые правоохранительными органами для первичных информационных контактов с гражданами и организациями.
Выступившие на форуме ученые из университетов США и Европы отметили, что общественность высказывает значительные опасения в связи с использованием ИИ правоохранительными органами.
Важнейшей задачей правоохранителей становится поиск реально реализуемых гарантий, которые обеспечивают для общества уверенность в этичном использовании полицией ИИ и роботов.
Проблема в том, что сам по себе термин «этичный» является многогранным, сложным и в значительной степени зависит от культурного контекста. Более того, он зависит не только от культурных традиций, но и от повседневности, от контекста конкретной ситуации. То, что может быть этичным в одной организации, вполне может оказаться неэтичным – в другой. Пожалуй, центральный вопрос, который каждое общество должно разрешить сообразно собственным культурным традициям, стереотипам поведения и нормам жизни, является вопрос о полноте цифрового досье и масштабах наблюдения через видеокамеры и данные интернета вещей.
Вполне вероятно, что в одних обществах будут установлены критерии, которые окажутся неприемлемы в других. Например, в настоящее время на основе наиболее продвинутых моделей ИИ в Китае внедряется система социального кредита. Эта система, по сути, предполагает всеобщую цифровую идентификацию населения, создание всеобъемлющих цифровых досье на граждан, и в первую очередь на горожан, и систему сплошного мониторинга использующего не только видеокамеры, но и мониторинг телефонных разговоров и т.п. В Китае эта система не вызывает каких-либо протестов, поскольку полностью соответствует китайским конфуцианским традициям. В то же время мнению всех выступавших на форуме в Вене использование ее, например, в странах ЕС просто немыслимо.
Соответственно вопрос об этичности, это – вопрос контекста, традиции и культуры. Единых образцов для мира здесь быть не может. Однако, по мнению участников совещания в ОБСЕ, использование ИИ и робототехники в работе полиции и судей должно соответствовать следующим принципам:
— справедливости. Система не должна нарушать базисные права, а именно, презумпцию невиновности, свободу слова и свободу от дискриминации;
— преемственности. Любые организационно-технические и программные решения должны соответствовать политическим и культурным особенностям и традициям страны, сложившимся в обществе, формальным и неформальным правилам поведения;
— прозрачности. Будучи сложными программно-аппаратными комплексами на основе ИИ, используемыми в правоохранительной и правоприменительной деятельности, универсальные системы ни в коем случае не должны быть «черным ящиком». Их решения должны быть объяснены и логичны как для пользователей системы, так и для лиц, решение по которым системой выносится. Решения и действия системы должны быть понятны пользователям-людям, включая лиц, в отношении которых действует система, а также лиц, ее эксплуатирующих. Любая выводная информация должна быть интерпретирована в виде текстов, таблиц, графически и понятна людям;
— пропорциональности. Вполне вероятно, что правоохранительные платформы на основе ИИ будут использованы в первую очередь для мониторинга, предупреждения и расследования особо крупных, а также высокотехнологичных преступлений. Такие преступления потенциально несут максимальные угрозы и риски для общества. Для общества может оказаться слишком дорогим господствующий ныне принцип расследования преступлений. Единственной возможностью для пресечения высокотехнологичной преступности без чрезмерного для общества ущерба, является, скорее всего, окажется превентивный подход. Соответственно следует ожидать, что для людей с определенными профессиональными, квалификационными и иными характеристикам, в ближайшем будущем превентивный контроль будет на порядки выше, чем по отношению к иным гражданам.
Чтобы минимизировать риски и угрозы, создаваемые правоохранительным и правоприменительным использованием ИИ, целесообразно разрабатывать соответствующие законы и внутренние нормативные акты на основе международных этических кодексов и рекомендаций.
Каждое общество, каждая страна должны сами для себя решить, готовы ли они, например, к использованию сплошных систем видеомониторинга и распознавания лиц, готовы ли они к введению обязательного предоставления информации правоохранительным органам производителями интернета вещей или интернет-провайдерами. Только само общество может ответить на вопрос, до какой степени оно готово отступить от принципа неприкосновенности частной жизни и приватности повседневного поведения для перехода от расследования к профилактике преступлений.
На основе обсуждений полиции стран ОБСЕ предложено обратить особое внимание на:
— пресечение постоянно расширяющейся эксплуатации преступниками ИИ, как, в первую очередь, инструмента кибер-, финансовой и иной высокотехнологичной преступности;
— гораздо более широком, чем в настоящее время использовании ИИ и гибридного интеллекта для прогнозирования поведения преступников, перехода от расследования к более активной превентивной борьбе с преступностью;
— более широком использовании робототехники при патрулировании и оказании поддержки, а также обеспечении информационной осведомленности полицейских на земле, экипажей полицейских машин и т.п.;
— необходимости преодоления невысокого уровня компетенций рядовых сотрудников полиции в сфере ИИ;
— более широкое использование такой эффективной формы как государственно-частные партнерства для более активного вовлечения бизнес структур и IT – компаний в решении повседневных проблем полиции, связанные с эффективным использованием ИИ;
— расширение международных контактов, связанных с использованием ИИ, ликвидации дублирования усилий и бессмысленной траты ресурсов, когда каждая полицейская структура стремится решить задачи в одиночку;
— особую чувствительность общественности к угрозам вмешательства в частную жизнь граждан и недопустимость перехода этических границ правоохранительными органами при практическом использовании ИИ.
***
Автор этих строк, выступая на указанном форуме ОБСЕ, поддерживая основные высказанные положения, отметил два дополнительных момента :
1) Последствия внедрения ИИ в совокупности с другими технологиями новой промышленной революции для изменений в численности полиции. Есть мнение, что это позволит значительно сократить численность полиции, как это происходит, например, в банковских структурах (об этом, например, недавно заявил Герман Греф ). Но, на наш взгляд, прямых аналогий здесь делать нельзя. Например, внедрение ИИ в системе видеонаблюдения и расширение этой системы безусловно увеличит объём поступаемой информации о противоправных проявлениях, которым надо давать уголовно – процессуальную оценку. А это означает, что автоматически потребуется увеличить штат оперативных работников, дознавателей, следователей, экспертов. Уже сейчас требуется подготовка большого числа специалистов новой профессии – аналитиков Больших Данных. Поэтому внедрение ИИ вызовет необходимость не сокращения, а увеличения штатной численности полиции;
2) Различия в этических рекомендациях применения ИИ в полиции и судебной системе. Во всех недавно принятых международных документах по вопросам использования ИИ в полицейской и судебной деятельности эти рекомендации и ограничения одинаковы как для полиции, так и для судей. Но, на самом деле, здесь возникают серьезные противоречия. Например, в применении принципа прозрачности баз данных для судов и полиции. Если транспарентность судебных баз данных не вызывает сомнения, то относительно полицейских, особенно полученных в ходе разведывательных (по европейской терминологии) или оперативно – розыскных мероприятий (по терминологии законов РФ государств – участников СНГ) имеются серьезные ограничения, связанные с их секретностью и возможными негативными последствиями как для источников информации, так и для потерпевших, подозреваемых и обвиняемых.