Выпуск и широкое использование ChatGPT — большой языковой модели (LLM), разработанной OpenAI — привлек значительное внимание общественности, в основном благодаря своей способности быстро предоставлять готовые к использованию ответы, которые могут быть применены в огромном количестве различных контекстов.

Эти модели обладают огромным потенциалом. Машинное обучение, от которого раньше ожидали решения только рутинных задач, доказало свою способность к сложной творческой работе. LLM регулярно совершенствуются и появляются новые версии, а технологические усовершенствования происходят все быстрее и быстрее. Это открывает широкие возможности для решения многих социальных задач, но, одновременно, это также может додержать большое количество криминальных риском, поскольку преступники сразу стали использовать LLM в своих целях.

В ответ на растущее внимание общественности к ChatGPT ученые и полиция США, Европы, Азии организовали в 2023 году ряд семинаров с экспертами в этой области, чтобы изучить, как преступники могут злоупотреблять LLM, такими как ChatGPT, а также как это может помочь следователям и оперативным работникам полиции в их повседневной работе. Эксперты, принявшие участие в семинарах, представляли необходимый спектр знаний, включая оперативный анализ, тяжкие и организованные преступления, киберпреступность, борьбу с терроризмом, а также информационные технологии.

LLM, выбранный для рассмотрения на семинарах, был ChatGPT. Он был выбран потому, что это самый известный и наиболее часто используемый LLM, доступный в настоящее время для общественности. Целью семинаров было наблюдение за поведением LLM при столкновении с криминальными и правоохранительными сценариями использования. Это поможет правоохранительным органам понять, какие проблемы могут представлять производные и генеративные модели ИИ.

Понятийный аппарат

Искусственный интеллект

Искусственный интеллект (ИИ) — это широкая область компьютерных наук, которая включает в себя создание интеллектуальных машин, способных выполнять задачи, которые обычно требуют человеческого интеллекта, такие как понимание естественного языка, распознавание образов и принятие решений. ИИ охватывает различные области, включая машинное обучение, обработку естественного языка, компьютерное зрение, робототехнику, экспертные системы.

Нейронные сети

Нейронные сети, также известные как искусственные нейронные сети, представляют собой вычислительные системы, вдохновленные структурой и функциями человеческого мозга. Они состоят из взаимосвязанных узлов, которые предназначены для распознавания закономерностей и принятия решений на основе входных данных.

Глубокое обучение

Глубокое обучение — это область машинного обучения, которая включает в себя обучение искусственных нейронных сетей, которые представляют собой вычислительные системы, ориентируемые структурой и функциями человеческого мозга, распознаванию закономерностей и принятию решений на основе больших объемов данных. Глубокое обучение было особенно успешным в таких областях, как распознавание изображений, обработка естественного языка и распознавание речи.

ChatGPT — это большая языковая модель (LLM), которая была разработана OpenAI и выпущена для широкой публики в рамках предварительного исследования в ноябре 2022 года. Обработка естественного языка и LLM — это платформа систем искусственного интеллекта (ИИ), которые построены на методах глубокого обучения и обучения нейронных сетей на значительных объемах данных. Это позволяет LLM понимать и генерировать текст на естественном языке.

За последние годы в этой области произошли значительные прорывы, отчасти благодаря быстрому прогрессу в разработке суперкомпьютеров и алгоритмов глубокого обучения. В то же время беспрецедентное количество доступных данных позволило исследователям обучать свои модели на огромном количестве информации.

LLM ChatGPT основан на архитектуре Generative Pre-trained Transformer (GPT). Он был обучен с помощью нейронной сети, предназначенной для обработки естественного языка, на наборе данных из более чем 45 терабайт текста из Интернета (книги, статьи, веб-сайты, другой текстовый контент), который в общей сложности включал миллиарды слов текста.

Обучение ChatGPT проводилось в два этапа: на первом этапе проводилось обучение без наблюдения, которое включало в себя обучение ChatGPT предсказывать пропущенные слова в данном тексте для изучения структуры и закономерностей человеческого языка. После предварительной подготовки на втором этапе ChatGPT был доработан с помощью метода Reinforcement Learning from Human Feedback (RLHF) — контролируемого обучения, в ходе которого под влиянием человеческого фактора модель училась корректировать свои параметры, чтобы лучше выполнять поставленные задачи.

Текущая общедоступная модель, лежащая в основе ChatGPT, GPT-3.5, способна обрабатывать и генерировать человекоподобный текст в ответ на подсказки пользователя. В частности, модель может отвечать на вопросы на различные темы, переводить текст, вступать в разговорный обмен («чат») и резюмировать текст, выделяя ключевые моменты. Кроме того, она способна выполнять анализ настроения, генерировать текст на основе заданной подсказки (например, написать рассказ или стихотворение), а также объяснять, создавать и улучшать код на некоторых наиболее распространенных языках программирования (Python, Java, C++, JavaScript, PHP, Ruby, HTML, CSS, SQL). Таким образом, по своей сути ChatGPT очень хорошо понимает человеческий ввод, учитывает его контекст и выдает ответы, которые очень удобны для использования.

В марте 2023 года OpenAI выпустил для подписчиков ChatGPT Plus свою последнюю модель, GPT-4. Согласно OpenAI, GPT-4 способен решать более сложные задачи более точно. Кроме того, GPT-4 предлагает расширенную интеграцию API и может обрабатывать, классифицировать и анализировать изображения в качестве входных данных. Более того, GPT-4 реже отвечает на запросы о «запрещенном контенте» и чаще выдает фактические ответы, чем GPT-3.5. Ожидается, что по мере развития и совершенствования LLM будут выпущены новые версии с более широкими функциональными возможностями.

Важные ограничения модели ChatGPT, о которых необходимо помнить

Наиболее очевидное из них связано с данными, на которых она была обучена: несмотря на то, что обновления происходят постоянно, подавляющее большинство учебных данных ChatGPT датируется сентябрем 2021 года.Ответы, сгенерированные на основе этих данных, не содержат ссылок, позволяющих понять, откуда была взята та или иная информация, и могут быть необъективными.

Кроме того, ChatGPT умеет давать ответы, которые звучат очень правдоподобно, но часто оказываются неточными или неправильными. Это происходит потому, что ChatGPT не понимает смысла человеческого языка, а использует скорее его шаблоны и структуру на основе огромного количества текста, на котором он был обучен. Это означает, что ответы часто являются базовыми, так как модель с трудом справляется с продвинутым анализом вводимых данных.

Другая ключевая проблема связана с самим вводом, поскольку часто точная формулировка подсказки очень важна для получения правильного ответа от ChatGPT. Небольшие изменения могут быстро выявить разные ответы или заставить модель поверить, что она вообще не знает ответа. Это также относится к двусмысленным подсказкам, когда ChatGPT обычно предполагает, что понимает, что хочет узнать пользователь, вместо того, чтобы попросить дополнительные разъяснения.

И, наконец, в рамках политики модерирования контента ChatGPT не отвечает на вопросы, которые были классифицированы как вредные или предвзятые. Эти защитные механизмы постоянно обновляются, но в некоторых случаях их все же можно обойти с помощью правильной техники подсказок.

Средства защиты, оперативная инженерия

Учитывая значительный объем информации, к которой имеет доступ ChatGPT, и относительную легкость, с которой он может выдавать самые разнообразные ответы на запрос пользователя, OpenAI включил ряд защитных функций для предотвращения злонамеренного использования модели ее пользователями. Конечная точка модерации оценивает вводимый текст на предмет того, может ли его содержание быть сексуальным, ненавистным, насильственным или пропагандирующим членовредительство, и ограничивает способность ChatGPT отвечать на эти типы запросов.

Однако многие из этих мер защиты можно довольно легко обойти с помощью инженерии подсказок. Инженерия подсказок — относительно новая концепция в области обработки естественного языка; это практика, когда пользователи уточняют, как именно задается вопрос, чтобы повлиять на результат, генерируемый системой искусственного интеллекта. Хотя проектирование подсказок является полезным и необходимым компонентом максимального использования инструментов ИИ, им можно злоупотреблять, чтобы обойти ограничения на модерацию контента и создать потенциально вредный контент. Хотя возможность оперативного проектирования создает универсальность и дополнительную ценность для качества LLM, это должно быть сбалансировано с этическими и юридическими обязательствами, чтобы предотвратить их использование во вред.

LLM всё ещё находятся на относительно ранней стадии развития, и по мере совершенствования некоторые из этих лазеек будут закрыты. Однако, учитывая сложность этих моделей, исследователи и субъекты угроз не испытывают недостатка в новых обходных путях. В случае с ChatGPT к наиболее распространенным обходным путям относятся следующие:

Создание подсказки (предоставление ответа и просьба ChatGPT предоставить соответствующую подсказку);

Попросить ChatGPT дать ответ в виде кода или притвориться вымышленным персонажем, говорящим на эту тему;

Замена триггерных слов и последующее изменение контекста;

Перенос стиля/мировоззрения (побуждение к объективному ответу и последующее изменение стиля/перспективы, в которой он был написан);

Создание вымышленных примеров, которые легко перенести на реальные события (например, избегая имена, национальности и т.д.).

Некоторые из наиболее продвинутых и мощных обходных путей представляют собой наборы специальных инструкций, направленных на взлом модели. Один из них — так называемый «DAN» («Do Anything Now») взлом, который представляет собой подсказку, специально разработанную для обхода защитных мер OpenAI и заставляющую ChatGPT реагировать на любой ввод, независимо от его потенциально опасного характера. Хотя OpenAI быстро закрыл эту лазейку, впоследствии появились новые и все более сложные версии DAN, созданные для создания подсказок для джейлбрейка (Джейлбрейк (взлом) –процесс использования уязвимостей заблокированного устройства для установки программного обеспечения, отличного от предоставляемого производителем этого устройства – Е.Л.,В.О.), которые могут обойти защитные механизмы, встроенные в модель.

Криминальные сценарии использования

Выпуск GPT-4 был призван не только улучшить функциональность ChatGPT, но и снизить вероятность того, что модель будет выдавать потенциально опасные результаты. Семинары Интерпола и Европола с участием профильных экспертов из всех областей компетенции Европола выявили в GPT-3.5 широкий спектр криминальных сценариев использования. Последующая проверка GPT-4 показала, что все они работают. В некоторых случаях потенциально опасные реакции GPT-4 были даже более продвинутыми.

ChatGPT отлично справляется с предоставлением пользователю готовой к использованию информации в ответ на широкий спектр запросов. Если потенциальный преступник ничего не знает о конкретном районе совершения преступления, ChatGPT может значительно ускорить процесс исследования, предлагая ключевую информацию, которую можно изучить на последующих этапах. Таким образом, ChatGPT можно использовать для изучения огромного количества потенциальных областей преступлений без предварительных знаний, начиная от способов проникновения в дом, заканчивая терроризмом, киберпреступностью и сексуальным насилием над детьми.

Хотя вся информация, которую предоставляет ChatGPT, находится в свободном доступе в Интернете, возможность использовать модель для совершения конкретных шагов, задавая контекстные вопросы, значительно облегчает злоумышленникам задачу лучшего понимания и последующего совершения различных видов преступлений.

Мошенничество, выдача себя за другого и социальная инженерия

Способность ChatGPT составлять высоко аутентичные тексты на основе подсказок пользователя делает его чрезвычайно полезным инструментом для фишинга. Если раньше многие элементарные фишинговые аферы было легче распознать из-за очевидных грамматических и орфографических ошибок, то теперь можно выдать себя за организацию или частное лицо в весьма реалистичной манере даже при базовом знании английского языка.

Очень важно, что контекст фишингового письма может быть легко адаптирован в зависимости от потребностей угрожающего субъекта: от мошеннических инвестиционных возможностей до взлома деловой электронной почты и обмана в отношении генерального директора. Таким образом, ChatGPT может предложить преступникам новые возможности, особенно для преступлений, связанных с социальной инженерией, учитывая их способность отвечать на сообщения в контексте и принимать специфический стиль письма. Кроме того, различные виды онлайн-мошенничества можно сделать более «легитимными», используя ChatGPT для создания поддельных социальных сетей, например, для продвижения мошеннического инвестиционного предложения.

До сих пор такие виды обманных сообщений преступники должны были создавать самостоятельно. В случае массового мошенничества объекты таких преступлений часто могли определить неаутентичность сообщения по очевидным орфографическим или грамматическим ошибкам, нечеткому или неточному содержанию. С помощью LLM такие виды фишинга и онлайн-мошенничества могут быть созданы быстрее, гораздо более достоверно и в значительно больших масштабах.

Способность LLM обнаруживать и воспроизводить языковые шаблоны не только облегчает фишинг и онлайн-мошенничество, но и в целом может использоваться для имитации стиля речи конкретных лиц или групп. Этой возможностью можно злоупотреблять в широких масштабах, чтобы ввести потенциальных жертв в заблуждение и заставить их довериться преступникам.

В дополнение к преступной деятельности, описанной выше, возможности ChatGPT позволяют использовать их в ряде потенциальных случаев злоупотребления в области терроризма, пропаганды и дезинформации. Таким образом, модель может быть использована для общего сбора информации, которая может способствовать террористической деятельности, например, финансированию терроризма или анонимному обмену файлами.

ChatGPT превосходно справляется с созданием аутентичного звучащего текста на скорости и в масштабе. Это делает модель идеальной для целей пропаганды и дезинформации, поскольку она позволяет пользователям генерировать и распространять сообщения, отражающие определенный нарратив, с относительно небольшими усилиями. Например, ChatGPT может использоваться для создания онлайн-пропаганды от имени других субъектов для продвижения или защиты определенных взглядов, которые были развенчаны как дезинформация или фальшивые новости.

Эти примеры дают лишь общее представление о том, что возможно. Хотя ChatGPT отказывается давать ответы на запросы, которые считает явно вредоносными, существует возможность обойти эти ограничения. Подобные приложения не только способствовали бы распространению дезинформации, языка вражды и террористического контента в Интернете, но и позволили бы пользователям придать им неуместное доверие, поскольку они были созданы машиной и, следовательно, могут показаться кому-то более объективными, чем если бы их создал человек.

Киберпреступность

Помимо создания человекоподобного языка, ChatGPT способен создавать код на ряде различных языков программирования. Как и в других случаях использования, можно сгенерировать ряд практических результатов за несколько минут, введя нужные подсказки. Одной из областей преступности, на которую это может оказать значительное влияние, является киберпреступность. С помощью текущей версии ChatGPT уже можно создавать базовые инструменты для различных вредоносных целей. Несмотря на то, что инструменты являются лишь базовыми (например, для создания фишинговых страниц или вредоносных скриптов VBA), это позволяет человеку без технических знаний использовать вектор атаки на системе жертвы.

Такой тип автоматизированной генерации кода особенно полезен для тех преступников, которые практически не разбираются в кодировании и разработке. Очень важно, что меры защиты, не позволяющие ChatGPT предоставлять потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает. Если подсказки разбиты на отдельные шаги, обойти эти меры безопасности проще простого.

Хотя инструменты, созданные ChatGPT, все еще достаточно просты, активное использование их субъектами угроз открывает мрачные перспективы в свете неизбежного совершенствования таких инструментов в ближайшие годы. На самом деле, способность ChatGPT преобразовывать подсказки на естественном языке в рабочий код была быстро использована злоумышленниками для создания вредоносного ПО. Вскоре после публичного выпуска ChatGPT в блоге Check Point Research от декабря 2022 года было опубликовано сообщение, демонстрирующее, как ChatGPT может быть использован для создания полного потока заражения, начиная с фишинга и заканчивая запуском обратной оболочки, принимающей команды на английском языке.

Ожидается, что возможности генеративных моделей, таких как ChatGPT, по оказанию помощи в разработке кода со временем будут совершенствоваться. Последняя версия GPT-4 уже улучшена по сравнению с предыдущими версиями и в результате может оказать еще более эффективную помощь киберпреступникам. Новая модель лучше понимает контекст кода, а также исправляет сообщения об ошибках и устраняет ошибки программирования. Для потенциального преступника, не имеющего достаточных технических знаний, это бесценный ресурс. В то же время более опытный пользователь может использовать эти улучшенные возможности для дальнейшего совершенствования или даже автоматизации сложных методов действий киберпреступников.

Роль GPT-4 в расследовании преступлений

GPT-4 можно использовать, чтобы помочь правоохранительным органам автоматизировать и оптимизировать процесс расследования. Анализируя огромные объемы данных, GPT-4 может быстро выявлять закономерности и связи, которые в противном случае можно было бы упустить из виду. Это позволит следователям быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления и его окрестностях.

Кроме того, GPT-4 можно применять для создания подробных отчётов по уголовным делам. Анализируя доказательства, GPT-4 может создавать исчерпывающие отчеты, которые можно использовать для поддержки уголовных дел в суде. Это могло бы значительно сократить количество времени и ресурсов, затрачиваемых на расследования, что позволило бы правоохранительным органам сосредоточиться на других важных задачах.

GPT-4 также можно использовать для выявления потенциальных связей между делами и подозреваемыми. Анализируя огромные объемы данных, GPT-4 может выявлять связи между различными делами и подозреваемыми, позволяя правоохранительным органам быстрее и точнее выслеживать подозреваемых.

Кроме того, GPT-4 может помочь сотрудникам правоохранительных органов лучше понять контекст уголовных дел. Анализируя доказательства и материалы дела, GPT-4 может генерировать подробные отчеты об истории и контексте дела, позволяя правоохранительным органам лучше понять, почему произошло преступление и как лучше всего подойти к расследованию.

В целом, GPT-4 может произвести революцию в методах расследования правоохранительных органов. Автоматизируя и оптимизируя процесс расследования, GPT-4 может сэкономить время и ресурсы правоохранительных органов, позволяя им сосредоточиться на других важных задачах. Кроме того, способность GPT-4 анализировать огромные объемы данных и выявлять закономерности и связи может помочь сотрудникам правоохранительных органов быстро идентифицировать потенциальных подозреваемых и получить всестороннее представление о месте преступления. Поскольку GPT-4 продолжает развиваться, его потенциальное применение в расследованиях правоохранительных органов будет только расти.

Преимущества GPT-4 в улучшении криминалистического анализа

Используя GPT-4 можно быстро выявлять соответствующие доказательства и создавать подробные отчеты. Кроме сравнения доказательств по нескольким делам, помогая следователям выявлять закономерности и связи между делами, GPT-4 можно использовать для выявления расхождений в показаниях свидетелей, что позволяет следователям быстро выявлять любые несоответствия.

GPT-4 может не только помочь повысить точность криминалистического анализа, но и сократить время, необходимое для проведения анализа. Автоматизируя определенные задачи, GPT-4 может сократить время, затрачиваемое следователями на ручной анализ улик. Это может помочь снизить общую стоимость расследования, позволяя правоохранительным органам сосредоточить свои ресурсы на других областях.

Потенциальные недостатки, связанные с использованием GPT-4 в расследовании преступлений

Во-первых, GPT-4 ограничен в своей точности. Хотя его способность генерировать текст впечатляет, он не всегда может точно интерпретировать нюансы языка и контекста. Это может привести к ошибкам при толковании юридических документов или, например, при предоставлении юридических консультаций.

Во-вторых, GPT-4 может быть уязвим для использования злоумышленниками. Имея доступ к этой технологии, преступники потенциально могут использовать ее для создания ложных доказательств или вводящих в заблуждение юридических рекомендаций для достижения своих собственных целей. Это может привести к неправомерным осуждениям и задержкам в отправлении правосудия.

Наконец, GPT-4 может привести к эрозии человеческого опыта в юридических вопросах. Это может быть особенно проблематично в таких областях, как юридический анализ, где людям необходимо интерпретировать нюансы языка и контекста, чтобы делать точные выводы.

Использование GPT-4 в правоохранительных органах вызывает ряд этических вопросов и соображений. Например, эту технологию можно использовать для создания ложной информации, которая потенциально может быть использована для манипулирования расследованиями. Кроме того, использование GPT-4 вызывает опасения по поводу конфиденциальности, поскольку эту технологию можно использовать для анализа больших объемов данных без ведома или согласия тех, за кем ведется наблюдение.

Кроме того, использование GPT-4 в правоохранительных органах вызывает вопросы о достоверности информации, которую он генерирует. Технология основана на алгоритмах машинного обучения, которые могут давать неточные или необъективные результаты, если их не обучить или не контролировать должным образом.

GPT-4 для Smart Policing: прогнозирование и предотвращение

GPT-4 использует алгоритмы обработки естественного языка (NLP) и машинного обучения для анализа огромных объемов данных из различных источников, таких как социальные сети, новостные статьи и отчеты полиции. Выявляя закономерности и тенденции в этих данных, система ИИ позволяет прогнозировать потенциальную преступную деятельность и помогать правоохранительным органам принимать упреждающие меры для ее предотвращения. Это не только помогает снизить уровень преступности, но и позволяет полицейским управлениям более эффективно распределять свои ресурсы, гарантируя, что сотрудники будут развернуты там, где они больше всего нужны.

Одним из ключевых преимуществ использования GPT-4 для «умной полиции» является его способность выявлять потенциальные точки доступа для преступной деятельности. Анализируя исторические данные о преступлениях и другую соответствующую информацию, система GPT — 4 может точно определить области, в которых с наибольшей вероятностью могут произойти криминальные инциденты. Это позволяет правоохранительным органам сосредоточить свои усилия на этих областях повышенного риска, что приводит к более целенаправленному и эффективному подходу к предупреждению преступности.

Кроме того, tGPT-4 также может помочь в прогнозировании вероятности совершения конкретных видов преступлений в определенных областях.Например, он может определить, является ли конкретный район более подверженным кражам со взломом, нападениям или правонарушениям, связанным с наркотиками. Эта информация может иметь неоценимое значение для полицейских подразделений, поскольку позволяет им разрабатывать целевые стратегии для решения конкретных проблем с преступностью в различных сообществах.

Помимо прогнозирования преступлений, GPT- 4 также может играть решающую роль в предупреждении преступности, выявляя потенциальные угрозы и риски до того, как они материализуются. Например, система GPT — 4 может отслеживать платформы социальных сетей и онлайн-форумы, чтобы обнаруживать любые признаки потенциальной преступной деятельности. Оповещая правоохранительные органы об этих угрозах, GPT-4 позволяет им принимать быстрые меры для предотвращения совершения преступлений.

Систему GPT-4 искусственного интеллекта также можно использовать для анализа записей видеонаблюдения, помогая правоохранительным органам более эффективно выявлять и выслеживать преступников.

Рекомендации бизнес – структур и государственных органов Запада по безопасному использованию ChatGPT

В ответ на давление общественности, требующей обеспечить безопасность генеративных моделей ИИ, исследовательская некоммерческая организация Partnership on AI (PAI) разработала ряд рекомендаций по ответственному производству и распространению контента, созданного ИИ. Эти рекомендации были подписаны группой из десяти компаний, включая OpenAI, которые обязались придерживаться ряда лучших практик. К ним относится информирование пользователей о том, что они взаимодействуют с контентом, созданным ИИ (например, с помощью водяных знаков, отказов от ответственности или отслеживаемых элементов). В какой степени это позволит предотвратить практические описанные злоупотребления, пока неясно. Кроме того, остаются вопросы о том, как можно эффективно обеспечить точность контента, создаваемого генеративными моделями ИИ, и как пользователи могут понять, откуда поступает информация, чтобы проверить ее.

Европейский союз в мае 2023 года завершил работу над законодательными мерами, направленными на регулирование систем ИИ в рамках готовящегося закона об ИИ. Но, несмотря на некоторые предложения о том, что системы ИИ общего назначения, такие как ChatGPT, должны быть отнесены к системам высокого риска и, как следствие, отвечать более высоким нормативным требованиям, остается неопределенность в отношении того, как это может быть практически реализовано.

В мае 2023 года на голосовании в Европарламенте депутаты предварительно одобрили усиленную версию Закона об искусственном интеллекте. После его принятия будут запрещены технологии распознавания лиц в общественных местах, а также применение полицией предиктивной аналитики.

Американцы таких запретов на государственном уровне не вводят.

Уже отмеченные последствия для правоохранительных органов и неизбежность совершенствования технологии заставляют задуматься о том, какое будущее ожидает LLM. Относительно скоро после того, как ChatGPT стал интернет-сенсацией, компания Microsoft объявила об инвестировании 10 миллиардов долларов США в ChatGPT в январе 2023 года. Очень быстро после этого компания представила первые попытки интегрировать услуги LLM в различные приложения компании, в частности, в новую версию поисковой системы Bing. В то же время другие конкуренты, такие как Google, объявили о выпуске собственного разговорного ИИ под названием BARD, за которым, вероятно, последуют и другие. В связи с этим возникает вопрос о том, насколько более мощными могут стать подобные модели при поддержке крупных технологических компаний, а также о том, как частный сектор намерен бороться со сценариями злоупотреблений.

В будущем всеобщая доступность больших языковых моделей может создать и другие проблемы: интеграция других сервисов ИИ (например, для создания синтетических медиа) может открыть совершенно новое измерение потенциальных приложений. Они могут включать мультимодальные системы ИИ, которые объединяют разговорные чат-боты с системами, способными создавать синтетические медиа, например, очень убедительные deepfakes, или содержать сенсорные способности, такие как зрение и слух. Другие потенциальные проблемы включают появление«тёмных LLM», которые могут быть размещены в «темной паутине» для предоставления чат-бота без каких-либо гарантий, а также LLM, которые обучаются на определенных — возможно, особенно вредных — данных. Наконец, существует неопределенность относительно того, как LLM-сервисы могут обрабатывать данные пользователей в будущем — будут ли храниться разговоры, что может привести к раскрытию конфиденциальной личной информации неавторизованным третьим лицам? И если пользователи генерируют вредный контент, следует ли сообщать об этом правоохранительным органам?

Крупные бизнес – компании пошли по пути запретов. В мае 2023 года Apple запретила своим сотрудникам использовать на работе ChatGPT и другие ИИ – боты. До этого с такими запретами выступила южнокорейская Samsung Electronics.

Рекомендации полицейских форумов

Поскольку в ближайшем будущем ожидается рост влияния таких LLM, как ChatGPT, крайне важно, чтобы правоохранительное сообщество подготовилось к тому, как их положительное и отрицательное применение может повлиять на их повседневную деятельность.

Учитывая потенциальный вред, который может быть нанесен в результате злонамеренного использования LLM, крайне важно повысить осведомленность в этом вопросе, чтобы гарантировать, что любые потенциальные лазейки будут обнаружены и закрыты как можно быстрее.

LLM оказывают реальное воздействие, которое можно наблюдать уже сейчас. Правоохранительным органам необходимо понять это влияние на все потенциально затрагиваемые сферы преступности, чтобы иметь больше возможностей для прогнозирования, предотвращения и расследования различных видов преступных посягательств.

Сотрудникам правоохранительных органов необходимо начать развивать навыки, необходимые для максимально эффективного использования таких моделей, как ChatGPT. Это означает понимание того, как можно использовать эти типы систем для накопления знаний, расширения имеющегося опыта и понимания того, как извлечь необходимые результаты. Это означает, что следователи и оперативные работники должны уметь оценивать контент, создаваемый генеративными моделями ИИ, с точки зрения точности и потенциальной предвзятости.

Поскольку технологический сектор вкладывает значительные средства в эту область, крайне важно взаимодействовать с соответствующими заинтересованными сторонами для обеспечения того, чтобы соответствующие механизмы безопасности оставались ключевым моментом, который постоянно совершенствуется.

Правоохранительные органы, вероятно, захотят изучить возможности создания специализированных LLM, обученных на их собственных, специализированных данных, чтобы использовать этот тип технологии в своей работе при условии учета основных прав. Такой тип использования потребует соответствующих процессов и мер предосторожности для обеспечения конфиденциальности информации, а также тщательного изучения и устранения любых потенциальных предубеждений до начала использования.

Крайне важно отслеживать другие возможные ветви этого развития, поскольку темные LLM, обученные содействовать вредоносному выходу, могут стать ключевой криминальной бизнес-моделью будущего. Это создает новую проблему для правоохранительных органов, поскольку злоумышленникам станет как никогда легко совершать преступные действия без необходимых предварительных знаний.

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...