В ходе послания Федеральному собранию Президент России Владимир Путин заявил о необходимости достижения самодостаточности и конкурентоспособности в области искусственного интеллекта (ИИ).

Руководитель страны заявил, что России необходимо наращивать вычислительные ресурсы. Путин подчеркнул, что к 2030 году совокупная мощность отечественных суперкомпьютеров должна быть увеличена минимум в десять раз.

Поставленная Президентом России задача непосредственным образом связана с национальной безопасностью страны.

Наш основной геополитический конкурент – США ставят развитие ИИ во главу угла всей политики.

Об этом особенно отчетливо заявлено в докладе исполнительного вице-президента и директора по исследованиям Центра новой американской безопасности (CNAS) Пола Шарра «Перспективное регулирование искусственного интеллекта на будущее. Проектирование будущих вычислений для передовых моделей искусственного интеллекта», опубликованном 13 марта.

В докладе делаются следующие выводы:

«Политики должны подготовиться к появлению в мире значительно более мощных систем искусственного интеллекта в течение следующих 10–15 лет. Эти разработки могут произойти без фундаментальных прорывов в науке об искусственном интеллекте, а просто за счет расширения современных методов обучения более крупных моделей на большем количестве данных и вычислений.

Несмотря на ограничения по расходам и производительности оборудования, объем вычислений, используемых для обучения передовых моделей ИИ, может значительно увеличиться в следующем десятилетии.

К концу 2020-х или началу 2030-х годов объем обучающих вычислений может быть примерно в 1000 раз больше, чем для генеративной модели ИИ — GPT-4, а эффективные вычисления могут примерно в 1 миллион раз превышать GPT-4.

Существует некоторая неопределенность относительно того, когда эти пороговые значения могут быть достигнуты, но такой уровень роста представляется возможным в рамках ограничений по стоимости и оборудованию.

Улучшения такого масштаба возможны без вмешательства государства, которое полностью финансируется частными корпорациями в масштабах сегодняшних крупных технологических компаний.

Они также не требуют фундаментальных прорывов в производстве или проектировании чипов.

Ещё больший выигрыш может быть возможен, если окажется верным хотя бы одно из следующих утверждений:

Компании могут тратить большие суммы денег благодаря увеличению доходов от ИИ;

Правительства финансируют еще более масштабные и дорогостоящие тренинги;

Производительность оборудования продолжит улучшаться вплоть до 2030-х годов;

Эффективность алгоритмов продолжит улучшаться и в 2030-е годы.

В докладе не делается никаких прогнозов относительно конкретных возможностей системы, производительность которой в миллион раз превышает производительность GPT-4. Однако исторический опыт масштабирования показывает, что в результате появляются не только более производительные модели, но и открываются совершенно новые возможности.

Базовая траектория передовых систем искусственного интеллекта в ближайшем будущем — это не системы, немного более мощные, чем нынешний уровень техники. Это системы, значительно более мощные, чем сегодня.

Проблема, с которой сталкиваются политики, заключается не в регулировании систем уровня GPT-4. Придётся регулировать гораздо более мощные системы, которые могут быть построены в ближайшие 10–15 лет.

Политики должны уже сегодня начать создавать нормативную базу для подготовки к таким системам.

Точно так же, как некоторые лаборатории искусственного интеллекта разрабатывают «политику ответственного масштабирования», правительства должны подготовить свои правила к будущему, чтобы быть готовыми к будущим моделям, которые будут значительно более ресурсоемкими и производительными, чем сегодня.

Создание нормативно-правовой базы в ожидании более мощных систем ИИ имеет важное значение из-за несоответствия в скорости прогресса ИИ и процесса разработки политики, сложности прогнозирования возможностей новых систем ИИ для решения конкретных задач и скорости, с которой модели ИИ распространяются сегодня, в отсутствии регулирования.

Ожидание регулирования будущих, более мощных систем искусственного интеллекта до тех пор, пока не материализуется конкретный вред, почти наверняка приведет к тому, что регулирование будет слишком запоздалым.

В худшем случае опасные модели уже могли быть опубликованы с открытым исходным кодом, что делало бы практически невозможными попытки ограничить их распространение.

Компьютерное оборудование, вероятно, станет плодотворным инструментом регулирования, если нынешние тенденции сохранятся.

Огромные объёмы вычислений — это цена входа в обучение передовых моделей ИИ. Если текущие тенденции сохранятся, значение вычислений, вероятно, возрастет в ближайшие 10–15 лет, как важнейший вклад в обучение наиболее эффективных систем искусственного интеллекта.

Правила доступа к вычислениям (например, контроль над экспортом чипов, требования к облачным вычислениям «знай своего клиента»), если они будут эффективными, могут ограничить возможности геополитических конкурентов (Китая и России) идти в ногу с передовым развитием искусственного интеллекта в США.

Однако ограничения на доступ к вычислениям, скорее всего, замедлят, но не остановят распространение, учитывая способность алгоритмических достижений со временем позволить обучать эквивалентные системы с меньшими вычислительными затратами.

Правила в отношении вычислений будут более эффективными, если они будут сочетаться с правилами, касающимися самих моделей.

Алгоритмический прогресс оказывает существенное влияние на скорость распространения пограничных моделей. Изменения в поведении отрасли или правительственном регулировании в отношении обученных моделей, возможно, могут замедлить темпы их распространения.

Широко доступные усовершенствования алгоритмов могут замедлиться, например, если ведущие лаборатории искусственного интеллекта скроют дальнейшую информацию о своих передовых моделях или если правительство США применит экспортный контроль к обученным моделям, превышающим определенный порог вычислений, как оно уже это сделало с чипами.

Политики сталкиваются с трудным выбором в отношении регулирования ИИ в условиях значительной неопределенности.

Понимание исторических тенденций в затратах, вычислениях и эффективности алгоритмов может помочь политикам сделать разумные прогнозы о том, какое будущее возможно в течение следующего десятилетия с лишним, учитывая потенциальные ограничения дальнейшего роста».

ИсточникЗавтра
Елена Ларина
Ларина Елена Сергеевна (1964 г.р.) – предприниматель, аналитик, преподаватель. Постоянный член Изборского клуба. Родилась, училась и работаю в г. Москве. Получила высшее экономическое и юридическое образование, соответственно в Российском экономическом университете им. Г.В.Плеханова и Институте международного права и экономики им. А.С.Грибоедова. Генеральный директор компании «Персоналинвест» и соучредитель компании «Хайрест». Подробнее...