ИИ может стать началом золотого века исследований
Эмануэле Пульезе (исследователь в области искусственного интеллекта и машинного обучения, Университет ООН) в статье на сайте The Conversation UK (06.01.2025) пишет о том, что «2024 год был назван годом ИИ в науке: Нобелевские премии по физике и химии были вручены группам исследователей ИИ.
Но развивающаяся роль ИИ в научных открытиях также вызывает вопросы и опасения. Ограничит ли отсутствие доступа к все более эффективным инструментам ИИ способность многих учреждений проводить исследования на переднем крае?».
Нобелевские премии по физике и химии были фактически присуждены за радикально разные достижения. Премия по физике, которая досталась Джону Хопфилду и Джеффри Хинтону, была присуждена за разработку ими алгоритмов и идей, которые продвинули подмножество ИИ, называемое машинным обучением. Это когда алгоритмы становятся лучше в том, что они делают, анализируя большие объемы данных (процесс, называемый обучением), а затем применяя эти уроки к другим невидимым данным.
Премия по химии была присуждена команде Google DeepMind за впечатляющий научный прорыв с помощью системы искусственного интеллекта AlphaFold. Этот инструмент обучен предсказывать структуры белков и то, как они сворачиваются — научная задача, которая оставалась нерешенной в течение полувека.
Таким образом, Нобелевская премия была бы присуждена любой команде, решившей эту задачу, независимо от использованных методов. Это была не премия за разработку в области ИИ. Это была премия за важное открытие, осуществленное системой ИИ.
Тем не менее, мы движемся в новом направлении. ИИ в науке переходит от роли исключительно объекта исследования к роли механизма исследования.
Достижение человеческой производительности
Трансформация роли ИИ в академических исследованиях началась задолго до 2024 года и даже до появления ChatGPT и сопутствующего маркетингового ажиотажа вокруг ИИ. Она началась, когда эти системы впервые достигли производительности человеческого уровня в важнейших задачах, связанных с научными исследованиями.
В 2015 году ResNet от Microsoft превзошла человеческие возможности в ImageNet, тесте, который оценивает способность систем ИИ выполнять классификацию изображений и другие задачи, связанные с графикой. В 2019 году RoBERTa от Facebook (эволюция BERT от Google) превзошла человеческие возможности в тесте GLUE, освоив такие задачи, как классификация и реферирование текста.
Эти вехи, достигнутые крупными частными исследовательскими лабораториями, позволили исследователям использовать ИИ для широкого спектра различных задач, таких как использование спутниковых снимков для анализа уровня бедности и использование медицинских снимков для обнаружения рака.Автоматизация задач, традиционно выполняемых людьми, снижает затраты и расширяет сферу исследований — отчасти за счет того, что позволяет выполнять изначально субъективные задачи, становясь более объективными.
Сегодня ИИ в науке выходит за рамки сбора и обработки данных – он играет все большую роль в понимании данных. Например, в химии и физике ИИ широко используется для прогнозирования сложных систем, таких как погодные условия или структуры белков.
Однако в социальных и медицинских науках понимание часто зависит от причинности, а не только от прогнозирования. Например, чтобы оценить влияние политики, исследователям необходимо оценить, как бы все развивалось без нее — контрфактуальный путь, который никогда нельзя наблюдать напрямую.
Медицинская наука решает эту проблему посредством рандомизированных испытаний. Это исследования, в которых участники случайным образом делятся на отдельные группы, чтобы сравнить эффекты различных методов лечения. И этот подход все чаще применяется в социальных науках, о чем свидетельствует Нобелевская премия по экономике 2019 года, присужденная Абхиджиту Банерджи, Эстер Дюфло и Майклу Кремеру за их работу по сокращению бедности.
Однако в макроэкономике такие эксперименты непрактичны — ни одна страна не будет принимать случайные торговые стратегии ради исследования. Появляется ИИ, который преобразил изучение крупных экономических систем. Компьютерные инструменты могут создавать модели, объясняющие, как работают аспекты экономики, которые гораздо более тонки, чем те, которые могут составить люди. Работа Сьюзан Атей и ее коллег о влиянии компьютерной науки и передовой статистики на экономические исследования была всеобщим фаворитом на Нобелевскую премию по экономике 2024 года, хотя и не выиграла ее.
Ключевая роль для человека
Хотя ИИ отлично справляется со сбором и анализом данных, ключевая роль по-прежнему принадлежит людям: они понимают, как эти данные соотносятся с реальностью.
Например, большая языковая модель (технология, лежащая в основе чат-ботов ИИ, таких как ChatGPT) может написать предложение, например, «этот саксофон не может поместиться в коричневую сумку, потому что он слишком большой». И она может определить, относится ли «это» к саксофону или к сумке — впечатляющее достижение по сравнению с тем, что было возможно всего десять лет назад.
Но ИИ не связывает это с каким-либо пониманием 3D-объектов. Он работает как мозг в бочке, ограниченный своей обратной связью решения текстовых задач без взаимодействия с физическим миром.
В отличие от ИИ, люди формируются под влиянием разнообразных потребностей: навигации в трехмерном мире, социализации, избегания конфликтов, борьбы при необходимости и построения безопасных, справедливых обществ.
Системы ИИ, напротив, являются специалистами по одной задаче. Большие языковые модели обучаются исключительно генерировать связный текст, без связи с более широкой реальностью или практическими целями.
Скачок к истинному пониманию произойдет только тогда, когда одна система ИИ сможет преследовать несколько общих целей одновременно, интегрируя задачи и связывая слова с реальными решениями. Возможно, тогда мы увидим первую Нобелевскую премию, любезно принятую системой ИИ.
Точно предсказать, когда и как произойдет этот сдвиг, невозможно, но его последствия слишком значительны, чтобы их игнорировать.
Рост исследований, основанных на ИИ, может привести к золотому веку научных прорывов или к глубоко разделенному будущему, когда многие лаборатории (в частности, государственные лаборатории, особенно на глобальном юге) не будут иметь передовых инструментов ИИ для проведения передовых исследований.
Такие имена, как Google, Microsoft, Facebook*, OpenAI и Tesla, сейчас находятся на переднем крае фундаментальных исследований — серьезное отклонение от дней, когда государственные и академические учреждения лидировали.
Эта новая реальность поднимает насущные вопросы. Можем ли мы полностью доверять ИИ, разработанному частными компаниями, для формирования научных исследований?
Это также поднимает вопросы о том, как мы справляемся с рисками концентрации власти, угрозами открытой науке (предоставление свободного доступа к исследованиям) и неравномерным распределением научных наград между странами и сообществами.
Влияние ИИ на кибербезопасность
Стю Сьюверман (основатель и генеральный директор KnowBe4 Inc., платформы для обучения основам безопасности и моделирования фишинговых атак) пишет в Forbes (06.01.2025):
«Искусственный интеллект (ИИ) должен стать преобразующей силой в кибербезопасности. В 2025 году эти инструменты будут помогать как злоумышленникам, так и защитникам способами, которые ранее не представлялись, изменяя индустрию кибербезопасности, какой мы ее знаем».
Прогнозы ниже дают некоторое представление о том, как может выглядеть эта трансформация с использованием ИИ:
ИИ расширяет возможности киберзащиты
Защитники настроены воспользоваться растущими возможностями ИИ. Например, инструменты на базе ИИ могут анализировать огромные объемы данных, что приводит к быстрому выявлению уязвимостей и аномальных закономерностей. Это поможет сократить время, необходимое для обнаружения и реагирования, в чем отрасль, испытывающая нехватку квалифицированных кадров в области безопасности, отчаянно нуждается.
В 2025 году ИИ, скорее всего, приведет к появлению автономных систем реагирования на инциденты, которые смогут обнаруживать угрозы, помещать вредоносное ПО в карантин, изолировать системы и применять упреждающие меры по устранению последствий до того, как вредоносное ПО сможет распространиться.
Уклончивость и точность атак увеличиваются
В 2025 году и далее ИИ поможет злоумышленникам настраивать свои атаки. Например, они могут использовать ИИ для создания фишинговых атак, имитирующих шаблонный стиль общения определенного человека. ИИ может помочь в разработке вредоносного ПО с изменяющейся формой, которое может адаптировать свою тактику и сигнатуры для уклонения от обнаружения обычными средствами безопасности. ИИ может использоваться для определения конкретных организаций, которые могут быть готовы к атакам с использованием программ-вымогателей, или для разработки эффективных методов выявления и использования уязвимостей и автоматизации проведения атак.
Развитие технологий Deepfake и их обнаружение
Технологии Deepfake, безусловно, станут более продвинутыми и реалистичными. Злоумышленники продолжат злоупотреблять инструментами Deepfake для распространения дезинформации, нанесения ущерба репутации, осуществления вымогательств, социальной инженерии людей и проникновения в организации.
Однако в 2025 году инструменты обнаружения дипфейков могут стать более эффективными и доступными, хотя может пройти некоторое время, прежде чем инструменты обнаружения мошенничества станут достаточно зрелыми и разовьются, чтобы обнаруживать дипфейки в режиме реального времени.
Рост мошенничества с использованием синтетических идентификаторов и социальной инженерии
Мошенничество с использованием синтетических удостоверений личности — это когда мошенники используют ИИ для клонирования голосов, изменения видео или фальсификации удостоверений личности с целью совершения онлайн-мошенничества и обмана или для прохождения проверок личности. В 2025 году, скорее всего, будет зафиксирован новый пик мошенничества с использованием синтетических удостоверений личности.
Аналогично, с помощью ИИ киберпреступники будут создавать более гиперреалистичные поддельные видео и аудиозаписи старших руководителей, дающих указания сотрудникам раскрыть конфиденциальную информацию или перевести средства. Используя ИИ, злоумышленники смогут сканировать и анализировать огромные объемы данных о своих целевых жертвах, что приведет к атакам социальной инженерии, которые будут нацелены на конкретных людей.
Культура безопасности приобретает всё большую значимость, ИИ делает обучение более индивидуальным
По мере роста атак и мошенничества с использованием ИИ в социальной инженерии на первый план выходит необходимость управления человеческим риском. Организации сосредоточат усилия на смягчении человеческих ошибок, а создание надежной культуры безопасности станет краеугольным камнем стратегии кибербезопасности. В свете этого организации, скорее всего, удвоят усилия по обучению и повышению осведомленности, будут развивать киберосознанность среди сотрудников и рассмотрят возможность внедрения ИИ, чтобы сделать обучение более персонализированным.
Регулятивное давление на дезинформацию/распространение ложных сведений ужесточается
Распространение непреднамеренной дезинформации и преднамеренных кампаний по дезинформации, подпитываемых ИИ, продолжит взрывоопасно расти в социальных сетях. В результате регулирующие органы введут более строгие правила и рамки, направленные на ограничение пагубных последствий ложной информации. Шаги могут включать в себя повышение ответственности владельцев платформ и поставщиков услуг, обязательное использование инструментов обнаружения дезинформации на основе ИИ, расширение международного сотрудничества между правительствами, более строгое регулирование контента, создаваемого ИИ, и усиление усилий по повышению осведомленности и просвещению общественности.
Этика и конфиденциальность становятся главными проблемами
Широкое использование ИИ для анализа информации и обнаружения необычных закономерностей в таких вещах, как данные и поведение человека, приведет к проблемам согласия и конфиденциальности. Более того, возникнут проблемы, связанные с предвзятостью и дискриминацией, ложными срабатываниями и репутационным ущербом. Что, если ИИ ошибочно идентифицирует что-то ложное как истинное или помечает искренне честное поведение как вредоносное? Что, если злоумышленник манипулирует данными или отравляет их, заставляя системы ИИ вести себя непредсказуемо?
Баланс между безопасностью, точностью, прозрачностью и конфиденциальностью станет серьезной проблемой для разработчиков ИИ, регулирующих органов и организаций в 2025 году и в последующий период.
Как регулирование ИИ может измениться в 2025 году
В 2025 году состояние регулирования ИИ во всем мире может подвергнуться серьезному пересмотру.
Райан Браун рассматривает в CNBC (06.01.2025) некоторые ключевые события, за которыми стоит следить — от эволюции знакового Закона ЕС об ИИ до того, что администрация Трампа может сделать для США.
В 2025 году политический ландшафт США претерпит изменения, и эти изменения будут иметь серьезные последствия для регулирования ИИ.
Избранный президент Дональд Трамп вступит в должность 20 января 2025 года. К нему в Белом доме присоединится группа ведущих советников из мира бизнеса, включая Илона Маска и Вивека Рамасвами, которые, как ожидается, повлияют на политическое мышление в отношении зарождающихся технологий, таких как ИИ и криптовалюты.
По ту сторону Атлантики возникла история двух юрисдикций, в которых Великобритания и Европейский союз расходятся в регулировании мышления. В то время как ЕС взял на себя более жесткую руку с гигантами Кремниевой долины, стоящими за самыми мощными системами ИИ, Великобритания приняла более легкий подход.
Влияние Маска на политику США
Мэтт Калкинс, генеральный директор Appian, заявил CNBC, что тесные отношения Трампа с Маском могут поставить США в выгодное положение в вопросах ИИ, упомянув в качестве позитивных показателей опыт миллиардера в качестве соучредителя OpenAI и генерального директора xAI, его собственной лаборатории ИИ.
«Наконец-то в администрации США появился человек, который действительно разбирается в ИИ и имеет свое мнение по этому поводу», — сказал Калкинс в интервью в декабре 2024 года.
В настоящее время нет подтверждения того, что Трамп запланировал в плане возможных президентских директив или указов. Но Калкинс считает, что Маск, скорее всего, попытается предложить ограждения, чтобы гарантировать, что развитие ИИ не подвергнет цивилизацию опасности — риск, о котором он предупреждал много раз в прошлом.
«Он явно не желает, чтобы ИИ стал причиной катастрофических последствий для человечества. Он определенно обеспокоен этим, он говорил об этом задолго до того, как занял политическую позицию», — сказал Калкинс в интервью CNBC.
В настоящее время в США нет всеобъемлющего федерального законодательства в области ИИ. Вместо этого существует разрозненная нормативно-правовая база на уровне штатов и на местном уровне, при этом многочисленные законопроекты об ИИ были приняты в 45 штатах, а также в Вашингтоне (округ Колумбия), Пуэрто-Рико и на Виргинских островах США.
Комментарий Е.Л. и В.О.:
Существует и абсолютно иное видение позиции Маска и других лидеров Кремниевой долины на регулирование ИИ. Многие американские эксперты уверены, что команда Кремниевой долины будет, как раз, стоять на позициях максимальной ДЕРЕГУЛЯЦИИ ИИ.
Закон ЕС об искусственном интеллекте
Европейский союз на сегодняшний день является единственной юрисдикцией в мире, которая продвигает комплексные правила для искусственного интеллекта посредством своего Закона об ИИ.
Закон еще не вступил в силу, но он уже вызывает напряженность среди крупных технологических компаний США, которые обеспокоены тем, что некоторые аспекты регулирования слишком строги и могут подавить инновации.
В декабре 2024 года Управление ЕС по искусственному интеллекту (недавно созданный орган, осуществляющий надзор за моделями в соответствии с Законом об искусственном интеллекте) опубликовало второй проект свода правил для моделей искусственного интеллекта общего назначения (GPAI), в котором упоминаются такие системы, как семейство больших языковых моделей OpenAI GPT (LLM).
Во второй проект входят исключения для поставщиков определенных моделей ИИ с открытым исходным кодом. Такие модели обычно доступны общественности, чтобы позволить разработчикам создавать свои собственные версии. Он также включает требование к разработчикам «системных» моделей GPAI проходить строгие оценки рисков.
Ассоциация компьютерной и коммуникационной индустрии, членами которой является Amazon, Google и Мета*— предупредила, что он «содержит меры, выходящие далеко за рамки согласованной сферы действия Закона, такие как далеко идущие меры по авторскому праву».
Как заявила в ноябре 2024 года в интервью CNBC Шелли МакКинли, главный юридический директор популярной платформы репозитория кода GitHub, «следующий этап работы уже начался, и это может означать, что впереди нас ждет больше, чем осталось позади на данный момент».
Например, в феврале 2025 года вступят в силу первые положения Акта. Эти положения охватывают «высокорисковые» приложения ИИ, такие как удаленная биометрическая идентификация, принятие решений по кредитам и образовательный скоринг. Третий проект кодекса по моделям GPAI планируется опубликовать в том же месяце.
Лидеры европейских технологических компаний обеспокоены риском того, что карательные меры ЕС в отношении американских технологических компаний могут спровоцировать реакцию Трампа, что, в свою очередь, может заставить блок смягчить свой подход.
Взять, к примеру, антимонопольное регулирование. ЕС активно принимает меры по ограничению доминирования американских технологических гигантов, но это может вызвать негативную реакцию со стороны Трампа, считает генеральный директор швейцарской VPN-компании Proton Энди Йен.
«Трамп считает, что он, вероятно, хочет сам регулировать свои технологические компании», — сказал Йен в интервью CNBC в ноябре 2024 года на технологической конференции Web Summit в Лиссабоне, Португалия. «Он не хочет, чтобы Европа вмешивалась».
Авторские права в Великобритании
Одной из стран, за которой стоит следить, является Великобритания. Ранее Великобритания воздерживалась от введения законодательных обязательств для производителей моделей ИИ из-за опасений, что новое законодательство может оказаться слишком ограничительным.
Однако правительство Кейра Стармера заявило, что планирует разработать законодательство для ИИ, хотя подробности пока остаются скудными. Общее ожидание заключается в том, что Великобритания примет более принципиальный подход к регулированию ИИ.
В декабре 2024 года британское правительство отказалось от своего первого важного индикатора того, куда движется регулирование, объявив о консультациях по мерам регулирования использования защищенного авторским правом контента для обучения моделей ИИ. Авторское право является большой проблемой для генеративного ИИ и LLM, в частности.
Большинство LLM используют публичные данные из открытого интернета для обучения своих моделей ИИ. Но это часто включает в себя примеры произведений искусства и других материалов, защищенных авторским правом. Художники и издания, такие как New York Times утверждают, что эти системы несправедливо извлекают их ценный контент без согласия для создания оригинального вывода.
Для решения этой проблемы правительство Великобритании рассматривает возможность сделать исключение из закона об авторском праве для обучения моделей ИИ, при этом разрешив правообладателям отказаться от использования своих работ в учебных целях.
Кэлкинс из Appian заявил, что Великобритания может стать «мировым лидером» в вопросе нарушения авторских прав моделями ИИ, добавив, что страна «не подвергается такому же мощному лоббистскому натиску со стороны внутренних лидеров в области ИИ, как США».
Отношения США и Китая могут стать точкой напряженности
В свой первый срок на посту президента Трамп ввел ряд мер агрессивной политики в отношении Китая, включая решение добавить Huawei в черный список торговли, ограничивающий его от ведения бизнеса с американскими поставщиками технологий. Он также начал попытку запретить TikTok, принадлежащий китайской фирме ByteDance, в США — хотя с тех пор он смягчил свою позицию по TikTok .
Китай соревнуется за доминирование в области ИИ с США. В то же время США приняли меры по ограничению доступа Китая к ключевым технологиям, в основном к чипам, разработанным Nvidia, которые необходимы для обучения более продвинутых моделей ИИ. Китай ответил попыткой построить собственную отечественную индустрию чипов.
Технологи опасаются, что геополитический раскол между США и Китаем по вопросу ИИ может привести к другим рискам, таким как вероятность того, что одна из этих стран разработает форму ИИ, более умную, чем человек.
Макс Тегмарк, основатель некоммерческой организации Future of Life Institute, считает, что США и Китай в будущем могли бы создать форму ИИ, которая сможет совершенствоваться и разрабатывать новые системы без человеческого контроля, что потенциально вынудит правительства обеих стран самостоятельно разрабатывать правила безопасности ИИ.
«Мой оптимистичный прогноз на будущее заключается в том, что США и Китай в одностороннем порядке введут национальные стандарты безопасности, чтобы помешать своим компаниям причинять вред и создавать неконтролируемый ОИИ, не для того, чтобы умиротворить конкурирующие сверхдержавы, а просто чтобы защитить себя», — сказал Тегмарк в интервью CNBC в ноябре 2024 года.
ИИ и проблема энергии
The Economist в статье «Начинается новый энергетический суперцикл. Почему расходы на энергетическую инфраструктуру растут во всем мире» (05.01.2025) пишет, что «расходы технологических гигантов на ИИ способствуют росту спроса на энергию , что приводит к росту потребления электроэнергии и инвестиций».
Некоторые центры обработки данных поглощают столько же энергии, сколько генерирует атомная электростанция, требуя от сетевых операторов модернизации трансформаторов, линий электропередач и контрольного оборудования.
Чтобы обеспечить рост центров обработки данных, Tokyo Electric, крупнейшая энергетическая компания Японии, планирует потратить более 3 млрд долларов к 2027 году на свою инфраструктуру. Бум центров обработки данных также привел к резкому росту расходов разработчиков на охлаждающее оборудование и другое вспомогательное электрическое оборудование.
Энергетический бизнес Hitachi, у которого также имеется значительный портфель заказов, потратил 3 млрд долларов США на капитальные расходы за последние три года и планирует потратить еще 6 млрд долларов США к 2027 году, включая 1,5 млрд долларов США на трансформаторы.
Расширение производственных мощностей оставит эти фирмы уязвимыми, если электрический суперцикл окажется не таким уж и большим. Рост продаж электромобилей уже замедлился во многих богатых странах. Бум ИИ еще может обернуться крахом. Чтобы успокоить акционеров, Андреас Ширенбек, руководитель энергетического бизнеса Hitachi, говорит, что его компания добивается от крупных клиентов резервирования мощностей с помощью авансовых платежей и переходит от индивидуальных заказов к рамочным контрактам со стандартизированными конструкциями. Все это делает будущие доходы более надежными, а расширение производственных мощностей — менее рискованным.
На данный момент расходы на инфраструктуру электроснабжения не показывают никаких признаков снижения, поскольку операторы сетей борются с растущим потреблением электроэнергии, меняющейся структурой генерации и стареющей инфраструктурой. Это давление будет только увеличиваться.
Почему Трамп и Кремниевая долина нацелились на поглощение Канады?
Заявление Трампа о его желание сделать Канаду 51–м штатом США – не причуда вновь избранного президента. На кону – ядерная энергетика Канады.
Ядерная промышленность (в отличие от урановой промышленности) в Канаде берёт своё начало в 1942 году, когда в Монреале, Квебек , была создана совместная британско-канадская лаборатория, Монреальская лаборатория, под управлением Национального исследовательского совета Канады, для разработки проекта тяжеловодного ядерного реактора. Этот реактор назывался реактором National Research Experimental (NRX) и должен был стать самым мощным исследовательским реактором в мире после завершения строительства.
В настоящее время атомная энергетика в Канаде обеспечивается 19 коммерческими реакторами с чистой мощностью 13,5 гигаватт (ГВт), производящими в общей сложности 95,6 тераватт-часов (ТВт·ч) электроэнергии, что составило 16,6% от общего объема производства электроэнергии в стране. Все эти реакторы, кроме одного, расположены в Онтарио, где они производят 61% электроэнергии провинции (90,4 ТВт·ч). Семь меньших реакторов используются для исследований и производства радиофармацевтических препаратов для использования в ядерной медицине .
Все действующие в настоящее время канадские ядерные реакторы представляют собой тип реактора с тяжелой водой под давлением (PHWR) отечественной конструкции, реактор CANDU. Реакторы CANDU экспортировались в Индию , Пакистан , Аргентину , Южную Корею , Румынию и Китай. Хотя (по состоянию на 2022 год) нет планов по новым CANDU в Канаде или где-либо еще.
Канада остается технологическим лидером в области реакторов с тяжелой водой и реакторов на природном уране в более широком смысле.
С 1967 по 1970 год Канада также разработала экспериментальный миниатюрный ядерный реактор под названием SLOWPOKE (сокращение от Safe LOW-POwer Kritical Experiment). Первый прототип был собран в Чок-Ривер, и было построено много SLOWPOKE, в основном для исследований. Два SLOWPOKE все еще используются в Канаде и один в Кингстоне, Ямайка. Тот, что в Канаде, работает в École Polytechnique de Montréal с 1976 года.
Рост цен на ископаемое топливо, стареющий парк реакторов и новые опасения по поводу сокращения выбросов парниковых газов в совокупности способствовали строительству новых реакторов по всей Канаде в начале 2000-х годов. Однако то, что рассматривалось как ядерный ренессанс, сошло на нет, новое строительство так и не началось.
Комментарий Е.Л и В.О.:
Возобновить планы по строительству – расчёт Трампа и Кремниевой долины.
Ряд канадских стартапов разрабатывают новые коммерческие проекты ядерных реакторов. В марте 2016 года компания Terrestrial Energy из Оквилла, Онтарио, получила грант в размере 5,7 млн долларов от правительства Канады на разработку своего небольшого реактора на расплавленных солях IMSR. Thorium Power Canada Inc. из Торонто добивается одобрения регулирующих органов на строительство в Чили компактного демонстрационного реактора на ториевом топливе , который можно было бы использовать для питания опреснительной установки производительностью 20 млн литров в день. С 2002 года компания General Fusion из Бернаби, Британская Колумбия, привлекла 100 млн долларов от государственных и частных инвесторов для строительства прототипа термоядерного реактора на основе термоядерного синтеза с намагниченной мишенью, который начнется в 2017 году.
Канада имеет 4-е место в мире по извлекаемым запасам урана (по цене менее 130 долл. США /кг) и до 2010 года была крупнейшим производителем в мире. Единственные действующие в настоящее время шахты и самые крупные запасы урана находятся в бассейне Атабаска на севере Саскачевана. Шахта МакАртур Ривер компании Cameco , открытая в 2000 году, является как крупнейшим месторождением высококачественного урана, так и крупнейшим производителем в мире.
Примерно 15% добываемого в Канаде урана используется в качестве топлива для внутренних реакторов, остальная часть экспортируется.
Как и в США, политика Канады заключается не в переработке отработавшего ядерного топлива, а в его прямой утилизации по экономическим причинам.
В 1978 году правительство Канады запустило программу по управлению отходами ядерного топлива. В 1983 году в Whiteshell Laboratories в Манитобе была построена подземная лаборатория для изучения геологических условий, связанных с хранением отработанного ядерного топлива. 420-метровый объект был выведен из эксплуатации и намеренно затоплен в 2010 году для проведения одного заключительного эксперимента. В 2002 году отраслью была основана Организация по управлению ядерными отходами (NWMO) для разработки постоянной стратегии по отходам.
Канадские ядерные лаборатории (CNL) планируют построить установку по захоронению низкоактивных радиоактивных отходов (NSDF) объемом 1 млн м³ на объекте Чок-Ривер.
В 2005 году NWMO приняла решение о строительстве глубокого хранилища, предназначенного для хранения отработанного ядерного топлива под землей. Стоимость этого подземного хранилища глубиной от 500 до 1000 метров в размере 24 миллиардов долларов должна быть оплачена трастовым фондом, поддерживаемым компаниями по производству ядерного топлива. Отработанные топливные пучки будут помещены в стальные корзины, обернутые вместе 3 на 3 (всего 324 топливных пучка) в коррозионно-стойкую медь, чтобы сформировать контейнеры, рассчитанные на срок службы не менее 100 000 лет. Контейнеры будут заключены в туннели хранилища вспучивающейся бентонитовой глиной , но останутся извлекаемыми в течение приблизительно 240 лет.
*Компания Meta (соцсеть Facebook) признана экстремистской организацией и запрещена в РФ