Главная → Дипломатический словарь
(англ. EU Artificial Intelligence Act)
Также используются термины «Регламент об искусственном интеллекте»
Нормативный акт Европейского союза, регулирующий разработку и использование искусственного интеллекта (ИИ) и предусматривающий широкий набор требований для организаций, занимающихся разработкой и внедрением ИИ, а также систему штрафов.
Закон об искусственном интеллекте (ИИ) был согласован на национальном уровне со всеми государствами-членами ЕС в декабре 2023 г., одобрен Европейским парламентом 13 марта 2024 г. и Советом ЕС 21 мая 2024 г. [3, 6]. Принятый Закон стал первым в мире нормативным правовым актом, направленным непосредственно на регулирование ИИ [2]. Закон формирует всеобъемлющий свод правил использования систем ИИ в ЕС [3].
Основная цель Закона — обеспечить становление Европы в качестве мирового лидера ИИ-индустрии, но, при этом, защитить фундаментальные права граждан, основы демократии и верховенства права от рисков использования систем ИИ [6].
Закон действует как в отношении европейских компаний, разрабатывающих и внедряющих ИИ, так и в отношении иностранных корпораций, если их ИИ-системы будут использоваться на территории Евросоюза [2].
Закон об ИИ — часть масштабной цифровой стратегии ЕС, нацеленной на создание благоприятных условий для развития инновационных технологий [2].
Закон вводит категории ИИ-систем на основе оценки рисков [2, 4]:
- системы с «недопустимым риском», включающие, например, биометрическую идентификацию и категоризацию людей, распознавание эмоций или системы социального рейтинга (англ. social scoring);
- системы с «высоким риском», включающие, например, ИИ-системы, используемые для работы инфраструктуры, если такое использование может поставить под угрозу жизнь и здоровье граждан; ИИ-системы, которые используются в образовании, в случае, если они могут повлиять на доступ к образованию через оценку экзаменов;
- системы с «ограниченным риском», которые не соблюдают требования «прозрачности» и не информируют людей о взаимодействии с ИИ;
- системы с «минимальным (отсутствующим) риском», включающие, например, видеоигры с поддержкой ИИ или фильтры для спама.
Согласно Закону, для каждой группы предусмотрено специальное регулирование — от самых строгих правил для систем с «высоким риском» до полной свободы для систем, не представляющих угрозу. ИИ-системы, представляющие недопустимые риски запрещены [2].
Закон предполагает формирование реестра ИИ-систем с высоким уровнем риска; вводит требования по проведению оценки соответствия перед тем, как система ИИ с высоким уровнем риска будет введена в эксплуатацию или выведена на рынок; определяет требования прозрачности для ИИ-систем с ограниченным риском [2].
Провайдеры моделей ИИ общего назначения обязаны предоставлять техническую документацию, инструкции по использованию моделей, соблюдать законодательство о защите авторских прав и предавать огласке контент, который использовался для обучения систем ИИ. Все поставщики моделей ИИ общего назначения должны проводить оценку моделей, отслеживать и сообщать о серьезных инцидентах в работе ИИ-моделей и обеспечивать кибербезопасность [2].
Законом установлены крупные штрафы за нарушение установленных требований в размере до 35 млн евро или 7% от глобального оборота компании-поставщика или провайдера [2].
Для обеспечения действия Закона будет создан Европейский офис по ИИ (англ. AI Office) [2].
Закон вступит в полную силу в 2026 г., однако запрет на системы ИИ с «недопустимыми рисками» будет введен уже в конце 2024 - начале 2025 гг., а требования о прозрачности систем ИИ — через год (в 2025 г.) [4].
В России также обращают внимание на важность правового регулирования систем ИИ. В Совете Федерации подчеркивают необходимость эффективного законодательного регулирования сферы применения ИИ и призывают изучить опыт других стран. Подчеркивалось, что в Евросоюзе используют жесткий подход: централизованный контроль всех стадий разработки и применения генеративных нейросетей с их тестированием перед использованием. В США, Великобритании и Японии, наоборот, контроль минимальный. Лучший вариант для России — нейтральное регулирование с соблюдением баланса между развитием и безопасностью с точечным характером ограничений [1].
Обновлено: 26 июня 2024 г.