Искусственный интеллект, Европейский союз (Евросоюз, ЕС): Закон об искусственном интеллекте (2024 г.)


(англ. EU Artificial Intelligence Act)

Также используются термины «Регламент об искусственном интеллекте»

Нормативный акт Европейского союза, регулирующий разработку и использование искусственного интеллекта (ИИ) и предусматривающий широкий набор требований для организаций, занимающихся разработкой и внедрением ИИ, а также систему штрафов.

Закон об искусственном интеллекте (ИИ) был согласован на национальном уровне со всеми государствами-членами ЕС в декабре 2023 г., одобрен Европейским парламентом 13 марта 2024 г. и Советом ЕС 21 мая 2024 г. [3, 6]. Принятый Закон стал первым в мире нормативным правовым актом, направленным непосредственно на регулирование ИИ [2]. Закон формирует всеобъемлющий свод правил использования систем ИИ в ЕС [3].

Текст документа

Основная цель Закона — обеспечить становление Европы в качестве мирового лидера ИИ-индустрии, но, при этом, защитить фундаментальные права граждан, основы демократии и верховенства права от рисков использования систем ИИ [6].

Закон действует как в отношении европейских компаний, разрабатывающих и внедряющих ИИ, так и в отношении иностранных корпораций, если их ИИ-системы будут использоваться на территории Евросоюза [2].

Закон об ИИ — часть масштабной цифровой стратегии ЕС, нацеленной на создание благоприятных условий для развития инновационных технологий [2].

Закон вводит категории ИИ-систем на основе оценки рисков [2, 4]:

- системы с «недопустимым риском», включающие, например, биометрическую идентификацию и категоризацию людей, распознавание эмоций или системы социального рейтинга (англ. social scoring);

- системы с «высоким риском», включающие, например, ИИ-системы, используемые для работы инфраструктуры, если такое использование может поставить под угрозу жизнь и здоровье граждан; ИИ-системы, которые используются в образовании, в случае, если они могут повлиять на доступ к образованию через оценку экзаменов;

- системы с «ограниченным риском», которые не соблюдают требования «прозрачности» и не информируют людей о взаимодействии с ИИ;

- системы с «минимальным (отсутствующим) риском», включающие, например, видеоигры с поддержкой ИИ или фильтры для спама.

Согласно Закону, для каждой группы предусмотрено специальное регулирование — от самых строгих правил для систем с «высоким риском» до полной свободы для систем, не представляющих угрозу. ИИ-системы, представляющие недопустимые риски запрещены [2].

Закон предполагает формирование реестра ИИ-систем с высоким уровнем риска; вводит требования по проведению оценки соответствия перед тем, как система ИИ с высоким уровнем риска будет введена в эксплуатацию или выведена на рынок; определяет требования прозрачности для ИИ-систем с ограниченным риском [2].

Провайдеры моделей ИИ общего назначения обязаны предоставлять техническую документацию, инструкции по использованию моделей, соблюдать законодательство о защите авторских прав и предавать огласке контент, который использовался для обучения систем ИИ. Все поставщики моделей ИИ общего назначения должны проводить оценку моделей, отслеживать и сообщать о серьезных инцидентах в работе ИИ-моделей и обеспечивать кибербезопасность [2].

Законом установлены крупные штрафы за нарушение установленных требований в размере до 35 млн евро или 7% от глобального оборота компании-поставщика или провайдера [2].

Для обеспечения действия Закона будет создан Европейский офис по ИИ (англ. AI Office) [2].

Закон вступит в полную силу в 2026 г., однако запрет на системы ИИ с «недопустимыми рисками» будет введен уже в конце 2024 - начале 2025 гг., а требования о прозрачности систем ИИ — через год (в 2025 г.) [4].

В России также обращают внимание на важность правового регулирования систем ИИ. В Совете Федерации подчеркивают необходимость эффективного законодательного регулирования сферы применения ИИ и призывают изучить опыт других стран. Подчеркивалось, что в Евросоюзе используют жесткий подход: централизованный контроль всех стадий разработки и применения генеративных нейросетей с их тестированием перед использованием. В США, Великобритании и Японии, наоборот, контроль минимальный. Лучший вариант для России — нейтральное регулирование с соблюдением баланса между развитием и безопасностью с точечным характером ограничений [1].

  1. В Совфеде обсудили регулирование искусственного интеллекта // Право RU: [сайт]. - 2024. - 24 мая. - URL: https://pravo.ru/news/253176/
  2. Довели до ума: какой закон об искусственном интеллекте приняли в Европе // Forbes: [сайт]. - 2024. - 16 марта. - URL: https://www.forbes.ru/tekhnologii/508210-doveli-do-uma-kakoj-zakon-ob-iskusstvennom-intellekte-prinali-v-evrope
  3. Закон об искусственном интеллекте вводит единые правила в ЕС // Информационный портал «Germania-online»: [сайт]. - 2024. - 27 мая. - URL: https://germania-online.diplo.de/ru-dz-ru/politik/-/2658670
  4. Совет ЕС утвердил закон об искусственном интеллекте // Право RU: [сайт]. - 2024. - 21 мая. - URL: https://pravo.ru/news/253109/
  5. Artificial Intelligence Act // European Parliament: [site]. - URL: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_EN.pdf
  6. Artificial Intelligence Act: MEPs adopt landmark law // News European Parliament: [site]. - 2024. - 13 March. - URL: https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law


Обновлено: 26 июня 2024 г.