Искусственный интеллект: Азиломарские принципы


(англ. The Asilomar AI Principles)

Система рекомендаций, направленная на формирование единых норм международного регулирования деятельности искусственного интеллекта (ИИ) и содержащая положения, которых важно придерживаться в работе с ИИ ради его использования исключительно в позитивном ключе.

Азиломарские принципы были приняты в январе 2017 года на конференции в Азиломаре (Калифорния, США) [1, 5].

В разработке принципов приняли участие ученые и эксперты в области ИТ, ИИ-технологий, робототехники и права. Поддержку принципам выразили более 5700 авторитетных мировых специалистов, включая бизнесмена И. Маска и физика-теоретика С. Хокинга [5].

Интерес к теме гуманности и этичности ИИ возник в 1960-е годы одновременно с появлением самого понятия «искусственный интеллект». Развитие технологий в 1990-е - 2000-е годы способствовало проведению в г. Сан-Ремо (Италия) Первого международного симпозиума по робоэтике в 2004 году [5]. В этом контексте Азиломарские принципы стали очередным шагом к формированию ответственного подхода человечества к разработке ИИ и робототехники, базой для дальнейшего развития международно-правового регулирования ИИ [3, 4].

Ключевые положения Азиломарских принципов [5]:

- польза — ИИ-разработки должны нести пользу и благо для всех людей и окружающей среды;

- безопасность — системы ИИ должны проектироваться и эксплуатироваться так, чтобы свести к минимуму риск непреднамеренного причинения вреда людям;

- прозрачность — проектирование, разработка и развертывание систем ИИ должны быть прозрачными, тогда как сами системы ИИ должны объяснять людям свои решения и действия;

- конфиденциальность — ИИ-технологии должны сохранять безопасность личных данных;

- справедливость — в ИИ-разработках не должны допускаться случаи дискриминации;

- контроль со стороны человека — люди должны иметь возможность контролировать системы ИИ;

- общая выгода — ИИ должен приносить пользу обществу в целом, а не только небольшим группам людей или отдельным организациям;

- ответственность — люди, отвечающие за разработку и развертывание систем ИИ, должны нести ответственность за их влияние на общество;

- недопустимость глобальной гонки ИИ-вооружений — необходимо избегать противостояния государств ради достижения превосходства в сфере летального автономного оружия и других военных ИИ-систем.

Согласно Азиломарским принципам, специалисты и ученые, разрабатывающие системы ИИ в разных странах, должны сотрудничать между собой. Важно, чтобы специалисты не пытались добиться прорыва за счет игнорирования стандартов безопасности. Системы ИИ должны работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур. Наконец, экономическое процветание, достигнутое благодаря ИИ, должно использоваться в интересах всего человечества [1].

Необходимость разработки Азиломарских принципов связана с тем, что ИИ потенциально способен усугубить существующие проблемы человечества [5].

Массивы данных, на которых обучаются нейросети, нередко содержат предвзятую информацию, что ведет к воспроизведению со стороны ИИ расовой, гендерной или социальной дискриминации, встречающейся в обществе. В дополнение к этому складывается глобальный запрос на подотчетность ИИ-разработок гражданскому обществу; необходимости понимать кто несет ответственность за действия ИИ [5].

Азиломарские принципы подвергались критике, поскольку они носят лишь рекомендательный характер. Принципы не предлагают конкретных мер по предотвращению или исправлению неблагоприятных ситуаций; они составлены достаточно абстрактно, оставляя свободу для интерпретации [5].

Россия проводит работу над формированием этических принципов работы технологий ИИ. В 2021 году в Москве прошел первый международный форум «Этика искусственного интеллекта: начало доверия», где был принят Кодекс этики в сфере ИИ [2]. Российский кодекс подписали более 100 отечественных организаций. В основе кодекса, как и в основе Азиломарских принципов, лежат непричинение вреда, прозрачность, осознание ответственности за действия ИИ и человекоориентированность. Кодекс этики в сфере ИИ, принятый в России, также носит рекомендательный характер [5].

См. также: Искусственный интеллект; Искусственный интеллект в принятии политических решений

  1. ИИ в законе: что такое этика искусственного интеллекта // Известия: [сайт]. - 2023. - 15 октября. - URL: https://iz.ru/1585111/alena-svetunkova/ii-v-zakone-chto-takoe-etika-iskusstvennogo-intellekta
  2. Кодекс этики в сфере ИИ // Альянс в сфере искусственного интеллекта: [сайт]. - URL: https://ethics.a-ai.ru/
  3. Филипова И.А. Правовое регулирование искусственного интеллекта: учебное пособие / И.А. Филипова. Нижний Новгород: Нижегородский университет, 2020. - 90 с. - Текст: непосредственный
  4. Хасамова З.И., Бегишев И.Р. Правовое регулирование искусственного интеллекта / З.И. Хасамова, И.Р. Бегишев // Baikal Research Journal. - 2019. - №2. - URL: https://cyberleninka.ru/article/n/pravovoe-regulirovanie-iskusstvennogo-intellekta
  5. Что такое Азиломарские принципы и зачем они искусственному интеллекту // РБК Тренды: [сайт]. - URL: https://trends.rbc.ru/trends/futurology/64a3cc1b9a794735c9082718


Обновлено: 21 февраля 2024 г.