Главная → Дипломатический словарь
(англ. The Asilomar AI Principles)
Система рекомендаций, направленная на формирование единых норм международного регулирования деятельности искусственного интеллекта (ИИ) и содержащая положения, которых важно придерживаться в работе с ИИ ради его использования исключительно в позитивном ключе.
Азиломарские принципы были приняты в январе 2017 года на конференции в Азиломаре (Калифорния, США) [1, 5].
В разработке принципов приняли участие ученые и эксперты в области ИТ, ИИ-технологий, робототехники и права. Поддержку принципам выразили более 5700 авторитетных мировых специалистов, включая бизнесмена И. Маска и физика-теоретика С. Хокинга [5].
Интерес к теме гуманности и этичности ИИ возник в 1960-е годы одновременно с появлением самого понятия «искусственный интеллект». Развитие технологий в 1990-е - 2000-е годы способствовало проведению в г. Сан-Ремо (Италия) Первого международного симпозиума по робоэтике в 2004 году [5]. В этом контексте Азиломарские принципы стали очередным шагом к формированию ответственного подхода человечества к разработке ИИ и робототехники, базой для дальнейшего развития международно-правового регулирования ИИ [3, 4].
Ключевые положения Азиломарских принципов [5]:
- польза — ИИ-разработки должны нести пользу и благо для всех людей и окружающей среды;
- безопасность — системы ИИ должны проектироваться и эксплуатироваться так, чтобы свести к минимуму риск непреднамеренного причинения вреда людям;
- прозрачность — проектирование, разработка и развертывание систем ИИ должны быть прозрачными, тогда как сами системы ИИ должны объяснять людям свои решения и действия;
- конфиденциальность — ИИ-технологии должны сохранять безопасность личных данных;
- справедливость — в ИИ-разработках не должны допускаться случаи дискриминации;
- контроль со стороны человека — люди должны иметь возможность контролировать системы ИИ;
- общая выгода — ИИ должен приносить пользу обществу в целом, а не только небольшим группам людей или отдельным организациям;
- ответственность — люди, отвечающие за разработку и развертывание систем ИИ, должны нести ответственность за их влияние на общество;
- недопустимость глобальной гонки ИИ-вооружений — необходимо избегать противостояния государств ради достижения превосходства в сфере летального автономного оружия и других военных ИИ-систем.
Согласно Азиломарским принципам, специалисты и ученые, разрабатывающие системы ИИ в разных странах, должны сотрудничать между собой. Важно, чтобы специалисты не пытались добиться прорыва за счет игнорирования стандартов безопасности. Системы ИИ должны работать таким образом, чтобы быть совместимыми с идеалами человеческого достоинства, его прав и свобод, многообразия культур. Наконец, экономическое процветание, достигнутое благодаря ИИ, должно использоваться в интересах всего человечества [1].
Необходимость разработки Азиломарских принципов связана с тем, что ИИ потенциально способен усугубить существующие проблемы человечества [5].
Массивы данных, на которых обучаются нейросети, нередко содержат предвзятую информацию, что ведет к воспроизведению со стороны ИИ расовой, гендерной или социальной дискриминации, встречающейся в обществе. В дополнение к этому складывается глобальный запрос на подотчетность ИИ-разработок гражданскому обществу; необходимости понимать кто несет ответственность за действия ИИ [5].
Азиломарские принципы подвергались критике, поскольку они носят лишь рекомендательный характер. Принципы не предлагают конкретных мер по предотвращению или исправлению неблагоприятных ситуаций; они составлены достаточно абстрактно, оставляя свободу для интерпретации [5].
Россия проводит работу над формированием этических принципов работы технологий ИИ. В 2021 году в Москве прошел первый международный форум «Этика искусственного интеллекта: начало доверия», где был принят Кодекс этики в сфере ИИ [2]. Российский кодекс подписали более 100 отечественных организаций. В основе кодекса, как и в основе Азиломарских принципов, лежат непричинение вреда, прозрачность, осознание ответственности за действия ИИ и человекоориентированность. Кодекс этики в сфере ИИ, принятый в России, также носит рекомендательный характер [5].
См. также: Искусственный интеллект; Искусственный интеллект в принятии политических решений
Обновлено: 21 февраля 2024 г.