Искусственному интеллекту очертили границы
В России появился кодекс этики для «машин»
Около двух десятков крупных российских компаний и организаций вчера подписали первый российский Кодекс этики искусственного интеллекта (ИИ). Документ является добровольным к исполнению и закрепляет базовые требования к применению этой технологии, в том числе по части обеспечения безопасности данных, идентификации ИИ при взаимодействии с людьми и сохранении ответственности при его применении за человеком. «Нравственные» нормы для систем ИИ описаны лишь в общих чертах, в каждом конкретном случае предлагается соотносить жесткость регулирования с рисками применения технологии.
Развернуть на весь экран
Кодекс искусственного интеллекта устанавливает, что ответственность при применении этой технологии всегда должна оставаться за человеком
Кодекс искусственного интеллекта устанавливает, что ответственность при применении этой технологии всегда должна оставаться за человеком
Фото: Александр Чиженок, Коммерсантъ
Крупные российские компании вчера подписали первый на отечественном рынке Кодекс этики искусственного интеллекта. Его разработка предусмотрена стратегией развития ИИ до 2030 года и федеральным проектом «Искусственный интеллект». Пока соблюдение норм этого документа носит добровольный характер. Его подписантами стали Сбербанк, «Яндекс», «Ростелеком», МТС, Mail.ru, «Газпром нефть», Infowatch, «Росатом», ЦИАН. Также к кодексу присоединились НИУ-ВШЭ, «Сколтех», МФТИ, ИТМО, Иннополис, РФПИ и Институт системного программирования им. В. П. Иванникова. Вице-премьер Дмитрий Чернышенко вчера выразил надежду, что до конца года к кодексу присоединятся до ста компаний.
Разработкой свода правил занимались Альянс ИИ (включая Сбербанк, который является «ответственным» за развитие этой технологии) и Аналитический центр при правительстве. Подобные документы есть в 20 странах, у 35 крупных компаний в мире уже есть и собственные кодексы (в России — у Сбербанка, «Яндекса» и ABBY).
В 12-страничном кодексе кратко зафиксированы принципы человекоориентированности систем ИИ, сохранения автономии и свободы воли в обществе, отсутствия дискриминации и непричинения вреда.
В нем рекомендуется применение «риск-ориентированного подхода» — соотнесения жесткости регулирования с потенциальным влиянием создаваемых систем (методику оценки рисков предлагается разработать дополнительно). Ответственность за применение искусственного интеллекта всегда должна оставаться за человеком (в том числе на ИИ не должны перекладываться «полномочия ответственного нравственного выбора»). В документе закреплено, что применение технологий «сильного» (схожего с человеческим) ИИ должно находиться под контролем государства.
Из практических аспектов кодексом обозначено требование об идентификации ИИ при общении с человеком, «когда это затрагивает вопросы прав человека и критических сфер его жизни», а также об обеспечении безопасности в работе с данными. Закрепляется условия конкуренции между компаниями. Она не должна вредить развитию технологии, поэтому рекомендуется обеспечивать доступность данных и совместимость систем там, где это возможно, а также предоставлять достоверную информацию о применяемом ИИ. Для контроля за исполнением кодекса планируется создание специальной комиссии по этике на базе Альянса ИИ.
https://www.kommersant.ru/doc/5051225