Дмитрий Чернышенко: Кодекс этики ИИ повысит доверие общества к новым технологиям

27.10.2021 195

Заместитель Председательства Правительства Дмитрий Чернышенко принял участие в первом международном форуме «Этика искусственного интеллекта: начало доверия».

Форум стал первой в России площадкой, где разработчики и пользователи ИИ-технологий обсудили шаги по эффективному внедрению этики искусственного интеллекта в приоритетных отраслях экономики.

Основным мероприятием форума стало пленарное заседание «Национальная концепция этического регулирования искусственного интеллекта».

Фото - government.ru

В нём приняли участие начальник Управления  Президента Российской Федерации по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева, первый заместитель председателя правления Сбербанка Александр Ведяхин, генеральный директор компании «Яндекс» в России Елена Бунина, президент, председатель правления ПАО «МТС» Вячеслав Николаев и другие представители ИТ-отрасли.

В рамках форума был подписан Кодекс в сфере искусственного интеллекта. Впервые для этого использовалась мобильная подпись «Госключ». Это удобный и безопасный сервис для пользователей портала Госуслуг с подтвержденной учетной записью.

«Технологии искусственного интеллекта постепенно внедряются в самые разные сферы жизни, включая образование, здравоохранение, госуправление. По данным ВЦИОМа, около 48% россиян доверяют ИИ. Это достаточно высокая цифра. Но пока у части общества неоднозначное отношение к таким технологиям, и это то, над чем нам надо работать. Обществу нужен надёжный ИИ с вероятностью ошибки ниже, чем у человека. Права и свободы граждан гарантированы Конституцией. Наша обязанность – реализовать механизмы по их защите, независимо от среды, в которой находится человек. Соблюдение этических норм при работе с ИИ позволит предотвратить их нарушение. Поэтому Правительство приветствует подписание профессиональным сообществом Кодекса этики ИИ, он позволит повысить уровень доверия граждан к новым технологиям. Опираясь на лучшие практики, Россия входит в десятку стран, для которых этичность развития важнейшей технологии XXI века имеет государственное значение», – отметил Заместитель Председателя Правительства.

Начальник Управления Президента по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева, вице-премьер Дмитрий Чернышенко и генеральный директор «Яндекс» Елена Бунина

Вице-премьер Дмитрий Чернышенко отметил, что указом Президента утверждена Национальная стратегия развития ИИ до 2030 года. В ней также отмечена необходимость выработки этических норм взаимодействия человека с искусственным интеллектом.

К разработке кодекса было привлечено свыше 500 экспертов, получено и проработано более 300 различных предложений и замечаний. Работа шла с учётом требований Национальной стратегии развития искусственного интеллекта до 2030 года. Организационно активно участие принимали Аналитический центр Правительства и Минэкономразвития.

Документ охватывает не только разработчиков, но и учёных, потребителей, поставщиков ИТ-решений. Принципы и положения, которые удалось выработать, полностью соответствуют рекомендациям ЮНЕСКО в сфере ИИ и содействуют достижению целей устойчивого развития, определённых ООН.

В подписании Кодекса в сфере искусственного интеллекта приняли участие представители крупнейших российских компаний, вузов и научно-исследовательских институтов. В частности, МФТИ, Сбербанк, «Яндекс», «МТС», «Ростелеком», РФПИ, «Газпромнефть» и другие.

«Сегодня организации-лидеры поставили свои подписи под кодексом. Ожидаем, что до конца года его подпишут более 100 организаций из государственного, коммерческого и научного секторов. Правительство приложит все необходимые организационные усилия, чтобы этические принципы ИИ нашли практическую реализацию в разных сферах: в госуправлении, здравоохранении, на транспорте, где благополучие людей в приоритете», – сказал Дмитрий Чернышенко.

 

Источник: Пресс-служба Правительства России

Назад к списку


Добавить комментарий
Прежде чем добавлять комментарий, ознакомьтесь с правилами публикации
Имя:*
E-mail:
Должность:
Организация:
Комментарий:*
Введите код, который видите на картинке:*