Профессор Сколковского института науки и технологий Максим Федоров назначен представителем российского научного сообщества на заседаниях экспертной группы ЮНЕСКО по выработке рекомендаций этических принципов разработки и применения искусственного интеллекта (ИИ).


Первое заседание этой группы состоится 20−24 апреля, а второе — в августе. 


Максим Федоров. Фото: Sk.ru

По мнению председателя Комиссии по развитию информационного сообщества, СМИ и массовых коммуникаций Общественной палаты РФ Александра Малькевича, полученное российским ученым приглашение в экспертную группу ЮНЕСКО свидетельствует о высоком международном авторитете наших специалистов в сфере искусственного интеллекта, а также открывает дополнительные возможности для продвижения отечественной науки в рамках ООН. 

Участие всегда лучше, чем неучастие. Россию приглашают, Россию привлекают, то есть мнение России, наш опыт и наши наработки важны. Всем этим необходимо максимально пользоваться именно для того, чтобы нашу позицию воспринимали, чтобы она находила свое отражение в международных стандартах и правилах, — рассказал Малькевич в интервью «Ридусу».

Эксперт отметил, что наряду с преимуществами искусственный интеллект таит в себе и массу опасностей.

«Есть много опасностей, связанных с использованием персональных данных. И Россия, будучи важным игроком на мировой арене, безусловно, должна участвовать в выработке принципов регулирования искусственного интеллекта, которые смогут помочь защитить наших людей. И еще нам, разумеется, нужно не забывать о внедрении у себя передового западного опыта. Особенно это касается области законодательного регулирования», — заключил Александр Малькевич.

«До сих пор у человечества было, условно говоря, четыре среды обитания: земля, вода, воздух и отчасти космос. Сейчас появилась еще одна среда обитания — цифровая. И в ней нужно сделать то же самое, что сделано в других средах. Там есть определенные законы, регламенты, правила. В цифровой среде обитания законы, скорее всего, будут отличаться. Законы воздухоплавания, например, отличаются от морского права», — добавил основатель аналитической компании «Крибрум» Игорь Ашманов.

Практика использования искусственного интеллекта должна базироваться, по мнению господина Ашманова, на принципах гуманизма. 

Речь идет о примате человека над цифровыми технологиями. На мой взгляд, должны быть запрещены любые персональные рейтинги и любое ранжирование людей с использованием их личных данных. Также необходимо запретить передавать автоматическим системам право принятия решений в отношении человека, если в этом процессе задействован исключительно автоматический алгоритм. Никакие системы ИИ не должны принимать решения в отношении людей автоматически, — пояснил Игорь Ашманов.

Разработкой российской позиции по вопросу этики в области искусственного интеллекта занимается Комитет по вопросам ИИ при Комиссии РФ по делам ЮНЕСКО. Глава Комитета Александр Кулешов заявил в интервью РГ, что помимо прочего российская сторона намерена призвать мировое сообщество запретить использование искусственного интеллекта в военных целях. 

Предложение, безусловно, хорошее, — прокомментировал Игорь Ашманов. — Однако искусственный интеллект уже активно применяется в военной области. И те, кто это делает в оборонке, по сути, стремятся наделить искусственный интеллект правом на насилие. Естественно, никакого примата человека над технологиями здесь быть не может. Для автономных убийц, которые, скажем, будут летать, вычислять кого-то по лицам и самостоятельно принимать решения, кому жить, а кому нет, принципы гуманизма ничего не значат. 

«Самое ужасное, что никаких серьезных соглашений по вопросу использования ИИ в военной области, к сожалению, не предвидится. Государства, которые пытаются стать ключевыми игроками в сфере искусственного интеллекта, ничего подписывать не хотят, чтобы себя не ограничивать. Да и вообще локомотивом развития технологий всегда была военная отрасль. Интернет, мобильные телефоны, поисковые системы, изначально всё это разрабатывалось для военных. Поэтому идея о запрете использования ИИ в военных целях, конечно, хорошая, но в то же время нужно держать порох сухим: Россия должна построить свой искусственный интеллект в области обороны намного лучше, чем все остальные. Иначе нас просто растопчут. ИИ — это следующее супероружие. У кого через 10−15 лет не будет такого оружия, тот проиграл», — подытожил Ашманов. 

Напомним, что в октябре 2019 года президент России Владимир Путин утвердил национальную стратегию развития искусственного интеллекта до 2030 года. Главными целями этой стратегии названы повышение благосостояния и улучшение качества жизни населения, а также обеспечение национальной безопасности и повышение конкурентоспособности отечественной экономики. 

   

Источник: ridus.ru 

ru