Эксперты работают над Кодексом этики искусственного интеллекта
На площадке Аналитического центра продолжается обсуждение Кодекса этики в сфере искусственного интеллекта. Эксперты работают над аргументами в пользу конкретных рамок, которые обеспечат этичное развитие AI-технологий.
Национальные рекомендации по этике искусственного интеллекта разрабатываются по поручению президента России и в соответствии с положениями Национальной стратегии развития искусственного интеллекта до 2030 года, а также Концепции регулирования отношений в сфере технологий искусственного интеллекта и робототехники до 2024 года. Аналитический центр работает над документом совместно с Минэкономразвития России и Альянсом в сфере искусственного интеллекта.
«Мы хотим, чтобы Россия попала в десятку передовых стран-разработчиков этических норм в сфере искусственного интеллекта. Нельзя ждать, когда нашим разработчикам будут навязаны стандарты, по которым им придется работать. Лучше разработать свои стандарты и продвигать их на мировом уровне», - пояснила референт Управления по развитию информационно-коммуникационных технологий и инфраструктуры связи Администрации Президента София Захарова.
Она добавила, что Кодекс должен выполнять, в том числе, и просветительскую функцию. «Наиболее важная задача – вызвать доверие общества к технологиям. Мы сможем этого добиться, если открыто расскажем, на каких принципах и правилах будут разрабатываться и внедряться технологии искусственного интеллекта», - пояснила Захарова. Кроме того, по ее словам, в отсутствие законодательного регулирования, Кодекс станет гарантией для самих разработчиков и защитит их от недобросовестной конкуренции.
Как рассказал Управляющий директор центра регулирования AI ПАО «Сбер» Андрей Незнамов, Кодекс будет регламентировать работу регуляторов, разработчиков, заказчиков, эксплуатантов, пользователей систем искусственного интеллекта (СИИ), экспертов и операторов СИИ и др. лиц, потенциально имеющих возможность влияния на СИИ. Нормы кодекса будут носить рекомендательный характер и распространяться на всех участников рынка, независимо от их государственной принадлежности. «При разработке норм Кодекса мы опирались на человекоцентричный принцип, в соответствии с которым технологии должны способствовать реализации всех потенциальных возможностей человека, риск-ориентированный принцип - любая технология должна рассматриваться с точки зрения не только пользы, но и рисков для интересов человека и общества, а также принципы предосторожности и ответственного отношения. Наша задача сделать так, чтобы максимально предотвращать вред и обеспечить безопасность разработок», - пояснил Незнамов.
Эксперт перечислил ключевые принципы Кодекса этики в сфере ИИ. Так, по его словам, главный приоритет развития технологий ИИ состоит в защите интересов людей. Кроме того, в Кодексе говорится о необходимости осознавать ответственность при создании и использовании ИИ, которая всегда лежит на человеке. «Технологии ИИ можно и нужно незамедлительно внедрять там, где это принесёт пользу людям. Интересы развития технологий ИИ должны быть выше интересов конкуренции, - перечислил Незнамов. - Важна максимальная прозрачность и правдивость в информировании об уровне развития технологий ИИ, о возможностях, рисках, успехах и неудачах применения».
Как отметили участники круглого стола, принципы этики должны развиваться по мере появления новых знаний, вызовов и возможностей. Эксперты обратили внимание на то, что в отличие от норм права, положения Кодекса не будут иметь юридической значимости. Поэтому ключевым механизмом применения Кодекса должно стать общественное внимание к теме и порицание тех, кто нарушает этические нормы. Компании, не выполняющая требования документа, будет нести репутационные и экономические, а не юридические потери.
Планируется, что Кодекс этики в сфере искусственного интеллекта будет представлен осенью.