То, как кодекс поможет человеку и машинному мышлению наводить между собой мосты, дал понять вопрос генерального директора Infowatch Натальи Касперской первому заместителю председателя Сбербанка Александру Ведяхину. "Моей знакомой Сбербанк отказал в кредите за минуту. Как ей быть?" - спросила Касперская.
- Опротестовать решение, - ответил Александр Ведяхин. - Да, мы ввели в систему кредитования стратегию "посевных инвестиций", когда алгоритм ИИ оценивает шансы клиента на получение кредита. Он исходит из рационального расчета - способности клиента выдержать долговую нагрузку, но право вето у ИИ нет. Финальное решение принимает человек. Мы уже столкнулись с тем, что выравнивание этических принципов иногда ведет к отказу от них. Алгоритм ИИ не может посмотреть человеку в глаза, когда он, например, берет кредит на развитие бизнеса. И тут отказ от учета интересов сторон создает проблему этического свойства - без баланса интересов люди отказываются от работы с компаниями. Проще говоря, неустойчивая этика ведет к неустойчивому бизнесу. Когда мы это поняли, приступили к созданию кодекса этики ИИ.
Другое дело, как заметил Александр Ведяхин, "приземлить" как норму кодекс этики ИИ в сознание людей и корпораций будет как в случае со стаканом воды, когда он наполовину пуст, наполовину полон, непросто. Так, по данным ЮНЕСКО, 72% граждан пяти стран (США, ФРГ, Австралии, Великобритании и Канады) не доверяют ИИ, а 65 % граждан 26 стран полагают, что этические рамки - ключевой фактор доверия ИИ. Одна из относительно доверяющих искусственному интеллекту стран - Россия. 48% россиян, по данным ВЦИОМ, доверяют цифровым технологиям. Правда, Россия одной из первых в мире сформулировала пять рисков и угроз, которые сопровождают внедрение "цифры" в жизнь, - дискриминация, потеря приватности, потеря контроля над ИИ, причинение вреда человеку ошибками алгоритма, применение в неприемлемых целях. Все они включены в принятый "Кодекс этики искусственного интеллекта" как угрозы правам и свободам человека.
- В ответ на риски кодекс утвердил основные принципы внедрения ИИ - прозрачность, правдивость, ответственность, надежность, инклюзивность, беспристрастность, безопасность и конфиденциальность, - говорит заместитель председателя правительства России Дмитрий Чернышенко. - Принципы трансграничны и наднациональны, поскольку Россия играет активную роль в развитии наднационального этического регулирования ЮНЕСКО. Другое дело, что, приняв российский кодекс этики ИИ, мы будем требовать от иностранных IT-платформ и соцсетей соблюдения российского законодательства. У нас есть инструменты для работы с иностранными сервисами, хотя надеемся найти точки этического согласия. Поиску их алгоритмов кодекс этики ИИ, верю, поможет.
"Фильтром цифровой безопасности и устойчивого развития будущего" назвала принятый "Кодекс этики ИИ" генеральный директор "Яндекса" в России Елена Бунина. Она сравнила этичность поведения искусственного интеллекта с тем, что любая машина с водителем может совершить красивый вираж, от которого дух захватывает, а этика ИИ, беспилотников в частности, в том и состоит, чтобы снизить риски и быть полезным и безопасным для человека. Вот только человеку надо учиться строить отношения с ИИ как с высокой технологией, которой хочешь не хочешь, а учиться, надо.
- Этика людей по отношению к ИИ заключена в нашей осторожности, - убеждена соавтор и разработчик кодекса ИИ Наталья Касперская. - Вопрос доверия к цифре - это вопрос учета ошибки ИИ, или риска принятия неправильного решения. Мы же пока по всему миру наблюдаем азарт от роста использования машинного интеллекта, что ведет к массовому оглуплению. И это видно на бытовом уровне. Мы разучились считать в уме. Даже продавцы в магазинах складывают на калькуляторе медленнее покупателей. Водители Яндекс.Такси не знают городов, выросло поколение пилотов, которое не способно сажать самолет на ручном управлении. При этом важные технологии усложняются, а навыки людей снижаются. Вот еще, почему любая система ИИ - потенциальная модель рисков и угроз, которые "Кодекс этики ИИ" не снизит, если человек не будет развиваться.
Прогноз разработчиков кодекса однозначен: люди еще не на все грабли наступили, чтобы управлять ИИ как данностью. Этому человека может научить принятый "Кодекс этики ИИ" при двух условиях. Первое условие предрек еще Айзек Азимов, а люди все равно попали в эту ловушку, - "побороть зависимость" от ИИ, когда лень выйти из сетей, лень самим искать дорогу, лень даже слушать советы цифровой Алисы. Второе - саморазвитие человека и доработка "Кодекса этики ИИ" по настоянию человека и тех вызовов его интеллекту, которые еще предъявит ИИ.
"Кодекс этики искусственного интеллекта" разработан на основе "Национальной стратегии развития ИИ на период до 2030 года". Авторы кодекса - Альянс в сфере искусственного интеллекта РФ, Аналитический центр при правительстве РФ и Минэкономразвития
.