Эксперты видят опасность в отказе Google от неиспользования ИИ для вооружений
На официальном сайте Google AI ранее был пункт "Приложения ИИ, которые мы не будем развивать". Там утверждалось, что ИИ не будет применяться для "вооружений и других технологий, основная цель которых или последствия использования связаны с непосредственным содействием причинению вреда людям".
Также корпорация обещала воздержаться от использования ИИ в развитии технологий, "собирающих или использующих информацию для слежки с нарушением норм международного права" и "наносящих или способных нанести общий вред". Сейчас этого раздела нет. Компания лишь пообещала соблюдать "общепринятые принципы международного права и права человека".
Агентство Bloomberg попросило прокомментировать изменения, на что получило заявление из официального блога: "Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека".
Маргарет Митчелл, один из бывших руководителей команды Google по этике при разработке ИИ, заявила, что удаление данного пункта повлияет на работу корпорации - одним из ее направлений может стать прямое внедрение технологий, которые могут убивать людей.
"Тревожно видеть, как Google отказывается от своих обязательств по этичному использованию технологий ИИ без обсуждения с сотрудниками и широкой общественностью, несмотря на давнее мнение команды, что компания не должна заниматься военным бизнесом", - сказал в беседе с Wired инженер-программист компании Парул Коул.
По мнению руководителя ИАА Telecom Daily Дениса Кускова, отказ от данного принципа интересен не столько Google, сколько органам власти. Вероятно, компания будет выдавать им какую-то информацию.
"Документ отражает обещание, что Google будет участвовать во всех разработках, в которых они смогут. И ровно то же самое будут делать другие компании", - считает ведущий аналитик Mobile Research Group Эльдар Муртазин.
Гендиректор IT-компании "Формула Лайн" Евгений Гладченко считает, что произойдет технологический скачок в создании более совершенных систем вооружений и технологий слежки, если другие IT-гиганты пойдут вслед за Google, так как этические нормы в разработке ИИ больше не будут сдерживающим фактором. В результате технологии, которые должны были служить обществу, будут использоваться для контроля и манипуляции людьми.
"Такой поворот событий подорвет доверие общества к технологиям и компаниям, которые их разрабатывают, и пользователи начнут воспринимать ИИ как угрозу. В конечном итоге это замедлит развитие технологий в целом", - добавил собеседник.
По мнению Муртазина, правозащитные организации и простые граждане "могут возмущаться", однако как-то повлиять на ситуацию у них вряд ли получится.
"Остается только смотреть за тем, как это происходит", - заключил Муртазин.