Эксперты видят опасность в отказе Google от неиспользования ИИ для вооружений

Корпорация Google убрала из своего перечня принципов разработки и применения технологий искусственного интеллекта (ИИ) обещание не использовать ИИ-продукты для разработки вооружений и слежки за людьми. Эксперты видят в этом опасность для мира.

На официальном сайте Google AI ранее был пункт "Приложения ИИ, которые мы не будем развивать". Там утверждалось, что ИИ не будет применяться для "вооружений и других технологий, основная цель которых или последствия использования связаны с непосредственным содействием причинению вреда людям".

Также корпорация обещала воздержаться от использования ИИ в развитии технологий, "собирающих или использующих информацию для слежки с нарушением норм международного права" и "наносящих или способных нанести общий вред". Сейчас этого раздела нет. Компания лишь пообещала соблюдать "общепринятые принципы международного права и права человека".

Агентство Bloomberg попросило прокомментировать изменения, на что получило заявление из официального блога: "Мы считаем, что демократии должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека".

Маргарет Митчелл, один из бывших руководителей команды Google по этике при разработке ИИ, заявила, что удаление данного пункта повлияет на работу корпорации - одним из ее направлений может стать прямое внедрение технологий, которые могут убивать людей.

"Тревожно видеть, как Google отказывается от своих обязательств по этичному использованию технологий ИИ без обсуждения с сотрудниками и широкой общественностью, несмотря на давнее мнение команды, что компания не должна заниматься военным бизнесом", - сказал в беседе с Wired инженер-программист компании Парул Коул.

По мнению руководителя ИАА Telecom Daily Дениса Кускова, отказ от данного принципа интересен не столько Google, сколько органам власти. Вероятно, компания будет выдавать им какую-то информацию.

"Документ отражает обещание, что Google будет участвовать во всех разработках, в которых они смогут. И ровно то же самое будут делать другие компании", - считает ведущий аналитик Mobile Research Group Эльдар Муртазин.

Гендиректор IT-компании "Формула Лайн" Евгений Гладченко считает, что произойдет технологический скачок в создании более совершенных систем вооружений и технологий слежки, если другие IT-гиганты пойдут вслед за Google, так как этические нормы в разработке ИИ больше не будут сдерживающим фактором. В результате технологии, которые должны были служить обществу, будут использоваться для контроля и манипуляции людьми.

"Такой поворот событий подорвет доверие общества к технологиям и компаниям, которые их разрабатывают, и пользователи начнут воспринимать ИИ как угрозу. В конечном итоге это замедлит развитие технологий в целом", - добавил собеседник.

По мнению Муртазина, правозащитные организации и простые граждане "могут возмущаться", однако как-то повлиять на ситуацию у них вряд ли получится.

"Остается только смотреть за тем, как это происходит", - заключил Муртазин.