Законодатели хотят изменить статью 63 Уголовного кодекса РФ. По их мнению, использование искусственного интеллекта в криминальных целях следует перевести в разряд отягчающих обстоятельств.
С начала этого года ведущие финансовые организации, включая тот же Центробанк, бьют тревогу - мошенники научились имитировать голоса родных жертвы. В ЦБ даже рассказали о такой схеме с имитацией знакомого голоса.
Финансисты объяснили, что мошенники составляют портрет потенциальной жертвы на основании информации, которую сама же намеченная жертва публикует на открытых интернет-ресурсах: о родственниках, друзьях, работе, увлечениях.
Используя технологию ИИ, мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным. Цель всегда одна - выманить у потенциальной жертвы деньги.
Самый известный случай произошел в феврале в Гонконге. Там сотрудник одной компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но, чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании. Но мошенники использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 миллиона долларов.
В реальности распознать подмену голоса или видео на современном этапе сложно, но возможно. Специалисты советуют обращать внимание на аномалии в движениях и деталях. Например, неестественная мимика. Необычное движение глаз. Собеседник с подменного видео редко моргает - деталь интересная.
Специалисты советуют: для того, чтобы ваш голос и лицо не стали образцами для обучения нейронных сетей, надо следовать простым правилам. Не рассказывать много о себе в интернете. Не публиковать в соцсетях массу личных фотографий и видеоматериалов. Быть осторожным при звонках с незнакомых номеров, не спешить отвечать, избегать слов "Да", "Согласен", "Подтверждаю".
Разработчики документа в пояснительной записке подчеркивают, что в последнее время использование дипфейков вызывает все большую тревогу. "Злоумышленники применяют эти инструменты для финансового обмана, шантажа и дискредитации россиян", - пишут авторы.
По статистике силовиков, ущерб от действий кибермошенников в 2024 году в России составил 200 млрд рублей. Это на 36% больше, чем годом ранее. Поэтому, чтобы решить эту проблему, по результатам совещания с членами правительства РФ 5 апреля было принято решение о внесении изменений в российское законодательство.