О сетевой зависимости, которую сравнивают с наркотиком, психологами уже написаны тома. А автор термина "виртуальная реальность", один из ее создателей, представитель киберэлиты Кремниевой долины Джарон Ланье даже написал книгу о том, почему нужно бежать из соцсети. Хотя она стала бестселлером, эти призывы вряд ли убедят широкие массы пользователей. Сегодня население соцсетей стремительно растет. По прогнозам специалистов, к середине века они опутают практически все население планеты. Если, конечно, человечество не одумается.
А подумать есть над чем. В сетях сегодня действуют клубы по интересам не только филателистов и театралов, но самоубийц и наркоманов, здесь можно найти инструкции для начинающих террористов, соратников по борьбе с действующей властью и много еще чего, прямо скажем, негативного. К примеру, можно вспомнить о волне самоубийств, когда возник бум на одну популярную сетевую игру, финальной целью которой является суицид. С пользователями социальных сетей (в подавляющем большинстве - подростки) связывается "куратор", который пользуется поддельными аккаунтами, их нельзя идентифицировать. Сперва они объясняют правила: "никому не говорить об этой игре", "всегда выполнять задания, какими бы они ни были", "за невыполнение задания тебя исключают из игры навсегда и тебя ждут плохие последствия".
А политики уже говорят о феномене сетей: они свергают правительства и даже выбирают президентов. Приемы до удивления просты. В сети вбрасываются фейки о тех или иных возмутительных действиях власти и звучат призывы выйти на улицы, чтобы выразить возмущение. Примеров известно немало, скажем, в Египте, Южном Судане, Мьянме.
Как оградить общество от деструктивного влияния социальных сетей? Особенно это касается молодого поколения, которое в сетях составляет подавляющее большинство.
В принципе для специалистов, в частности психологов, это не проблема. Но объемы самой разной информации, в том числе негативной, в сетях огромны, с ее "ручной" обработкой не справятся даже лучшие профессионалы. Такое под силу только технике. И прежде всего искусственному интеллекту (ИИ), построенному на основе нейронных сетей, которые имитируют структуру и функционирование головного мозга. За решение такой задачи взялся коллектив психологов Первого Санкт-Петербургского государственного медицинского университета им. Павлова и специалистов в области информационных технологий Санкт-Петербургского института информатики и автоматизации РАН.
- Речь идет о выявлении с помощью ИИ разных групп людей, склонных к деструктивному поведению, - сказал корреспонденту "РГ" профессор Игорь Котенко, который возглавляет эту группу ученых. - Психологи предложили нам семь вариантов такого поведения, в частности, это негативное отношение к жизни, что может привести к суициду, это склонность к агрессии или протестам, это угрозы по отношению к конкретному человеку или группе лиц и т.д. Наша задача создать ИИ, который сможет работать с этими признаками, говоря образно, "забить" их в ИИ, чтобы он смог постоянно анализировать огромную информацию, которая гуляет по сети, вылавливать разные тревожные варианты.
На первый взгляд задача не очень сложна. Ведь каждый житель соцсети, что называется, на виду. На его страничке видно, чем он интересуется, что думает, с кем общается, какие действия предпринимает сам и к чему призывает других. Все как на ладони. Смотрите и принимайте меры. Но если было все так очевидно... Дело в том, что мысли и поведение человека в большинстве случаев далеко не так просты и однозначны, как может показаться. И вообще дьявол в деталях. И там, где все очевидно специалисту, ИИ вполне может ошибиться. Так, канадские ученые учили ИИ отличать грубые шутки или "язык вражды" от просто обидных. Система оказалась довольно несовершенна, к примеру, пропускала многие очевидно расистские высказывания.
Словом, все зависит от того, как ИИ обучить. А учится система на примерах так же, как учится ребенок. Ведь ему не объясняют, что у кошки вот такие усы, такие уши, такой хвост. Ему многократно показывают животное и говорят - это кошка. А потом он сам многократно повторяет этот урок, глядя на очередную кошку.
Так же будут учиться и создаваемые питерскими учеными нейронные сети. Им будут предъявлять различные варианты деструктивного поведения людей. Держа в своих "мозгах" разработанные психологами признаки, ИИ будет их запоминать, чтобы затем вылавливать в огромных потоках информации соцсетей. Профессор Котенко особо подчеркивает, что задача ИИ сделать только наводку на деструктив, а последнее слово за специалистами. Только они смогут сказать, действительно ситуация тревожная и надо срочно принимать меры или тревога ложная.
Проект поддержан Российским фондом фундаментальных исследований.