Ученые Санкт-Петербургского института информатики и автоматизации Российской академии наук (СПИИРАН) создали прототип системы для поиска и выявления каналов распространения нежелательной информации в социальных сетях. Работа ведется в рамках гранта Российского научного фонда, сообщает ТАСС.

Социальные сети развиваются, и информация там распространяется с такой скоростью, что человек уже не способен этот поток анализировать, компьютер же справляется с этим куда лучше. Любые задачи, сведенные к алгоритму, машина решит успешнее живого специалиста. Разработки лаборатории позволяют определять каналы и цепочки распространения той или иной нежелательной информации, а также оценивать аудиторию, на которую она рассчитана. Первые прототипы этой системы уже созданы.

Разработанный алгоритм отличается от существующих аналогов тем, что анализирует именно канал распространения информации, а не отдельные сайты или сообщества в социальных сетях. Таким образом, по замыслу разработчиков, можно отследить источник той или иной опасной информации, будь то детская порнография, реклама наркотических средств, вербовка в террористические организации или призывы к экстремизму.

Сегодня различные государственные ведомства занимаются, по сути, тем, что находят группу, где есть незаконный пост, и блокируют его или все сообщество, не обращая внимания на источник информации. Образно говоря, отрезается “щупальце”, при этом сам “спрут” остается цел, рассказывают в СПИИРАН. Информация в любой социальной сети распространяется через репосты, лайки [или с помощью копирования]. Это можно проследить по цепочке и выявить, например, небольшую – человек на 100 – закрытую группу. Разработка поможет понять, что все линии распространения контента сходятся в эту самую условную группу.

Технология основана на выявлении многочисленных связей между пользователями и сообществами в социальных сетях. Система анализирует в том числе и косвенные связи: например, два человека, не являясь друзьями в соцсети, подписаны на одни и те же сообщества; или же они часто комментируют одни посты – в таком случае программа установит между ними связи. По результатам работы алгоритма можно будет сделать выводы о том, как распространяется опасный контент. В настоящий момент работа над прототипом системы продолжается.