Соцсеть "ВКонтакте" стала использовать нейросеть, которая определяет противоправный или опасный контент по изображениям. Специально созданный алгоритм распознает на картинках объекты, людей, животных, растения. Выявленный "запрещенный" контент не попадает в поисковую выдачу и "умную" новостную ленту либо полностью блокируется.
Нейросеть умеет определять предметы и сущности, изображенные на фото. Она понимает не только "человек", "ребенок", "животное", "растение", но и может определить, например, предмет одежды, символ "групп смерти".
Алгоритм характеризует фото как "опасное" и отправляет модераторам для проверки. Если же фото признается "умеренно опасным", оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.
Такой механизм помогает остановить распространение спама, мошенничества, детской порнографии, нелегальных услуг и другой противоправной деятельности.
Суицидальный контент с записями и фотографиями удаляется автоматически, а страницы их авторов блокируются.
"ВКонтакте" также блокирует страницу и предлагает сообщить о причинах публикации, если пользователь загружает картинку или упоминает хэштеги, которые ранее использовали в качестве призыва к суициду. Кроме того, пользователю может быть предложена помощь психологов фонда "Твоя Территория" или советы по безопасности страницы.
Помимо этого, нейросеть тестируют на анализ текста поверх изображений, это необходимо, чтобы сделать новостную ленту пользователя максимально полезной и интересной.
– Нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются, – пояснил Андрей Законов, Руководитель направления Big Data и Machine Learning "ВКонтакте". – С помощью этой технологии в будущем мы сможем бороться со спамом и мошенничеством. Мы обучили нашу нейросеть на основе жалоб пользователей на разный контент, сообщают "Известия".