Сколько в интернете агрессии и преступности? Что не так с методами борьбы с ними?

Что Facebook называет проблемным контентом? С каким сетевым злом чаще всего сталкиваются российские пользователи? Как площадки пытаются бороться с ним?

Правительства усиливают контроль за Сетью — сейчас 55% пользователей живет в странах, где по локальным законам часть контента блокируется. Владельцы популярных сайтов держат большие команды модераторов и тренируют алгоритмы для "зачистки" неприемлемых сообщений и аккаунтов. Появляются сообщества людей, которые своими силами борются против сетевого зла. Но проблем в интернете становится больше. Почему "плохое" распространяется быстрее "хорошего"? Получится ли справиться с таким контентом в будущем? И какие проблемы соцсетей — не проблемы для пользователей?
Что такое проблемный контент
Определяя понятие, можно ориентироваться, например, на последний отчет Facebook по соблюдению стандартов площадки с ноября 2018-го по март 2019 года. В нем перечислены девять проблем, с которыми соцсеть борется с помощью модераторов и алгоритмов.
Нагота и контент сексуального характера. В декабре прошлого года удалили 24,6 млн единиц такого контента. Алгоритмы, по данным доклада, умеют выявлять 96% нарушений по этому направлению.
Буллинг и преследования. Соцсеть стала выявлять больше агрессии и преследований. С января по март 2019 года Facebook избавился от 2,6 млн единиц такого контента. Для сравнения: с июля по сентябрь 2018 года — от 2,1 млн.

Детская нагота и сексуальная эксплуатация детей. В докладе говорится, что удаляются любые фотографии обнаженных детей, в том числе и несексуального характера. Судя по цифрам, их стало меньше. В январе — марте 2019 года соцсеть избавилась от 5,4 млн единиц такого контента. В июле — сентябре 2018 года — от 8,8 млн.

Фейковые аккаунты. В январе — марте 2019 года площадка избавилась от 2,2 млн страниц. В январе — марте 2018 года — от 583 тыс.

Разжигание ненависти. Facebook так определяет заявления о неполноценности, призывы к изоляции людей какой-либо расы, этнической принадлежности, религии, сексуальной ориентации, касты, гендерной идентичности, инвалидности или болезни. В январе — марте 2019 года из соцсети удалили 4 млн единиц такого контента. Годом ранее, с января по март 2018 года, — 2,5 млн.

Продажа наркотиков и оружия. Число сообщений, связанных с продажами оружия, снижается, с наркотиками — растет. В январе — марте 2019 года Facebook удалил 670 тыс. сообщений о продаже оружия и 900 тыс. сообщений о продаже наркотиков. В январе — марте прошлого года — 754 тыс. сообщений о продаже оружия и 603 тыс. о продаже наркотиков.

Спам. В понимании Facebook, это контент, противоречащий стандартам сообщества, созданный в целях широкого распространения. В январе — марте 2018 года площадка избавилась от 1,8 млн цепочек спам-сообщений. В январе — марте 2018 года — от 957 млн.

Пропаганда терроризма. В январе — марте 2019 года удалено 6,4 млн единиц такого контента. В январе — марте 2018 года — 1,8 млн. Facebook объясняет рост числа "зачищенных" сообщений развитием алгоритмов.

Пропаганда насилия. В январе — марте 2019 года площадка избавилась от 33,6 млн сообщений, связанных с насилием. За этот же период 2018 года — от 3,4 млн. Судя по цифрам, контент, связанный с насилием, самая большая проблема Сети.

С какими проблемами сталкиваются пользователи в России
В целом — с теми же самыми, которые озвучены в отчете Facebook. По данным Роскомнадзора, предоставленным ТАСС, количество жалоб на противоправную информацию в Сети за прошлый год ощутимо выросло.
Пользователи жаловались на контент, связанный с призывами к самоубийствам (41 тыс. обращений), незаконным оборотом наркотиков (111 тыс.), азартными играми (260 тыс.). Стало немного меньше жалоб на контент, связанный с детской порнографией (42 тыс. жалоб в прошлом году, 44 тыс. — в позапрошлом). Можно ли судить о росте доли "плохих" материалов в Сети по числу жалоб? 
С одной стороны, логично, что в интернете становится больше проблем, хотя бы потому, что растет число пользователей и время, которое мы проводим с гаджетами. Сейчас, по данным последнего доклада аналитика Мэри Микер, рядовой американец проводит в Сети 6,3 часа в день. 26% опрашиваемых говорят, что они "постоянно онлайн". С другой стороны, мы освоились в интернете, стали более опытными пользователями, лучше понимаем, что хотим, а что не хотим видеть. Возможно, люди просто стали больше жаловаться.
В статистике Роскомнадзора нет данных о том, насколько россиян беспокоит контент, призывающий к насилию, сцены жестокости, буллинг. По данным "ВКонтакте" в прошлом году, в соцсети удалили 500 групп, в которых содержались призывы к насилию в школах. Намного масштабнее работа по удалению "групп смерти" — в 2018 году площадка избавилась от 11,3 тыс. сообществ с призывами к самоубийствам. 
Люди-модераторы и алгоритмы-модераторы. Как они работают
Аудитория "ВКонтакте" — 97 млн активных пользователей в месяц. В России — 70 млн. "Ежедневно мы удаляем сотни тысяч единиц противоправного контента и блокируем тысячи личных страниц и сообществ, — ответили в пресс-службе социальной сети на запрос ТАСС. — Если говорить о цифрах по конкретным темам: с января по ноябрь 2018 года во "ВКонтакте" было удалено более 7,9 млн единиц контента, связанного с одобрением самоубийств или нанесения увечий: текстовые публикации, видео, фото и аудиозаписи. Заблокировано свыше 1,8 млн уникальных профилей и 11,3 тыс. сообществ, через которые эти материалы распространялись".
"ВКонтакте", как и другие соцсети, использует гибридный метод модерации: люди и алгоритмы. "Мы реагируем на жалобы пользователей, госрегуляторов и общественных организаций, проводим проактивный внутренний мониторинг, — рассказали в пресс-службе. — Наши механизмы автоматического поиска и удаления контента развиваются. Это позволяет избежать быстрого распространения фейков, незаконных или оскорбительных материалов. Частный пример — все новые хештеги по теме суицида, появляющиеся в системе, моментально блокируются".

У соцети несколько сотен модераторов. Екатерине 29 лет. Она работает здесь восемь лет. Смена длится пять часов. Короткий рабочий день связан с высокой нагрузкой. В среднем модератор обрабатывает от 800 до 1,5 тыс. жалоб в час. Жалобы на контент, который пользователи посчитали неприемлемым, поступают в режиме реального времени. Не всегда жалобы по делу, но шок-контента достаточно, чтобы эта работа считалась тяжелой.
"Любой контент анализируется в контексте публикации, — объясняет Екатерина. — Если мы видим в открытом доступе видеоролик, где девочки-школьницы бьют одноклассницу, — это нужно удалять. Ролики с сексуальными сценами подлежат удалению, если они находятся у пользователя в открытом доступе или относятся к категориям запрещенной порнографии — например, детская порнография или порнография с животными. Больше всего времени уходит на изучение видеоматериалов. Бывают ситуации, когда сложно самостоятельно принять решение, тогда мы призываем на помощь коллег, вместе обсуждаем жалобу и выносим вердикт. К модераторству такого контента однозначно можно привыкнуть. Мне поначалу было противно смотреть на некоторые вещи, а сейчас я спокойно ем перед экраном монитора и никакая расчлененка меня не смущает. Не думаю, что мы стали более циничными. Я по-прежнему плачу в кино во время трогательных моментов, умею сопереживать. Но, пожалуй, мы действительно более знаем жизнь, с нас спадают розовые очки, в которых многие живут".
Команда модерации растет каждый год, уточняют во "ВКонтакте": "Но мы не увеличиваем штат в разы. Мы совершенствуем технологии, чтобы все больше жалоб обрабатывалось автоматически".

Сколько живет опасный контент. И как быстро возрождается
Интернет-магазины по продаже наркотиков существуют годами, меняя адреса. Данилу 18 лет. Он бывший трудный подросток. С 12 лет воспитывался в детском доме. В 14 лет попробовал наркотики ("Приехал выпускник на выходные к нам и привез с собой"). Когда ему было 16 лет, его забрали в семью под опеку, с тех пор он дважды лечился от наркозависимости в ребцентре. До этого он около двух лет пробыл в СУУ — колонии для подростков. Такие парни, как Данил, в группе риска.
Мы сидим в парке в центре Москвы, я даю ему ноутбук и прошу показать сайты, где можно купить наркотики. За одну минуту Данил находит пару интернет-магазинов. Мы используем популярный браузер, а не тот, что позволяет обходить блокировки. Первый сайт обещает товар лучшего качества, адекватные цены, команду профи, техподдержку 24/7 и возможность оптовых покупок. Еще есть две кнопки "разблокировать сайт" и "использовать анонимайзер".

"Год назад наркотики в основном покупались в даркнете, — рассказывает Данил. — Либо через ботов в Telegram: выбираешь город, станцию метро, товар, оплачиваешь на электронный кошелек. Потом едешь и забираешь закладку по координатам на карте. Любой бот жил неделю, максимум две, потом его блокировали. Потом интернет-магазин делал нового бота. Насчет "ВКонтакте" — я не видел, чтобы там массово рекламировали сайты по продаже наркотиков. Я чаще вижу адреса сайтов, написанные на стенах домов даже в центре города. Во "ВКонтакте" предлагают работу закладчиком. Когда я только переехал в Москву из Нижегородской области, мне под аватаркой писали с разных аккаунтов: "Есть работа платим каждую неделю". Как часто? За полгода, наверное, пять сообщений было. Их быстро блокировали. Иногда я заходил к себе, видел комментарий, а страница уже удалена. Мой друг Артем переписывался по поводу этой работы, и ему объясняли: "Предоставим жилье в другом городе на выбор. Ты будешь жить на квартире, которую мы снимем, главное — работать". 

Адвокат Евгений Гомулин, специализирующийся на уголовном праве и делам, связанным с незаконным оборотом наркотиков, замечает, что в наркокурьеры стали чаще вербовать молодых людей из стран СНГ. "Работа в России, оплата раз в неделю". В делах фигурируют такие объявления из соцсетей, — рассказывает он. — Хорошо ли люди понимают, что идут против закона? Да, понимают, это обычно нуждающиеся молодые люди из неблагополучной среды. Несовершеннолетних часто вводят в заблуждение, им объясняют: "Тебе за это ничего не будет — тебе же нет 18 лет. Если это девушка, у которой есть ребенок, говорят: "У тебя ребенок — ты не получишь реальный срок". На самом деле, сроки реальные и очень серьезные для несовершеннолетних и совершеннолетних, с детьми, без детей".
Сейчас Данил учится в колледже. Он завел новый аккаунт во "ВКонтакте", чтобы ничего не напоминало о прошлой жизни. Предложений о работе кладменом ему больше не поступает. Вербовщики не пишут всем подряд. "Раньше я состоял в группах типа АУЕ — "арестантский уклад един", где прославляется уголовная романтика, — Данил ищет через поиск "ВКонтакте" эти группы и видит, что они заблокированы, но через полминуты находит их под другими именами. — Еще околофутбольные группы — там подростки собираются на "забивы". Думаю, меня находили там".

Почему сложно зачистить экстремистские материалы
"21-летний житель Ставрополя Максим Панченко был задержан на стадии приготовления к совершению преступления, — рассказали ТАСС в Национальном антитеррористическом комитете (НАК). — Он собирался сжечь школу и взорвать детский сад, о чем сам признался во время задержания. Нормальная семья, порядочные родители, сестра-школьница и братик детсадовского возраста. Педагоги лицея, где учился Максим, отмечали его эмоциональную неустойчивость. Одноклассники замечали, что он проявляет нездоровый интерес к религиозно-экстремистским идеям и нацистской символике. Органам безопасности стало известно, что Панченко, пользуясь инструкциями из Сети, занимается изготовлением зажигательных смесей и планирует совершить теракт. После задержания на все вопросы он давал один и тот же ответ: "Я повелся на провокацию в роликах в интернете", "Я понял, что сделал ошибочный вывод". Это и есть пример саморадикализации человека, который из неуравновешенного подростка превратился в преступника".

По данным НАК, сегодня почти вся вербовка в экстремистские организации ведется в соцсетях. "Вербовщики ищут молодых людей с неустойчивой психикой, отсутствием критического мышления, склонных к восприятию радикальных взглядов. Они ведут "дистанционную вербовку". Предпочитают не тратить время и деньги на обучение и снабжение потенциальных террористов, ограничиваясь указанием целей для осуществления теракта. В арсенале — разные методы воздействия на психику человека, но наиболее эффективный — демонстрация коротких радикализирующих видеороликов, на производство и продвижение которых не жалеются средства".
Речь о видео, демонстрирующем жизнь в "Исламском государстве" (террористическая организация, запрещена в РФ) и рассказывающем о "несправедливости", с которой борются его сторонники. Сложность "зачистки" вербовщиков в соцсетях в том, что общение идет в личной переписке. Удалить радикализирущий ролик из публичного доступа не так сложно, его могут обнаружить алгоритмы, на него пожалуются пользователи. Но "поймать" распространителя в сообщениях в мессенджере труднее. 
Как работают алгоритмы в интернете...
28-летний Брентон Таррант входит в мечеть новозеландского города Крайстчерч. Он вооружен и собирается устроить массовый расстрел собравшихся на дневную молитву. Перед тем как поднять оружие и открыть стрельбу по людям, он начинает прямой эфир в Facebook. Соцсеть позже удаляет это видео, но из интернета ничего не пропадает бесследно. Ролик продолжает бродить по Сети и набирать просмотры.
"После стрельбы в Крайстчерче я пытался разделить проблемы интернета и проблемы интернет-площадок, — пишет в своей статье Кейси Ньютон, редактор The Verge. — Проблемы интернета возникают потому, что это открытая Сеть, объединяющая большинство людей мира. То, что противники вакцинации встречаются в интернете, — проблема интернета. То, что Facebook рекомендует матерям вступать в группы противников вакцинации, — проблема площадки".

Каким образом рекомендует что-то Facebook? Это делают не люди, это происходит автоматически. Сегодня на всех популярных сайтах работают рекомендательные алгоритмы. Благодаря им вы видите в лентах то, что интересно вам. Вам показывают посты, видео, рекламу, исходя из информации о вас. Чем больше информации вы оставляете о себе — чем активнее шерите, лайкаете, комментируете, — тем легче понять, кто вы, что вас волнует и затягивает. Алгоритмы могут предполагать ваши интересы. Не так важно — как вы относитесь к вакцинации, за или против, если вы лайкаете и шерите родительский контент — вам покажут группу антипрививочников. 
Алгоритмы показывают не все, что нравится вам, а то, что максимально сильно (по числу лайков и просмотров) нравится и другим пользователям, похожим на вас. Итак, вы родитель, общаетесь с другими родителями, если в соцсетях расходится новость про политика, высказавшегося за или против вакцинации, вы увидите такие сообщения много раз. И это будут самые популярные посты, собравшие много лайков, шеров. В это же время в лентах пользователей, увлеченных автомобилями или горным бегом, идет другая война. Они могут вообще ничего не знать про ваш холливар вокруг вакцинации детей.

...и виноваты ли они в том, что в Сети много проблем
Не у всех есть дети, машина, любовь к горам. Но кое-что крепко объединяет пользователей — плохие новости. Здесь исследование про фейки, опубликованное в прошлогоднем журнале Science. Фейки — это вирусные истории, обычно основанные на ложных фактах, вызывающих у людей страх, возмущение, ненависть. "Военные распяли мальчика на площади прямо на глазах его матери", "В сетевом фастфуде нашли жареную крысу", "Черные трансплантологи похищают детей в торговом центре". В ходе анализа 126 тыс. цепочек фейковых сообщений в Twitter исследователи выяснили, что пользователи оставляли на своих страницах такие сообщения на 70% чаще, чем правдивые и более нейтральные. Итак, люди с удовольствием разносят фейк — это тоже проблемный контент. Алгоритмы, заточенные на то, чтобы рекомендовать самое популярное всем, кому тема интересна, помогают им. Многие эксперты считают, что рекомендательные алгоритмы виноваты в том, что сетевое зло растет в масштабах. У мнения есть противники, которые уверены, что алгоритмы, работающие иначе, не спасут интернет от фейков, наркоторговли, буллинга.

"Сто лет назад мальчик, который разносил газеты, был аналогом современного алгоритма. Он бежал и кричал: "Три убийства в свежем номере! Покупайте скорее!" В чем виноват мальчик? — спрашивает Иван Ямщиков, сооснователь проекта Creaited Labs, в рамках которого созданы нейронные сети, писавшие стихи, стилизованные под Егора Летова и Курта Кобейна. — Рекомендательные алгоритмы — это не проблема. Есть фундаментальная проблема, связанная с поведением людей. Пользователи не проверяют информацию, которую получают. И не понимают, что сами отвечают за свои ленты. На своих лекциях я объясняю, что алгоритм — это щенок. Если вы воспитываете его агрессивным — он будет бросаться на людей. Алгоритмы дают то, что вы потребляете. Кому-то они советуют новости про рептилоидов, а кому-то — курсы на курсере. Кому-то — "желтуху", а кому-то — научные статьи". 
В будущем алгоритмы-чистильщики будут работать лучше, считает Ямщиков. Но технологии недостаточно, чтобы избавиться от проблемы. 
"Есть два сценария, что произойдет с сетевым злом в будущем, — говорит он. — Оптимистичный — пользователи станут более осознанными, площадки будут нанимать не только модераторов, но еще и просветителей, которые станут образовывать людей, объяснять, как работают эти алгоритмы, что надо делать, если вы видите нежелательный контент. Не писать гневные комментарии, а, скажем, пожаловаться на пост. Пессимистический сценарий — проблема усугубится. Мы проводим все больше часов в интернете, у нас в принципе больше свободного времени. Если сто лет назад человеку нельзя было отойти от станка, то сегодня у нас есть время, чтобы позалипать в YouTube".

Как Instagram собирается по-новому бороться с буллингом
Возможно, идея о том, что пользователи когда-нибудь станут осознаннее, поймут, что надо жаловаться на агрессию и лайкать научпоп, звучит слишком прекраснодушно. Но площадки действительно сейчас "выводят" решения в этом духе.

В начале июля 2019 года Instagram сообщил, что готовится представить новинку для борьбы с травлей в интернете. Посты пользователей будут проходить через специальный фильтр перед публикацией. Алгоритм видит агрессивное сообщение и "выводит" вопрос: "Вы уверены, что хотите опубликовать это?" В компании сообщают, что во время внутреннего теста фильтра пользователи отказывались от публикации злых сообщений. Статистика не приводится.
Алгоритм, который может усовестить буллера, в Instagram придумали, когда поняли, что жертвы сетевой травли часто никак не противостоят обидчикам. "Мы знаем, что молодые пользователи нашего сообщества неохотно блокируют обидчиков или жалуются на них, потому что боятся обострения ситуации, особенно если они взаимодействуют с буллером в реальной жизни", — говорится в пресс-релизе. В соцсети не сообщают точную дату вывода фильтра и уточняют, что эти нововведения — первые шаги на длинном пути борьбы.


Автор: Анастасия Степанова
Источник: tass.ru