«Во всех развитых странах сегодня ведется работа над тем, чтобы ограждать детей не только от прямо запрещенного контента, но и от контента, который формально не запрещен, но может быть вреден для несовершеннолетних, – отмечает Александр Федотов, руководитель Научно-технического центра ГРЧЦ».
В России уже введены многие правовые меры по защите детей от вредоносного контента в Сети как в отношении запрещенной к распространению информации (детская порнография, материалы об изготовлении наркотиков и др.), так и незапрещенной, но вредной информации (нецензурная брань, насилие, жестокость и др.), которые другие страны еще только рассматривают.
1 февраля 2021 года вступил в силу ФЗ-530 «О внесении изменений в Федеральный закон "Об информации, информационных технологиях и о защите информации"». Вводятся новые обязанности для социальных сетей – своевременно выявлять и блокировать социально опасный контент. Также в соответствии с ФЗ-530, каждая социальная сеть, начиная с 2022 года, должна ежегодно не позднее 1 февраля публично отчитываться о результатах такой деятельности по самоконтролю.
Любой пользователь социальной сети может сообщить о найденном запрещенном контенте через официальный сайт Роскомнадзора и с помощью приложения в App Store и Google Play. По результатам проверки противоправные материалы либо блокируются во внесудебном порядке, либо направляются уполномоченным органам для последующего обращения в суд.
Опыт других стран
В Великобритании и Ирландии обсуждают законопроекты, в соответствии с которыми онлайн-платформы обязаны контролировать не только незаконный контент, но и законный, но при этом опасный для несовершеннолетних. Платформы причисляют контент к вредоносному, если его характер и распространение «окажут значительное неблагоприятное физическое и психологическое воздействие на детей». Например, информация о самоповреждениях, суицидальный контент и даже легальная порнография. Для этого необходимо учитывать количество пользователей, которые могут столкнуться с такими материалами, и скорость их распространения.
Многие государства подчеркивают: важно развивать механизм жалоб пользователей на опасные материалы. На уровне ЕС обсуждается проект Закона о цифровых услугах. Поставщиков цифровых услуг, в частности онлайн-платформы, хотят обязать фильтровать незаконную и контролировать нежелательную информацию. По замыслу авторов законопроекта, порталы будут обязаны ввести механизмы подачи и оспаривания жалоб на незаконный и нежелательный контент, а также публиковать отчеты о прозрачности в его отношении.
Уже с 2017 года в Италии родители или несовершеннолетние старше 14 лет могут потребовать от сайтов удалить вредоносные материалы в течение 48 часов. А в мае 2021 года в Индии провайдеров услуг обязали улучшить систему ручной фильтрации контента и взаимодействия с пользователями. При публикации информации категории «только для взрослых» сервис должен обеспечить проверку возраста.
С 1 июня 2021 года китайские онлайн-ресурсы могут быть заблокированы по требованию пользователей, если они содержат вредные для детей данные. В КНР для защиты несовершеннолетних от опасной сетевой информации уже действует норма закона, которая обязывает подтверждать личность пользователей в онлайн-видеоиграх. Участники младше 18 лет (или 16, или 12 лет – в зависимости от маркировки конкретной игры) не смогут играть в такие видеоигры в случае несоответствия возрастной категории. Верификация возраста производится с помощью государственной системы подтверждения личности пользователя.