La lutte contre le cyberharcèlement mais aussi la cybercriminalité est devenue, au fil des ans et avec l’explosion des réseaux sociaux, un sujet de la première importance. Seulement, les sociétés éditrices de ces réseaux, dont Meta, qui détient Facebook et Instagram, sont justement la cible des pouvoirs publics et des associations pour pas prendre réellement le sujet à bras le corps, particulièrement en ce qui concerne la défense des mineurs, très exposés à la cyberpédocriminalité. Il semble, qu’enfin, elle se soit décidée à passer à la vitesse supérieure. Dans un communiqué publié ce 25 janvier,
Fini les messages émanant d'inconnus, peu importe l'âge
Meta annonce en effet la mise en place de nouvelles mesures de sécurité pour les protéger. L’entreprise explique avoir élaboré « plus de trente outils et fonctionnalités » permettant aux adolescents comme aux parents, de « garantir [leur] protection. » L'une des principales fonctionnalités s'avère être l'impossibilité de contacter un mineur si celui-ci ne le suit pas. Si depuis 2021, les utilisateurs majeurs d’Instagram ne peuvent plus envoyer de messages aux usagers mineurs qui ne les suivent pas, désormais, cette fonctionnalité sera activée par défaut. En d’autres termes, les utilisateurs mineurs ne recevront plus de messages émanant de personnes qu’ils ne suivent pas, qu’importe leur âge.
Autre nouvelle mesure de protection : il ne sera plus possible d'ajouter un compte d'une personne ayant moins de 18 ans à un groupe de discussion. Outre Instagram, Ces nouveaux paramètres concernent également Messenger, la messagerie instantanée de Facebook.
Les parents aussi concernés
Ces nouvelles mesures touchent aussi les parents, à qui Meta a décidé de leur faciliter leur tache de surveillance. Ainsi, ils seront en mesure d'approuver ou non des modifications des paramètres de sécurité et de confidentialités pour les comptes des moins de 16 ans. Comme l’explique la plateforme, un enfant souhaitant ouvrir son compte à tous les utilisateurs devra par exemple d'abord obtenir la validation d'un parent sur son propre téléphone avant de l'activer.
Le 9 janvier déjà, Meta avait envoyé un premier signal positif, en limitant l’accès des utilisateurs mineurs de Facebook et d’Instagram à des contenus évoquant des thèmes comme les troubles alimentaires, le suicide et l’automutilation. Selon les nouvelles règles, les contenus de ce type sont automatiquement cachés, aussi bien en en mode recherche que dans le fil d’actualité.