Nous apprenons via un article de BFMTV que Facebook et Instagram ont annoncé une nouvelle mesure pour lutter contre le harcèlement.
Ce nouveau dispositif est assez simple : il s’agit d‘analyser le contenu des messages privés à l’avance pour y détecter et bloquer une liste de mots-clés, que l’utilisateur pourra personnaliser. Certains émojis considérés comme injurieux seront également bloqués par cette intelligence artificielle.
Une liste de plusieurs dizaines d’expressions a été établie en collaboration avec Génération Numérique.
C’est un très bon signe que Facebook et Instagram prennent à cœur la lutte contre le cyberharcèlement.
Cependant ce système d’algorithme qui bloque les messages privés peut légitimement inquiéter sur le respect des données personnelles.
Est-ce légitime qu’une IA décide de bloquer les messages privés après avoir lu et analysé son contenu ?
Facebook et Instagram reviennent régulièrement dans l’actualité sur le problème de la gestion des données personnelles. Nous en parlions déjà dans notre article sur les réseaux utilisant les plus vos données personnelles et cette semaine encore, Facebook refait également encore parler de lui récemment à cause d’un message polémique expliquant que les accidents de fuite de données sont normaux, qu’ils s’attendent à voir des incidents de plus en plus fréquents à l’avenir et qu’il fallait normaliser le fait que cette activité se produit régulièrement.
La lutte contre le cyberharcèlement est un enjeu primordial, mais celle-ci doit pouvoir se dérouler dans le respect de la vie privée des utilisateurs, et ne doit pas être utilisée comme justification à la censure algorithmique de communications privées.
Il s’agit d’un sujet complexe sur lequel nous devons travailler sérieusement et avec vigilance.
Vos commentaires, remarques et suggestions sont les bienvenus dans la section commentaire ci-dessous.