Le programme de surveillance de Meta , un système qui préoccupe le conseil
"Le conseil est préoccupé par la façon dont Meta a fait passer ses intérêts économiques avant la modération des contenus", a assené l'entité qualifiée d'indépendante, mais financée par l'entreprise.
Dans son rapport, elle appelle à une "refonte significative" du programme de double vérification baptisé "cross-check", pour le rendre plus transparent, plus réactif et plus juste.
Actuellement, lorsque des commentaires ou images potentiellement non conforme au règlement de Facebook ou d'Instagram sont signalés, ils sont directement retirés s'ils sont considérés comme à haut risque et s'ils viennent d'utilisateurs inconnus.
Mais si leur auteur est sur la "liste blanche", ces contenus restent en ligne le temps d'être examinés de plus près un processus qui prend en général plusieurs jours, et parfois plusieurs mois.
Ce système à double vitesse, "inéquitable" a donc "offert des protections supplémentaires à l'expression de certains utilisateurs, sélectionnés en partie en fonction des intérêts économiques de Meta", détaille le rapport.
A cause de "cross-check", "des contenus identifiés comme contraires aux règles de Meta restent visibles sur Facebook et Instagram, alors qu'ils se diffusent de façon virale et qu'ils pourraient causer des dommages", admoneste le conseil de surveillance.
Il encourage d'accélérer les examens secondaires des contenus de personnalités susceptibles de publier des messages importants pour les droits humains, et de retirer ceux à haut risque en attendant le verdict interne.
Il demande aussi à l'entreprise de publier les critères d'éligibilité pour bénéficier du programme, et d'identifier publiquement, sur les plateformes, les comptes des utilisateurs concernés.
"Nous avons créé le système de double vérification pour éviter des décisions potentiellement trop sévères et revérifier les cas où il pourrait y avoir un risque plus élevé d'erreur ou lorsque l'impact potentiel d'une erreur est particulièrement grave", a réagi dans un communiqué Nick Clegg, le responsable des affaires internationales de Meta.
Le groupe s'est également engagé à apporter une réponse plus fournie aux recommandations du conseil de surveillance sous les 90 jours
Cette entité est composée de 20 membres internationaux, journalistes, avocats, défenseurs des droits humains et anciens dirigeants politiques.
Elle a été créé en 2020 sur proposition du patron Mark Zuckerberg et est chargée d'évaluer la politique de modération des contenus du groupe californien.
Les membres ont lancé un examen de "cross-check" en octobre 2021, après les révélations de la lanceuse d'alerte Frances Haugen, qui a fait fuiter des documents internes à la presse et accusé l'entreprise de faire passer "les profits avant la sécurité" de ses utilisateurs.
Les réponses de Meta à l'enquête ont été "insuffisantes par moments" et "sa propre compréhension des implications pratiques du programme laisse à désirer", a indiqué le conseil.Nous rapporte france 24.