Le conseil de surveillance de Meta lui demande de préciser ses politiques

Kelvin Chan, The Associated Press
Le conseil de surveillance de Meta lui demande de préciser ses politiques

Meta devra clarifier ses politiques concernant les images hypertruquées non consensuelles, a conclu jeudi le «conseil de surveillance» de l’entreprise, dans une décision sur des cas impliquant des représentations explicites de deux femmes célèbres générées par l’intelligence artificielle (IA).

Le comité quasi indépendant de Meta a déclaré que dans l’un des cas, le géant du web n’avait pas réussi à supprimer l’image intime d’une célèbre femme indienne, qu’il n’a pas identifiée, jusqu’à ce que le conseil de surveillance de l’entreprise soit impliqué dans le dossier.

Des images truquées par l’IA de femmes et de célébrités, nues, dont Taylor Swift, ont proliféré sur les réseaux sociaux parce que la technologie utilisée pour les créer est devenue plus accessible. Les plateformes en ligne subissent maintenant des pressions pour résoudre ce problème.

Meta avait créé en 2020 le conseil de surveillance afin de servir d’arbitre pour le contenu de ses plateformes, notamment Facebook et Instagram. Le conseil a passé des mois à examiner les deux cas impliquant des images générées par l’IA de femmes célèbres, une indienne et une américaine. Le conseil n’a identifié aucune des deux femmes, les décrivant uniquement comme des «personnalités publiques féminines».

Meta a déclaré qu’elle accueillait favorablement les recommandations du conseil de surveillance et qu’elle les examinait.

Un des deux cas concernait une «image manipulée par l’IA» publiée sur Instagram représentant une femme indienne nue, vue de dos, mais dont le visage, visible, ressemblait à une «personnalité publique féminine».

Le conseil a indiqué qu’un utilisateur avait signalé l’image comme étant pornographique, mais que le signalement n’avait pas été examiné dans un délai de 48 heures, et l’affaire avait donc été automatiquement classée. L’utilisateur a ensuite déposé un recours auprès de Meta, mais le géant du web a également classé l’affaire automatiquement.

Ce n’est que lorsque l’utilisateur a fait appel auprès du conseil de surveillance que Meta a décidé que sa décision initiale de ne pas supprimer l’image était une erreur. Meta a également désactivé le compte qui avait publié les images et les a ajoutés à une base de données utilisée pour détecter et supprimer automatiquement celles qui enfreignent ses politiques.

Dans le deuxième cas, une image générée par l’IA représentant des Américaines nues, victimes d’attouchements, a été publiée sur un groupe Facebook. Les images ont été automatiquement supprimées, car elles étaient déjà dans la base de données de surveillance. Un utilisateur a fait appel du retrait auprès du conseil de surveillance, mais celui-ci a confirmé la décision initiale de Meta.

Le conseil a déclaré que les deux images violaient l’interdiction de Meta concernant les «images retouchées sexualisées et dégradantes», en vertu de sa politique en matière d’intimidation et de harcèlement.

Le conseil a toutefois ajouté que le libellé de sa politique n’était pas clair pour les utilisateurs et a recommandé de remplacer le mot «dégradant» par un terme différent comme «non consensuel», Il recommande aussi à Meta de préciser que cette règle couvre un large éventail de techniques d’édition et de manipulation des médias, qui vont au-delà des retouches photo.

Les images nues hypertruquées devraient par ailleurs relever des normes de Meta sur «l’exploitation sexuelle des adultes» au lieu de «l’intimidation et du harcèlement», a recommandé le conseil de surveillance.

Lorsque le conseil a demandé à Meta pourquoi la femme indienne ne figurait pas déjà dans sa base de données d’images à proscrire, il a été alarmé par la réponse de l’entreprise selon laquelle elle s’appuyait sur les reportages des médias.

«C’est inquiétant, car de nombreuses victimes de fausses images intimes ne sont pas connues du grand public et sont obligées soit d’accepter la diffusion de leurs représentations non consensuelles, soit de rechercher et de signaler elles-mêmes chaque cas», a souligné le conseil.

Il s’est également dit préoccupé par la «fermeture automatique» par Meta des recours pour agressions sexuelles basés sur l’image après 48 heures, affirmant que cela «pourrait avoir un impact significatif sur les droits de la personne».

Meta, alors appelé Facebook, avait créé ce conseil de surveillance en 2020 en réponse aux critiques selon lesquelles il n’agissait pas assez vite pour supprimer de ses plateformes la désinformation, les discours haineux et les campagnes d’ingérence. Le conseil de 21 membres regroupe des juristes, des experts en droits de la personne et des journalistes du monde entier.

Partager cet article
S'inscrire
Me notifier des
guest
0 Commentaires
Inline Feedbacks
Voir tous les commentaires