Près d’un an après que des images de lycéennes nues générées par l’intelligence artificielle (IA) ont bouleversé une communauté du sud de l’Espagne, un tribunal pour mineurs a condamné cet été quinze de leurs camarades de classe à un an de probation.
Mais l’outil d’intelligence artificielle utilisé pour créer ces vidéos hypertruquées nuisibles est toujours facilement accessible sur Internet, promettant de «déshabiller n’importe quelle photo» téléchargée sur le site Web en quelques secondes.
Désormais, une nouvelle tentative de fermeture cet application et d’autres du genre est en cours en Californie, où San Francisco a déposé cette semaine une plainte inédite en son genre qui, selon les experts, pourrait créer un précédent mais qui se heurtera également à de nombreux obstacles.
«La prolifération de ces images a exploité un nombre choquant de femmes et de filles à travers le monde», a déclaré David Chiu, le procureur municipal élu de San Francisco qui a porté plainte contre un groupe de sites Web très visités basés en Estonie, en Serbie, au Royaume-Uni et ailleurs.
«Ces images sont utilisées pour intimider, humilier et menacer les femmes et les filles», a-t-il soulevé dans une entrevue à l’Associated Press. «L’impact sur les victimes a été dévastateur sur leur réputation, leur santé mentale, leur perte d’autonomie et, dans certains cas, a poussé certaines d’entre elles à penser au suicide.»
Le procès intenté au nom des citoyens de Californie allègue que les services ont enfreint de nombreuses lois de l’État contre les pratiques commerciales frauduleuses, la pornographie non consensuelle et les abus sexuels sur enfants. Mais il peut être difficile de déterminer qui gère les applications, qui ne sont pas disponibles dans les boutiques sur les téléphones, mais qui sont toujours faciles à trouver sur Internet.
Contacté à la fin de l’année dernière par l’AP, un service a affirmé par courrier électronique que son «directeur général est basé et se déplace dans tous les États-Unis», mais a refusé de fournir des preuves ou de répondre à d’autres questions. L’AP ne nomme pas les applications spécifiques poursuivies afin de ne pas les promouvoir.
«Il existe un certain nombre de sites pour lesquels nous ne savons pas exactement qui sont ces opérateurs et d’où ils opèrent, mais nous disposons d’outils d’enquête et d’un pouvoir d’assignation à comparaître pour enquêter sur cela», a soutenu David Chiu. «Et nous utiliserons certainement nos pouvoirs dans le cadre de ce litige.»
De nombreux outils sont utilisés pour créer des résultats réalistes qui «dénudent» des photos de femmes adultes habillées, y compris des célébrités, sans leur consentement.
Mais ils ont également fait leur apparition dans des écoles du monde entier, de l’Australie à Beverly Hills en Californie, généralement avec des garçons créant des images de camarades de classe féminines qui circulent ensuite largement sur les réseaux sociaux.
Dans l’un des premiers cas largement médiatisés en septembre dernier à Almendralejo, en Espagne, une médecin dont la fille faisait partie d’un groupe de filles victimes l’année dernière et a contribué à attirer l’attention du public sur l’affaire a déclaré qu’elle était satisfaite de la sévérité de la peine à laquelle leurs camarades de classe sont confrontées après une décision de justice rendue plus tôt cet été.
Mais ce n’est «pas seulement la responsabilité de la société, de l’éducation, des parents et des écoles, mais aussi la responsabilité des géants du numérique qui profitent de toutes ces ordures», a déclaré Miriam al Adib Mendiri dans une entrevue vendredi.
Elle a salué l’action de San Francisco mais a ajouté que davantage d’efforts étaient nécessaires, y compris de la part de plus grandes entreprises comme Meta, basée en Californie, et de sa filiale WhatsApp, qui a été utilisée pour diffuser les images en Espagne.
Difficile de sévir contre les outils
Alors que les écoles et les forces de l’ordre ont cherché à punir ceux qui créent et partagent les vidéos hypertruquées, les autorités ont du mal à savoir quoi faire à propos des outils eux-mêmes.
En janvier, l’exécutif de l’Union européenne a expliqué dans une lettre adressée à un membre espagnol du Parlement européen que l’application utilisée à Almendralejo ne semblait pas relever des nouvelles règles mises en place par l’organisation visant à renforcer la sécurité en ligne, car il ne s’agit pas d’une plateforme suffisamment importante.
Les organisations qui ont porté attention à la croissance du matériel pédopornographique généré par l’IA suivront de près l’affaire de San Francisco.
Le procès «a le potentiel de créer un précédent juridique dans ce domaine», a soutenu Emily Slifer, directrice de la politique chez Thorn, une organisation qui lutte contre l’exploitation sexuelle des enfants.
Riana Pfefferkorn, une chercheuse de l’Université de Stanford, a mentionné qu’étant donné que de nombreux accusés sont basés hors des États-Unis, il sera plus difficile de les traduire en justice.
Elle a affirmé que M. Chiu «a une bataille difficile avec cette affaire, mais pourrait être en mesure de faire retirer certains des sites si les accusés qui les gèrent ignorent le procès».
Elle a ajouté que cela pourrait se produire si la ville gagne par défaut en leur absence et obtient des ordonnances concernant les bureaux d’enregistrement de noms de domaine, les hébergeurs Web et les processeurs de paiement «qui fermeraient effectivement ces sites même si leurs propriétaires n’apparaissent jamais dans le litige».