QUÉBEC — Même l’intelligence artificielle (IA) peut être raciste et colonialiste.
Des universitaires se penchent actuellement sur ces questions sujettes à débat.
Par exemple, des algorithmes génèrent des associations blessantes envers les personnes noires. «C’est absolument terrible, c’est de la colonisation et du racisme», a lancé la professeure Karine Gentelet, de l’Université du Québec en Outaouais (UQO), dans une entrevue avec La Presse Canadienne publiée samedi.
Cette sociologue et anthropologue spécialiste de ces enjeux jette un regard très critique sur la progression spectaculaire de l’intelligence artificielle.
Elle prendra part mardi à une conférence d’un observatoire de l’Université Laval, qui se penchera sur la décolonisation de l’intelligence artificielle, l’éthique et la règle de droit.
Autre exemple: «les peuples autochtones parlent de recolonisation par le numérique», a illustré la chercheuse qui travaille d’ailleurs avec les communautés autochtones.
On est donc loin de l’idée d’une technologie «neutre» et d’un progrès scientifique qui n’est que bénéfique.
Selon ces courants, l’intelligence artificielle perpétue la domination coloniale de l’Occident sur les Autochtones, les pays d’Afrique, d’Asie et d’Océanie, etc.
«Il y a des rapports de pouvoir du fait que ce sont des technologies fortement financées et souvent développées dans (les pays du) Nord, puis mises en œuvre dans le Sud», a expliqué Mme Gentelet.
En outre, dans ces outils, il y a une «représentation de ce qu’est la personne humaine et de la manière dont elle interagit dans la société» qui ne correspond pas nécessairement aux personnes qui ne sont pas issues du groupe majoritaire, a-t-elle poursuivi.
«La représentation qu’on a des personnes racialisées dans les sociétés du Nord n’est pas adéquate par rapport à leur contribution dans la société.»
Comment cela se traduit-il dans la réalité? Prenons l’exemple des bases de données qui dans le domaine de la santé servent notamment à concevoir de nouveaux médicaments ou documenter des problèmes de santé.
Or, il y a des groupes marginalisés qui ne vont pas consulter les médecins et n’apparaissent donc pas dans les bases de données, a fait savoir la chercheuse.
«Il y a un certain degré d’inégalité préexistante déjà dans les données, qui ne reflètent pas la composition de la population», a-t-elle argué.
Des communautés qui luttent pour briser «l’invisibilité sociale» se trouvent ainsi encore exclues parce qu’on se fonde sur des données où elles n’apparaissent pas.
Autre exemple: la professeure évoque des logiciels qui sont testés par Immigration Canada sur des personnes qui sont des demandeurs du statut de réfugié ou en processus d’immigration.
«Le processus de reddition de comptes est beaucoup plus difficile pour eux parce que si elles veulent se plaindre, elles vont où? Au Canada d’où elles ne sont pas citoyennes?»
Ce champ de recherche est encore relativement nouveau et sujet à controverse. Il n’y a pas unanimité, mais il y a de plus en plus de travaux de recherche, a dit Mme Gentelet.
«La décolonisation, en règle générale, est quelque chose qui fait polémique au Canada. Il y a des personnes qui ont des visions opposées.»
Plusieurs solutions sont possibles, que ce soit un encadrement réglementaire plus strict, une meilleure reddition de comptes et des investissements, a-t-elle énuméré.
Il faut néanmoins s’attaquer rapidement à cet enjeu polémique, insiste-t-elle. Car si on perçoit favorablement l’intelligence artificielle parce qu’elle résout des problèmes, «il y a des conditions sous-jacentes pour la résolution de ces problèmes qui ne seront pas justes».
À ses yeux, «ça participe à une recolonisation parce que la technologie est le reflet de la société».
On entend par intelligence artificielle des technologies qui permettent notamment à des applications ou des ordinateurs d’imiter l’intelligence humaine ou de l’assister.
Pensons aux algorithmes, aux technologies de reconnaissance faciale, aux véhicules autonomes, etc.