S'identifier Contact Avis
 
25° C
  à Port-au-Prince
Radio Pacific 101.5 fm - En direct
Le Journal Dernière heure Actualité Édito Tribune Société Économie Culture Diaspora Sport rpacific101.5 FM  
× Immobilier Appartements Maisons Locaux commercial Locaux pour Bureau Terrains Véhicules Voitures Camions Tout Terrains Minibus Motos Divers Animaux Articles ménagers Ordinateurs et pièces Équipement électronique Équipement industriel Équipement lourd Diverses études Légal Bijoux et montres Smartphone et tablettes Vêtements Jeux video

Le racisme des algorithmes

Le racisme des algorithmes



Ce n’est pas la première fois qu’on dénonce le fait que les al-gorithmes ne reconnaissent pas la peau noire. La journaliste Andrea Diener (1), remet le problème sur le tapis. Une difficulté qui peut être facilement résolue et elle explique comment.


« Noir ? Invisible ! », c’est ainsi que Andrea Diener (46 ans) titre son re-portage sur le racisme des algorithmes dans le quotidien Frankfurter All-gemeine Zeitung du 23 septembre dernier. Ce n’est pas la première fois que ce thème a été soulevé. Dans le passé, on a dénoncé des logiciels « ra-cistes ». Il y a deux ans, la chroniqueuse scientifique Eva Wolfangel, dans un article de recherche (19 juin 2018), a évoqué le « racisme programmé » dans les logiciels. Un an plus tôt, elle détectait ce qu’elle appelle une « in-telligence artificielle pleine de préjugés ».

En 2020, la situation a certes évolué, mais pas suffisamment. Dans son ar-ticle, la journaliste Diener montre à quel point les racines du racisme im-prègnent la vie numérique quotidienne. Les personnes à la peau foncée sont systématiquement ignorées par les algorithmes, « avec des conséquences parfois extrêmement désagréables ».

En commençant par le logiciel Zoom, elle identifie un racisme programmé des algorithmes. Les participants à « Black Zoom » sont souvent montrés sans tête, car les algorithmes de Zoom sont « plus disposés à reconnaître un globe comme un visage qu'un vrai visage à la peau noire ».

Cette erreur de base qu’elle a nommée n'est pas nouvelle. Diener remonte dans l'histoire des images, expliquant que le même phénomène caractérisait déjà le film couleur chimique, dont la référence couleur était appelée « Shirley Card » parce qu'elle représentait une femme blanche nommée Shirley. La peau blanche était « dans l'épisode dépeinte de manière fidèle à la réalité, les visages noirs n'étaient généralement que des yeux et des dents ».

Ce phénomène n’a changé que dans les années 1970, lorsque les photo-graphes de produits se sont plaints que les différentes nuances de bois et de chocolat étaient mal représentées, que la différence entre le chêne et l'acajou était aussi méconnaissable que celle entre le chocolat au lait et le chocolat noir. En effet, ce n'est que dans les années 1990 que Kodak a commencé avec le film couleur Gold Max qui pouvait représenter aussi bien la peau claire que la peau foncée.

Plus tard, dans les années 1990, Philipps a également développé un système de caméra en Hollande qui permettait de distinguer désormais les couleurs des tons de peau clairs et foncés. Notre auteure se rappelle même que la célèbre présentatrice de télévision Oprah Winfrey a été parmi les premiers clients de cette découverte.

Aujourd'hui, l'ère numérique semble répéter les vieilles erreurs, reproche Diener. Elle dit que comme l'intelligence technique est beaucoup plus ré-pandue actuellement, elle s'infiltre encore plus profondément dans la vie quotidienne. Pas étonnant qu’un photomaton de l’Imprimerie fédérale de l'Office des transports de Hambourg ne peut prendre que des photos de personnes blanches, comme l’a fait remarquer Diener. « Les logiciels de photos de passeport disent aux Noirs de fermer la bouche et aux Asiatiques de ne pas cligner des yeux », dit-elle avec une ironie acerbe. Les logiciels ne reconnaissent que les dents des personnes à la peau sombre et les Asiatiques sont identifiés comme des personnes ayant les yeux fermés. On a eu d’ailleurs le cas du logiciel des autorités néo-zélandaises de délivrance et de contrôle des passeports qui n'a pas pu reconnaître les passeports asiatiques. L'algorithme avait pour base l'idée que les paupières en forme d'amande sur la photo étaient semblables à des gens ayant les yeux fermés.

On a le même problème aux États-Unis où les logiciels de reconnaissance faciale, tels qu'ils sont utilisés aux frontières des États-Unis, posent un gros problème, en particulier pour les femmes noires. Le « New York Times » rapporte une affaire dans le Michigan où un homme a été innocemment emprisonné pour avoir prétendument volé des montres de luxe. Un logiciel avait lu les images de la caméra de surveillance dans le magasin et l'avait identifié comme le coupable.

Dans son reportage d’il y a deux ans, Eva Wolfangel a évoqué un autre cas patent : dans la phase finale d'un concours de beauté jugé par une intelli-gence artificielle, on a découvert une prééminence des candidates blanches. Ce premier concours de beauté réalisé avec un ordinateur n’a élu presqu'exclusivement des blanches ? Sans oublier le cas d'un procédé simi-laire qui devait aider des juges à décider des prisonniers pouvant être libérés en conditionnel et qui était d'avis qu'une peau noire constituait un critère décisif pour les récidives ?

Par exemple, les systèmes pour le choix automatique de candidats pour un entretien d'embauche aux USA, on trouvait qu'il existait un lien entre un éloignement du lieu de résidence et de la place de travail et le taux de rota-tion et de remplacement des employés, explique la sociologue turque, Zeynep Tüfekçi. Pour cela, l'ordinateur a conseillé aux entreprises de choi-sir les candidats qui vivent au plus près du siège de la firme. « Aux USA, cette corrélation désavantage plus en plus les Noirs parce qu'ils habitent souvent en banlieue », relève la scientifique. L'ordinateur a exclu les Afro-américains même s'il n'avait pas avant des informations sur l'arrière-plan ethnique ou sur la couleur de la peau. « La pratique répandue aux USA de ne pas exiger de photo de demande d'emploi et d'anonymiser le nom n'a donc pas aidé ici. », constate-t-il.

Il en est de même pour les prisonniers noirs pour lesquels un algorithme avait certifié une plus grande aptitude à la récidive, ce qu'avait révélé Pro Publica en 2017 : sans que soit précisée dans le formulaire initial la couleur de la peau, le système avait quand même détecté des corrélations entre lieu et conditions de vie et la couleur de peau.

Justice numérique
Pour Wolfangel, l'intelligence artificielle interprète le monde de façon au-tonome et cimente les préjugés et autres clichés de rôles. Elle parle même de « justice ad absurdum ».

À propos de justice, Diener évoque le cas de Joy Buolamwini, une étudiante de l’Université de Massachussetts Institute of Technology (MIT), qui a eu tellement de mauvaises expériences avec des ordinateurs qui ne reconnaissaient pas son visage qu'elle a fini par fonder le groupe Algo-rithmic Justice League pour recueillir et documenter de tels cas.

Son histoire est intéressante. Afin de mener à bien un projet du « Media Lab » du MIT sur lequel Buolamwini travaillait, elle a décidé de porter un masque blanc pendant un certain temps. « Même un visage griffonné sur sa paume avec un stylo à bille a reconnu le logiciel plutôt que le sien ». Dans une conférence du TED (2), l’étudiante explique que « cela tient au fait qu'un tel programme "intelligent" a besoin d'une base de données avec laquelle il peut s'entraîner ».

Les experts estiment que cet ensemble de données n'est pas très diversifié, ce qui fait que le programme échoue dès qu’on s'écarte un peu. Pourtant, la solution serait simple. Il suffit, disent-ils, qu’il y ait une base de données plus large avec laquelle l'intelligence artificielle peut s'entraîner.

Diener termine son article par une anecdote succulente sur l’absurdité du système. Il paraît que quelques twitteurs se sont amusés à mettre en scène le leader républicain Mitch McConnell et Barack Obama sur une même photo afin de voir comment faire pour que ce dernier soit vu et non McConnell. La solution a vite été trouvée : « il faut éclairer fortement Obama par le traitement d'images et assombrir McConnell pour qu'Obama apparaisse blanc ». Terrible !

Huguette Hérard

N.d.l.r.
1) Andrea Diener, journaliste au Franfurter Allgemeine Zeitung (FAZ). Son reportage a paru dans le numéro du 23 septembre 2020.
2) TED (abréviation de Technology, Entertainment, Design) - à l'origine une conférence annuelle sur l'innovation à Monterey, en Californie - est surtout connue pour son site web TED Talks, où les meilleures présentations sont mises en ligne sous forme de vidéos gratuites. Depuis 2009, nombre de ces vidéos ont été sous-titrées dans différentes langues.




Articles connexes


Afficher plus [7201]