Algorithmes de Google pour générer des statistiques racistes ?

Le géant du numérique et ses algorithmes racistes

Les algorithmes, outils de calcul obscure que se cache-t-il derrière ces fameux procédés mathématiques. Avant de poser les bases de notre réflexion, nous tenons à vous expliquer ce qu’est un algorithme. Beaucoup d’entre nous ne savent pas ce qui se cache derrière les machines que nous utilisons au quotidien, nous ne comprenons pas exactement ce qui est au cœur de ces nouvelles technologies. Avertis et conscients de ces pratiques algorithmiques nous prenons notre plume pour étaler les dérives de ces machines de calcul qui se sont imprégnées des nos quotidiens. L’algorithme est l’un des concepts centraux du monde de l’informatique et des sciences du numérique. Selon le dictionnaire Larousse, un algorithme est un ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opération. Pour dire simple c’est un moyen de donner les ordres ou les instructions à l’ordinateur en vue d’exécuter un programme, d’effectuer une opération. Les systèmes d’exploitation (OS Operator Systèm) sont faits des programmes construits à l’aide des algorithmes. L’ordinateur est un instrument fondamentalement naïf et donc ce sont les algorithmes qui le rendent une machine utilisable et nécessaire à la vie humaine. Les algorithmes ont une fonction de création matérielle et une fonction analytique dans le monde des statistiques qui aide les décideurs à faire des prédictions sur un fait donné. C’est sur cette dernière que nous fixerons notre analyse notamment en abordant aussi les algorithmes adaptés à l’internet et au web.

Le racisme algorithmique de Google et l’homme noir « Gorille » 

 Dans une conférence organisée à Paris en Octobre 2015, Antoinette Rouvroy affirme que les algorithmes ne sont pas racistes. Vu de nos différentes expériences dans l’usage du numérique, nous avons eu le sentiment de mettre en place un travail de veille informationnelle sur le web pour vérifier l’authenticité de ce propos. Après lecture de plusieurs articles et des expériences personnelles nous constatons que cette affirmation n’a aucune base véridique. Ce billet servirait alors à faire un condensé de certaines analyses sur le caractère raciste des algorithmes du web. Aujourd’hui l’internet est devenu l’une des premières sources d’information dont Google est un acteur majeur.  Tournons-nous maintenant vers les polémiques autours des algorithmes de catégorisation de Google. En 2015 l’application Photo de Google a utilisé le « Tag Gorille » pour identifier une photo d’afro-américaine, cela a été identifié par certaines personnes averties. Sur Google chaque objet est associé à un nom, qui facilite la recherche de celui-ci par les internautes.

La photo à laquelle la réquête « Gorilla » nous renvoyait en 2015

La photo à laquelle la réquête « Gorilla » nous renvoyait en 2015

Cette méthode d’association et d’indexation mise au point par Google est sous le contrôle du fameux « PageRank », l’algorithme de classification de Google. Ce n’est  pas mécanique cette technique il y a tout un tas de maillages organisationnels conditionnés à l’intelligence humaine (employés de Google). Si certaines photos afro-américaines sont tagguées « Gorille » par l’algorithme Google c’est qu’il y a bien une volonté pour mettre en avant la philosophie traditionnelle qui a toujours comparé les traits psycho-physique de l’homme noir à ceux d’un animal. Les algorithmes ne seraient-ils toujours pas racistes ? Creusons un peu plus loin. Le domicile présidentiel américain est connu sous le nom de « The White House », mais en 2015 l’application Google Map avait fait une autre attribution colérique de type « Noir » à la Maison Blanche. The Huffington Post et The Washington Post ont remarqué en mai 2015 qu’aux Etats-Unis, les recherches avec les mots clé « Nigga, Nigger » renvoyait automatiquement à la Maison Blanche et c’était plus évident lorsque ces mots clés sont accompagnés avec le mot « House ». Pour les habitants de Washington, cela ne fonctionne que si la mention « Washington D.C. » est ajoutée. Devant ce genre de pratique il y a de quoi à se saisir de la naïveté de certains algorithmes, bien sûr et les hommes qui sont derrière cette machine calculatrice.   Notre souhait n’est pas de faire remonter les tensions mais nous estimons qu’il est nécessaire de faire savoir à nos lecteurs de quoi est capable un algorithme de classification.

Les algorithmes racistes de statistiques de la criminalité

A l’heure du Big Data l’homme est devenu est un objet de calcul prédictif, les comportements psycho-sociaux des humains peuvent faire désormais l’objet d’une analyse prédictive à l’aide des algorithmes de statistique sophistiqués. Les méthodes statistiques pour analyser la criminalité sont généralement basées sur le principe de l’indice de corrélation. Beaucoup d’organismes anti-criminalité travaillent avec les équations de calcul des scores de risque proposées par les opérations algorithmiques. Et, ces organismes les utilisent pour condamner le public et pour classifier les individus. Cette pratique ne serait pas favorable aux noirs américains.   Dans une enquête intitulée « Machine Bia » (réalisée par Julian Agwin et Jeff Larson, journalistes chez ProPublica), les auteurs ont étudiés les scores de risques attribués à plus de 7000 personnes dans le Comté de Broward en Floride.  Parmi les 7000 cas les accusés noirs sont 77% susceptibles d’être indexés à risque de commettre un crime violent contre 45% des accusés de toute origine. Pour vérifier la représentativité de ces chiffres les journalistes ont fait référence au cas d’une jeune fille noire et un homme blanc. Dans les systèmes de l’algorithme de prédiction, la jeune fille avait un score de risque plus élevés que l’homme blanc pendant qu’ils ont été accusés pour les mêmes types de crimes. Deux ans plus tard le comportement des deux personnes ont démenti cette prédiction. La jeune fille n’a commis aucun crime durant les deux ans alors que l’homme blanc était à son 8 ème crime.

Source : https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Source : https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Les auteurs ont démontré que le modèle finit par être trop agressif envers les groupes qui comprennent une proportion plus élevée de Noirs, ne serait-ce pas la même chose que d’être sollicités « algorithmes » contre les Noirs ? Donc, vivant dans une zone à forte criminalité est en corrélation avec les activités des résidents de cette zone, et si la population est plus noire (ce qui tend à être, puisque les Noirs sont plus souvent moins riches et ne peuvent pas se déplacer loin du crime aussi facilement) et si la zone est donc probablement noire, la population serait en corrélation avec l’activité de criminalité plus élevée. Tels sont les seuls arguments que nous avons trouvés pour expliquer la logique de ces calculs statistiques. Dans tous les cas, les noirs restent les groupes les plus indexés ce qui dénote la faiblesse du système social américain et la naïveté de la justice de ses États.   Une machine ne doit pas faire de jugement quelque soient ses qualités technologiques. L’action humaine est cruciale, donner le pouvoir à ces méthodes de calcul rend problématique les peines obligatoires aux USA.   En raison de l’application raciste de ces logiques de calcul et la création de techniques qui ciblent les populations noires, tout le chemin de retour au « 19ème siècle » « codes noirs » est tracé. Les Noirs ont été criminalisés et donc massivement surpeuplés dans les chiffres de base utilisés pour faire des analyses statistiques de la criminalité. Cela crée alors une boucle de rétroaction où les Noirs sont de plus en plus ciblés, arrêtés et emprisonnés. En d’autres termes, il devient une prophétie auto-réalisatrice qui permet aux racistes blancs à blâmer les Noirs et masquer leur racisme derrière les statistiques. Quant aux algorithmes du web, cela permettra de faire remonter cette image de « noir mal propre, animal » dans les ressources informationnelles.

En somme, certains algorithmes qu’ils soient analytiques, classificatoires ont bien des caractéristiques racistes si nous nous référons aux faits précédemment expliqués.  Cela montre que le racisme n’existe pas seulement dans les espaces physiques, il occupe aussi le cyberespace de tout horizon. Maintenant que nous avons compris certaines fonctionnalités des algorithmes, il faut s’apprêter à dénoncer ces pratiques qui, une fois encore, ne cessent de dénaturer la communauté noire.

 

Le digital est vital chers amis !

 

Niaré Maramory

Souscrire à notre lettre d'information