Publié le 28/07/2016
Dans cet univers numérique qui nous trace, nous géolocalise et nous calcule en permanence, comprendre le fonctionnement des algorithmes devient un enjeu citoyen de tout premier plan. C’est le point de vue exposé par le sociologue Dominique Cardon lors de son intervention au cours du Forum des usages coopératifs, début juillet à Brest. Dernière conférence d’une série de trois, consacrées aux transitions.
Dominique Cardon est sociologue au sein du département SENSE d’Orange Labs, et professeur associé à l’Université de Marne la vallée-Paris est. Il a publié fin 2015, “À quoi rêvent les algorithmes – Nos vies à l’heure du big data”. Un livre dont les principaux thèmes servent de base à cette conférence intitulée “Comprendre, tester et critiquer les algorithmes”. Elle se tenait à Brest, dans les locaux de Télécom Bretagne, en ouverture de la troisième journée du Forum des usages coopératifs, le 8 juillet dernier.
Le sociologue débute son intervention par la notion de gatekeeper, ou point d’entrée sur l’information. Qu’il illustre par l’exemple d’une conférence de rédaction d’un grand journal chargée de décider de la hiérarchie de l’information. Aujourd’hui, “les nouveaux gatekeepers sont des artefacts techniques qui nous disent ce qui est important ou pas”. Ce qui fait que nous naviguons sur une “proportion infinitésimale de l’information”. Pour s’en convaincre, ces chiffres : 95% de l’audience surfe sur 0,03% des contenus numériques disponibles.
Les algorithmes seraient-ils de simples “outils de médiation directe”, donc parfaitement innocents ? Non, explique Daniel Cardon, car ils façonnent notre représentation du monde. Une analogie pour comprendre, par l’observation de ce qu’on peut considérer comme un algorithme : le mode de scrutin électoral. En entrée de cet algorithme, les voix des électeurs ; en sortie, des députés. Mais une structuration de la vie politique complètement différente selon que le scrutin est majoritaire ou proportionnel et qu’il est à un ou deux tours. Avec, comme effets opposés, la coupure en deux du paysage politique en Grande-Bretagne et le multipartisme avec ses jeux d’alliance en Israël. “Les calculateurs produisent un monde dans lequel on vit, on pense et on a l’impression de naviguer librement. Alors qu’il est un environnement préconstruit par le calcul qui est effectué.”
Le web “a inventé ses propres critères” pour hiérarchiser l’information. Critères que Daniel Cardon classe en quatre familles, de plus en plus sophistiquées à mesure que s’est construite “l’histoire du web”. Le premier critère est la popularité, le nombre de clics, comparable aux mesures d’audience des médias classiques. Ensuite l’autorité, le page rank de Google, qui progresse avec le nombre et la qualité des liens hypertexte renvoyant sur le site considéré. Puis la réputation, likes, followers, etc., qui sont des “métriques du web social” et qui favorisent les contributions stratégiques pour “augmenter le compteur”. Enfin c’est l’enregistrement des traces, apparues avec le big data, qui permet d’observer “ce que font les gens dans leurs comportements”.
Se pose alors la question du degré de confiance à accorder à ces “techniques calculatoires”. L’algorithme est-il subjectif ? Oui, car “il a le droit d’exprimer ce qu’il veut” a eu l’occasion de trancher la législation américaine en réponse à des plaintes. D’où l’introduction d’une autre notion, la loyauté, qui est une sorte de “contrat de lecture” entre l’internaute et le service qu’il utilise. L’algorithme est loyal “s’il fait ce que l’internaute pense qu’il fait”. Il est déloyal quand il y a tricherie, à l’exemple des recommandations présentées comme issues de statistiques alors qu’il s’agit de promotion commerciale. Il existe “plein de cas de soupçon” qui amènent à réclamer plus de transparence par l’ouverture du code. Mais pour Cardon, “l’algorithme n’est pas lisible. La transparence ne résout rien.”
L’algorithme peut aussi produire “des effets indésirables” sans que le mode de calcul soit explicitement en cause. Par exemple, le fait que des internautes associent de façons multiples et répétées le mot juif à tel nom de personnalité finira inévitablement par influencer les résultats de recherche. Et pourtant, “Google n’est pas antisémite.” Dans ce cas, la faute incombe “à un autre algorithme, qui est nous-même”.
Intervient alors la notion de “régularité des humains” : nos comportements sont récurrents “même si nous nous croyons les plus curieux du monde”. C’est d’ailleurs sur cette régularité que s’appuient les outils de prédiction. Alors qu’auparavant on faisait des hypothèses à partir de groupes d’utilisateurs, en particulier de catégories professionnelles, on s’appuie aujourd’hui sur l’individu et ses comportements : “C’est une transformation profonde de la représentation de la société… La règle qui nous calcule renvoie la responsabilité vers l’utilisateur.”
Une des manières d’auditer, de critiquer et transformer le monde numérique, “c’est de le re-fabriquer”. Donc d’inventer de nouveaux systèmes qui donnent d’autres représentations du monde. Un exemple, Unfiltered News, pourtant développé par Google soi-même. Un site qui annonce : “Découvrez ce qui façonne nos différents points de vue.” Le principe : vous saisissez un sujet d’actualité, une carte vous montre où le sujet est le plus repris dans le monde. Mieux, un bandeau sur la droite affiche les sujets les plus populaires dans le monde mais qui ne sont pas traités en France.
“Nous sommes entrés dans un monde calculé”, énonce Dominique Cardon. Un monde “qui nous aspire” et auquel on ne peut pas échapper sauf “à se débrancher”. En dehors de cette solution radicale, une autre manière de résister est de “lutter contre ses propres régularités”. Ou encore par l’offuscation : c’est-à-dire “la production de fausses traces qui déroutent les calculs”. Pour le moins, il faut “un regard critique sur les algorithmes”, tant ils nous accompagnent dans nos usages numériques au quotidien.
Plus
Voir aussi Transitions #2. A quand la transformation de l’éducation ?
Voir aussi Transitions#1. Le numérique levier de la transition écologique ?
Aux Éditions du Seuil, À quoi rêvent les algorithmes