Entre Les Lignes

La revue littéraire du festival Terres de Paroles

Entretien(s)

IMAGINAIRE(S) NUMÉRIQUE(S)

Dominique Cardon

Dans le ventre de Babel 

Face à l’omniprésence dévoreuse du Léviatan Internet, le sociologue Dominique Cardon dégonfle les fantasmes qui s’attachent à la Toile en analysant de prés une partie de leurs composants majeurs et souvent mal connus, les algorithmes. Dans un livre justement intitulé, À quoi rêvent les algorithmes ?, il montre comment ces nouvelles techniques de calculs bouleversent notre société. Fort du constat que « les algorithmes véhiculent un projet politique », il estime cependant qu’Internet n’est pas seulement ce monstre sournois qui nous observe sans relâche, c’est aussi un outil indispensable qu’il s’agit d’apprivoiser. Invité par le festival Terres de paroles pour présenter sa bibliothèque idéale, il développe son point de vue.

 

 

Le titre de votre dernier Ouvrage, À quoi rêvent les algorithmes ?, suggère une interprétation plutôt positive du Web et de l’univers du numérique en général, interprétation qui tranche avec la méfiance qui prévaut en général pour tout ce qui touche à ce domaine. Vous êtes d’accord ?

Le titre est un clin d’œil, une référence à l’univers de Philip K. Dick où l’on rencontre parfois des androïdes qui ont la capacité de rêver. J’ai joué avec cette idée un peu animiste d’une machine qui aurait des ambitions, des projets, des représentations, voire des rêves. Ce qui est certain, c’est qu’il y a réellement une politique derrière les algorithmes. Bien sûr les algorithmes ne sont pas du tout des machines qui pensent, en revanche à travers la façon dont ils sont conçus, fabriqués et mis en place, on a bien affaire à la projection d’un ordre ou d’un rêve. Autrement dit, un enjeu de société.

Vous écrivez dans le livre que « les algorithmes cherchent à organiser le monde ». On a en tant qu’utilisateur le sentiment que les algorithmes cherchent aussi à en savoir le plus possible sur nous. D’une certaine façon nous sommes cernés par les algorithmes. A-t-on raison de s’en méfier ?

Incontestablement nous vivons entourés de calculs. Mais les calculs sont parfois très utiles. C’est le paradoxe, l’ambivalence de tout ça. S’ils n’étaient plus là on serait dans un grand désarroi. Évidemment, ils contribuent aussi à façonner le monde, à nous orienter et il y a une crainte assez évidente d’un formatage. Pour ma part, j’ai une position modérée sur cette question. Ce qui nous fait craindre les algorithmes, c’est qu’on a l’impression qu’ils nous empêchent d’être aussi libres qu’on voudrait l’être. Mais cette représentation de la liberté est une forme idéaliste très contemporaine, très liée au marché ; c’est l’idée qu’on puisse tout faire selon son bon vouloir et que, évidemment, tout d’un coup les algorithmes nous empêcheraient d’agir selon nos envies. Et puis il y a aussi un autre spectre qui se profile derrière les algorithmes, c’est celui de la surveillance ; non pas tellement pour nous guider ou nous faire faire des choix, mais simplement pour nous surveiller. Et là il y a un enjeu important, notamment en ce qui concerne la protection des données personnelles.

À ce propos, où en est-on aujourd’hui sur la question de la protection des données personnelles ? Parce que l’ordinateur occupe désormais une place de plus en plus importante dans nos vies. C’est à la fois un outil de travail, de communication, un espace de loisir, un gigantesque supermarché, une banque, la Sécurité sociale…

Oui, il faudrait imaginer une instance qui s’occupe de ça, mais c’est toujours très compliqué de savoir quelle forme elle doit prendre. Ce qui est central dans la protection des données personnelles, c’est l’idée qu’il doit y avoir une proportionnalité : c’est-à-dire que l’opérateur de traitement doit demander aux utilisateurs des informations qui correspondent au service qu’il leur rend. Aujourd’hui il est évident que la proportion n’est pas du tout respectée. On prend tout et la justification du big data, c’est de dire que parce qu’on a pris tout ce qu’on pouvait on va trouver des choses auxquelles on ne pensait pas. Or, bien sûr, l’hydre qui se constitue avec le numérique, c’est le fait qu’on laisse des traces. C’est une composante qui est substantielle, avec le fait qu’un certain nombre d’acteurs sont désormais possesseurs d’un nombre incalculable de traces. Évidemment dans le fantasme apocalyptique il y a l’idée que tous ces acteurs se concerteraient pour partager leurs traces et savoir tout sur nous. Donc la santé, les loisirs, la carte bancaire sur Internet, la géolocalisation… Sachant que cette dernière est une trace solide – parce que en réalité beaucoup de ces traces sont assez diffuses. L’informatique est consubstantiellement liée à l’enregistrement de traces, mais elle est aussi consubstantiellement liée au fait qu’on ne sait pas les interpréter, parce que c’est très « sale ». Sauf la géolocalisation qui est très « propre » au contraire. Et donc si on croise les déplacements, les achats, les navigations, les conversations, on a effectivement l’impression que tout d’un coup il y a un screening vraiment redoutable qui s’opère sur l’individu. Aujourd’hui on en est loin. Mais les technologies progressent. En même temps, cette masse de connaissances fait que nous nous trouvons dans la bibliothèque de Babel avec cette idée d’avoir à sa disposition tous les savoirs qui correspond à un désir très profond de l’humanité.

Justement Google est en train de numériser toutes les bibliothèques de la planète…

Effectivement GoogleBook enregistre tous les livres. C’est une mission qu’ils se sont fixée dès le début de l’histoire de Google d’être la collection de tous les savoirs donnés. C’est un vieux rêve qui parcourt l’histoire de la bibliothèque depuis Alexandrie et qui a pris des formes très variées. Il y a notamment le cas du Belge Paul Otley qui avec Henri La Fontaine a imaginé le Mundaneum, un lieu où devaient être réunies toutes les connaissances du monde, classées selon un système original inventé par lui. On considère Paul Otley comme un précurseur d’Internet.

En 2010 l’informaticien américain Nicholas Negroponte annonçait la mort la mort du livre papier pour 2015 – il devait être définitivement remplacé par les tablettes…. La réalité n’a pas confirmé sa prédiction. Que vous inspire ce genre de déclarations tonitruantes, si fréquentes dans l’univers du numérique ?

 Il ne faut surtout pas prendre au sérieux tous les prophètes du numériques. C’est bien ça l’enjeu avec les algorithmes, il faut toujours rester méfiant. Donc c’est vrai, le livre n’est pas mort et il n’est pas près de mourir ; simplement nos usages, nos modes de consommation peuvent se modifier. On ne peut nier qu’aujourd’hui la lecture sur écran s’est largement développée et ce sur un objet qui n’a au fond pas beaucoup changé. Or la prophétie principale était que la forme même du livre allait être transformée par le numérique. Pourtant le format livre est resté en gros le même.

On aurait même pu imaginer des œuvres dont l’écriture aurait été significativement modifiée par les possibilités du numérique, intégrant par exemple de l’hypertexte, des ramifications, des variables, enfin toutes sortes de combinaisons possibles…

Oui on a de l’enrichissement d’ouvrages et de nombreuses possibilités sont offertes. Mais à vrai dire il y avait déjà des expériences de ce type dans des œuvres qui n’avaient pas nécessairement de relation avec le numérique. L’exemple le plus frappant à cet égard, c’est le roman, La Maison des feuilles, de Mark Z. Danielewski. Il n’a pas eu besoin d’hypertexte pour réaliser sa cathédrale déconstruite. Ce qui se passe en fait, c’est que les usages se modifient toujours plus lentement que les ruptures qu’annoncent les transformations technologiques. Cela dit, il va forcément y avoir un déplacement progressif de la lecture du papier vers l’écran, même si en Europe ce mouvement est plus lent à se faire qu’aux Etats-Unis. Pour le reste, en-dehors d’analyses de psychologie cognitives très sophistiquées, l’expérience de lecture n’est pas fondamentalement différente entre le papier et l’écran. Même si je pense que le livre possède une maniabilité et un confort d’usage qu’on ne retrouve pas avec la tablette.

Pour revenir plus précisément aux algorithmes, à quel moment avez-vous pris conscience de la nécessité de les observer de plus près ?

Il y a eu un moment où le volume de données accessibles à tous est devenu colossal. C’est arrivé très vite dans l’histoire du Web. Au début des années 2000, c’est devenu particulièrement évident. Par rapport à cette masse d’informations, l’idée qu’il fallait classer, ranger, est devenue centrale pour les moteurs de recherche qui ont mis en place des systèmes de sélection, d’organisation et de hiérarchisation des données. Sitôt qu’on doit organiser, hiérarchiser, on n’emploie plus les systèmes de classifications classiques, mais on organise la masse d’informations en fonction des désirs de l’utilisateur et pour cela on met en place des algorithmes. C’est comme ça que j’en suis venu à étudier la question des algorithmes. Il y avait en particulier le PageRank, qui est le prince des algorithmes de Google qui m’a beaucoup intéressé. 90% des personnes qui vont sur le Web consultent 0,6% des données accessibles. Je voulais savoir comment tout ça fonctionne. Les algorithmes n’ont pas tant la fonction de nous guider que de classer l’information pour la mettre à notre disposition. Le problème c’est que nous sommes assez peu critiques vis-à-vis de ces classements. Certes on peut toujours aller jusqu’à la page 100 de Google, qui de fait ne nous cache rien, mais il y a quand même un ordre de priorité.

Vous avez déterminé quatre familles de calculs : selon la popularité (mesure d’audience), le PageRank (méritocratique), la mesure de réputation et enfin la mesure prédictive. Comment avez-vous distingués précisément ces critères ? Ce sont ceux qui vous sont apparus les plus flagrants ?

Il y a sûrement d’autres critères et, de plus, chaque service compose différemment ses principes. Pour ma part je voulais privilégier une approche pédagogique quant aux grandes valeurs de classements en insistant sur l’idée que ces classements c’est le rêve des algorithmes : ils rêvent d’un monde populaire, d’un monde individualisé, etc. Ce sont vraiment quatre directions très différentes pour montrer qu’incorporée à l’intérieur de l’algorithme il y a bien une représentation de la société qui à travers ces flux nous dit : je vais te montrer les meilleurs, je vais te montrer ce qui te ressemble, etc. Nous fabriquons les algorithmes, mais ils nous fabriquent à leur tour. On peut discuter de la manière dont on voudrait qu’ils nous façonnent. Est-ce que, par exemple, quand on consulte les résultats apportés à une question donnée sur un moteur de recherche, on préfère voir les meilleurs, les plus réputés, les plus vus ?

Pour prendre un exemple plus précis, à propos du PageRank de Google vous décrivez sa fonction comme « méritocratique », à quoi se réfère exactement cette notion ?

Le principe général – parce qu’après il y a des raffinements plus profonds –, c’est qu’un site va apparaître sur la première page parce qu’il est cité par d’autres sites. Cela ne veut pas dire qu’il est très populaire, mais que ce qui est important c’est d’être cité par d’autres qui sont eux-mêmes beaucoup cités. C’est quelque chose nous les chercheurs nous connaissons bien puisque c’est comme ça que nous sommes évalués : il faut avoir écrit un article qui sera cité ensuite dans d’autres articles. Donc c’est un jugement, qui est par ailleurs assez normalisateur parce qu’il faut être au centre de la communauté, mais qui est avant tout un système de reconnaissance par la communauté.

Face à cette invasion des algorithmes dans nos vies, qui nous lisent et nous scrutent plus que nous ne les observons nous-mêmes – même si votre travail nous aide à comprendre mieux de quoi il retourne – comment peut-on reprendre la main ?

La question principale dans tout ça, c’est qu’on a toujours l’impression qu’on ne peut rien faire alors que ce n’est pas le cas. L’utilisateur a toujours des moyens de ruser, de tromper, de jouer avec les calculateurs – en tout cas ceux du Web. D’où l’idée pédagogique d’expliquer leurs principes de fonctionnement parce que le fait de les comprendre permet de mieux les utiliser. Il s’agit de les apprivoiser, ce qui veut dire éventuellement les détourner. Dans le monde des objets connectés qu’on nous promet comme la nouvelle emprise numérique sur notre société, on voit que, dès qu’un objet connecté est mis en place, les utilisateurs se mettent à jouer avec. Quand apparaissent de nouvelles technologies, on retrouve toujours le même type de réaction, qui passe d’abord par un moment de panique où l’on a l’impression que l’utilisateur est sans ressources face à un système incroyablement puissant ; puis très vite on apprivoise ces technologies et il y a un apprentissage qui se met en place pour d’abord les comprendre puis, ensuite, jouer avec elles. Cela s’est passé aussi pour les réseaux sociaux.

Vous faisiez allusion tout à l’heure à Philip K. Dick. Est-ce que lui ainsi que d’autres écrivains de science-fiction n’ont pas anticipé l’univers du numérique dans lequel nous évoluons aujourd’hui ?

Contrairement à ce qu’on peut penser, la science-fiction n’a jamais été une bonne prophétie du réel technologique – même si je reconnais en ce qui concerne Philip K. Dick que son cas est un peu à part car c’est un auteur très singulier. Mais ce que l’on constate en observant la réalité c’est que les sociétés inventent toujours des manières plus détournées, plus originales de déployer des technologies que ne l’a imaginée la science-fiction. De même les dystopies omniprésentes dans les romans d’anticipation évoquent plus des surveillances centrales, un gouvernement-monde. Certes, il est évident que la question de la surveillance va se poser de façon de plus en plus accrue avec le Net, mais je pense que la forme qu’elle risque surtout de prendre c’est celle de la surveillance de chacun sur chacun. Ce n’est pas un œil central omniscient. Mais tout le monde va devenir à la fois tracé et en même temps observateur de la vie des autres.

Le festival Terres de paroles vous a demandé de présenter votre bibliothèque idéale. Dans ce contexte, je serais curieux de savoir quels livres vous emporteriez sur une île déserte, c’est-à-dire loin de tout accès à Internet…

C’est très compliqué de faire des choix aussi radicaux. Mais bon, on a toujours ses écrivains fétiches. Je citerais d’abord les deux gros romans de Roberto Bolano, 2666 et Les Détectives sauvages. J’emporterais aussi sans doute un livre de Marie N’Diaye. Il y a aussi Joao Guimaraes Rosa. Et si je pouvais aussi emporter des essais, je choisirais Mille Plateaux de Deleuze et Guattari pour arriver enfin à bien le comprendre et Les Mots, la mort, les sorts de Jeanne Favret-Saada.

En ce qui concerne Mille Plateaux, est-ce que ce livre vous a aidé à mieux comprendre ce qui se passait avec Internet ?

C’est un livre qui a été central pour les théories du Web des pionniers. Avec cette idée, évidemment, que le rhizome comme métaphore sert à ouvrir beaucoup de portes ; même si on ne sait pas très bien quel genre de portes cela ouvre. En tout cas, en ce qui concerne la théorie du Web, ce livre a été incroyablement influent. Bien sûr, il a perdu cette influence avec l’apparition de l’hypercentre, c’est-à-dire : Google, la marchandisation du Web, la surveillance des données… Mais Mille Plateaux reste un bon paradigme pour penser le Web libertaire, créatif, bordélique des pionniers. Aujourd’hui, la grande normalisation du Web fait que ce serait plutôt du côté d’Adorno et Horkheimer qu’il faudrait chercher. On est passé d’un espace théorique dans lequel on pensait la pluralité, la bifurcation et le rhizome à un espace où l’on renoue avec la rationalisation, la centralité, la vérification, etc. Ce qui de la part de chercheurs est un signe de raisonnement un peu binaire avec une sorte de bascule entre un Web sympa et un Web dur. Ce qui ne rend pas exactement compte de la réalité. Car la force du Web c’est d’avoir gardé les dispositifs par lesquels il donne à l’utilisateur l’impression d’être libre et contributif. Il épouse en fait les projets très individualistes de notre société. Il sait parfaitement rencontrer les attentes des utilisateurs ce qui lui permet d’autant mieux de les exploiter. Il y a là une forme de domination douce.

Hugues Le Tanneur

Partager cette page :