Aux confins de l’ethnographie, de l’histoire de l’informatique et de la philosophie des sciences, Florian Jaton fait la lumière sur les algorithmes, ces boîtes noires qui orientent les décisions financières, les amours et les peines.
Aux confins de l’ethnographie, de l’histoire de l’informatique et de la philosophie des sciences, Florian Jaton fait la lumière sur les algorithmes, ces boîtes noires qui orientent les décisions financières, les amours et les peines.
Depuis vingt ans, les algorithmes sont présentés dans le débat public comme un pouvoir en soi. Depuis la formule « code is law » lancée en 2000 par le juriste Lawrence Lessig [1], de nombreux auteurs ont avancé que le traitement automatisé es données gouvernait les pratiques, se substituant au droit et à la politique. Les systèmes de recommandations construits à partir de larges bases de données orientent ainsi les décisions et les goûts sur Internet, dans le domaine des achats, de l’accès à l’information et de la consommation culturelle, présidant aux rencontres amoureuses sur les sites dédiés, à l’application des peines avec la justice prédictive, ou les investissements financiers avec les algorithmes d’aide à la décision. Les algorithmes vectorisent ainsi la société par le biais de recommandations et d’arbitrages d’autant plus puissants que leurs procédures s’avèrent en grande partie invisibles. Florian Jaton propose de faire la lumière sur ces techniques au statut de boîte noire. Pour ce faire, il emprunte un chemin aux confins de l’ethnographie, de l’histoire de l’informatique et de la philosophie des sciences. Avec l’exposition les modes de production d’un algorithme, il met en perspective l’histoire de l’informatique afin de transformer des techniques ésotériques en objets de controverses.
Pour tenir cette promesse, l’ethnographe se détourne des blockbusters algorithmiques de la Silicon Valley pour s’immerger, à la façon de B. Latour et S. Woolgar [2], dans la vie d’un laboratoire. L’auteur y suit une petite équipe informatique de Lausanne, spécialisée dans le domaine de l’analyse automatique de la « saillance » visuelle (p. 59), branche visant à produire des systèmes de traitement d’image sur le modèle de la vision humaine. À force de réunions, pauses café, séances de tableau noir, discussions de couloir, courriels et sessions de programmation, il en devient un membre à part entière prêtant une main mal assurée, mais suffisamment serviable pour observer en situation les étapes d’élaboration d’un algorithme.
Soutenu par des financements publics, ce laboratoire se consacre à la production de travaux académiques sur la base de liens étroits avec les grandes entreprises du numérique et l’univers des startups, au travers d’invitations à des présentations, des collaborations, des stages rémunérés, des recrutements, et le réseau de conférences qui valident et apportent la reconnaissance à plusieurs mois, parfois plusieurs années de recherche (p. 40). Après deux ans et demi d’immersion, l’auteur le quitte avec mille pages de notes manuscrites, deux mille fichiers .txt, des douzaines de scripts codés en Python, des centaines d’images et d’enregistrements vidéo (p. 45). Il réalise à partir de cette plongée une suite d’observations, ce qui constitue un premier coup de force dans un domaine où le fonctionnement des machines et l’architecture des programmes recouvrent pour le commun des mortels le plus épais des mystères. Du temps passé à scruter des activités techniques peu spectaculaires et des tâches parfois résolument barbantes, l’auteur tire une proposition charpentée de ce qu’est un algorithme, en prenant ses distances avec ce qui en est dit habituellement.
Il est en effet courant de définir les algorithmes comme une méthode destinée à résoudre un problème à partir d’étapes suffisamment univoques, finies et systématiques pour être suivies. Dans sa somme The Art of Computer Programming [3], Donald Knuth avance que les algorithmes visent à transformer des données en résultats, en transformant des quantités données (« inputs ») en quantités de sorties (« outputs »). L’enquête de terrain conduit à souligner les insuffisances de cette conception. Tout d’abord, les données traitées par algorithme ne tombent pas du ciel ; ils sont le produit d’un travail d’assemblage, qui suppose le recours à des outils marqués par les désirs, croyances et contraintes propres à l’histoire de leurs conceptions. De plus, l’acceptation devenue standard de D. Knuth minimise « l’infrastructure d’évaluation des algorithmes et leurs dimensions politiques » (p. 49) : les choix et orientations ne vont pas de soi, mais sont le fruit d’une suite de décisions dont le bien-fondé pourrait prêter à discussion. Dans cette perspective, les pratiques de programmation doivent être mises sur le devant de la scène, car elles encapsulent dans les techniques une forme d’arbitraire.
Le livre est construit à la manière d’un ressaisissement de cette part d’ombre, à travers la description du processus de production. Les trois termes du sous-titre en désignent les étapes. Dans un premier temps, les chercheurs constituent une base de données cohérentes et traitables algorithmiquement. Deuxièmement, ils cherchent à rendre les jeux d’écriture suffisamment cohérents pour instruire efficacement des programmes informatiques, validés par les communautés de pairs (p. 164). Pour ce faire, ils opèrent une suite de réductions visant à transformer des entités non mathématiques (ici des images) en entités mathématisables (des valeurs, distribuées en lignes et en colonnes). Si elle est maîtrisée, cette suite d’opérations lie harmonieusement une base de données ad hoc (« ground truthing »), des activités de programmation (« programming ») reposant sur des mises en équivalence mathématiques (« formulating »). Si l’ouverture de cette boîte noire s’avère lente et délicate, c’est que l’informatique procède d’une histoire marquée par des stratégies d’occultation. Le livre impute à John Von Neumann l’acte fondateur de cette propension à l’ellipse.
En 1944, Von Neumann, l’un des scientifiques les plus influents de son temps, suit de près aux développements de l’Electronic Numerical Integrator And Computer (ENIAC), premier ordinateur entièrement électronique conçu au sein de l’université de Pennsylvanie. Pour les besoins du projet Manhattan dans lequel il est directement impliqué, le mathématicien souhaite la mise au point d’une machine supérieure en termes de puissance de calcul. L’effort de guerre rend possible l’ouverture de lignes de crédits pour financer cet ordinateur, baptisé Electronic Discrete Variable Automatic Computer (EDVAC). Sa conception met aux prises trois groupes : une équipe d’ingénieurs qui tentent de traduire des données balistiques en diagrammes électroniques par le biais d’équations différentielles ; des opératrices qui s’occupent de la traduction de ses diagrammes en signaux compréhensibles par la machine au moyen de fils électriques et de boutons de commandes ; et Von Neumann lui-même, habité par une vision de l’ordinateur relativement éloignée de l’expérience concrète et souvent chaotique des deux premiers groupes.
Attentif aux développements scientifiques les plus récents, Von Neumann trouve dans la neurologie un modèle pour l’ordinateur, qu’il envisage comme un « cerveau électronique » (p. 91). Deux chercheurs viennent de proposer une représentation simplifiée et mathématisée du cerveau humain fonctionnant comme un réseau de neurones qui communique par le biais de signaux électriques. Cette analogie se révèle décisive dans l’histoire des systèmes informatiques, souvent conçus comme des représentations schématisées et mathématisées du cerveau. Rappelant le poids des cognitivistes dans cette histoire, l’auteur dépeint l’informatique à la façon d’un arbre continu de décisions. L’orientation initiale de Von Neumann tient à son attachement pour les modèles abstraits, qui autorisent l’identification de l’esprit humain à des machines pourtant aussi « ennuyeuses que des lave-vaisselle ». Cette réduction ouvre la voie à une histoire de l’informatique reposant sur l’alignement entre entités matérielles et entités mathématiques.
En effet, le groupe étudié par F. Jaton n’a de cesse de consulter, manipuler et appareiller et comparer des valeurs. Quand les entités ne présentent pas de forme mathématique, ils travaillent à les rendre mathématisables, afin d’en faire des symboles plus facilement « partageables » et « comparables » (p. 233). Quand ils y parviennent, les frontières entre les humains et les machines sont en partie levées, puisqu’il devient possible d’adresser aux ordinateurs une liste d’instructions à suivre et répéter. Les contraintes d’espace se trouvent alors réduites : l’auteur donne l’exemple de la base de données utilisée par l’équipe, constituée par des travailleurs anonymes et à distance, payés à la microtâche sur le principe du crowdsourcing. La contrainte de temps se trouve également réduite puisque les programmes opèrent les calculs en quelques secondes là où une vie n’aurait pas suffi au seul travail humain.
L’auteur a su s’armer de références pour mener à bien ce patient et rigoureux travail d’élucidation. Car si c’est en solitaire qu’il a franchi le seuil du laboratoire, il mobilise tout au long des pages la communauté des Sciences and Technologie Studies. Les différentes générations du Centre de Sociologie de l’Innovation y figurent en bonne place, avec comme centre de gravité les travaux de B. Latour. Cette tradition de recherche, féconde, mais parfois ardue et source de malentendus, est mobilisée avec une grande clarté ce qui en fait une belle introduction in vivo. Le pari de l’auteur d’éclairer les procédures d’élaboration d’un algorithme semble donc honoré ; sur le plan scientifique tout du moins.
Car reste l’autre versant de la promesse du livre, plus directement politique. Or, si l’auteur reconstitue avec précision la manière dont un algorithme est progressivement construit localement, il ne permet pas tout à fait de saisir comment ceux d’Amazon, de Facebook, de Google ou de Netflix procèdent à une échelle internationale pour orienter les comportements. En s’intéressant à un cas d’étude que l’on peut qualifier sans lui faire offense de périphérique, le livre rend compte presque malgré lui d’un état de fait peu mentionné dans le débat public : en majorité, les algorithmes s’avèrent bien éloignés d’une quelconque capacité d’emprise politique. Limités dans leur application, peu utilisés, ni même vraiment reconnus par les communautés d’experts, ils font l’objet d’une âpre sélection tout au long de cycles de vie parfois très éphémères, comme en fait l’expérience la petite équipe qui voit sa première proposition rejetée par une conférence de renom. La plupart sont ainsi promis à l’oubli ou à un relatif anonymat, qui en font pour l’essentiel des instruments de gouvernementalité pratiquement inopérants.
Pour les autres, que l’auteur appelle à placer au cœur du débat public, le livre ne dit finalement rien des conditions, moyens et formes d’une critique démocratique. Si Bruno Latour proposa un Sénat dédié aux problématiques environnementales et Michel Serres, un parlement du monde composé de scientifiques porteurs des causes du vivant [4], reste à définir ce que serait une assemblée des algorithmes : quelles modalités (électorale, représentative, délégation, cooptation, nomination, etc.), quels risques à éviter (populisme, technicisme, clientélisme, corruption, etc.), quelles procédures de mise à l’agenda ? L’auteur doit donc a minima aux lecteurs un tome 2, d’autant plus que si les textes constitutionnels ne représentent pas un sommet de littérature grand public, les codes sources ne jouent pas encore le rôle des quotidiens nationaux dans le débat public. Pour tous ceux qui s’y intéressent, F. Jaton vient de livrer un véritable roman d’apprentissage.
par , le 23 août 2021
Olivier Alexandre, « L’assemblée des algorithmes », La Vie des idées , 23 août 2021. ISSN : 2105-3030. URL : https://laviedesidees.fr./Jaton-The-Constitution-of-Algorithms
Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction (redaction chez laviedesidees.fr). Nous vous répondrons dans les meilleurs délais.
[1] L. Lessig, Code and Other Laws of Cyberspace, New York City (NY), Basic Books, 2000.
[2] B. Latour, S. Woolgar, Laboratory Life : The Social Construction of Scientific Facts, Beverly Hills (CA), Sage Publications, 1979.
[3] D. Knuth, The Art of Computer Programming, Vol. 1 : Fundamental Algorithms, Boston (MA), Addison Wesley, 2011 [1965].
[4] Voir Michel Serres, Le Contrat Naturel, Paris, François Bourin, 1990 et Bruno Latour, « À nouveaux territoires, nouveau Sénat », Le Monde, 09 janvier 2003.