Uber, Waze, Airbnb… Les algorithmes qui régissent ces plateformes sont fondés sur l’optimisation du service rendu à l’usager, et non sur une norme collective, politique ou morale. Leurs mises en accusation mettent à nu la gouvernance implicite des architectures techniques.
Cet essai est un extrait du livre de la collection Puf/Vie des idées, paru le mercredi 28 août 2019 : Gouverner la ville numérique, dirigé par Antoine Courmont et Patrick Le Galès.
Des journalistes en Angleterre, en Italie et en France [1] créent de faux profils de restaurants qu’ils parviennent à faire monter dans les classements de Tripadvisor à l’aide de commentaires élogieux et de bonnes notes, afin de dénoncer les calculs artificiels de réputation qui favorisent une concurrence déloyale entre les restaurants et trompent les clients. Des chercheurs dénoncent la présence de « voitures fantômes » sur l’application Uber [2], prouvant que la société de VTC simule le marché de l’offre et de la demande dont elle prétend rendre compte en tant que simple intermédiaire, de manière à maîtriser les tarifs et donner l’impression d’une offre abondante aux utilisateurs. Ces deux mises en accusation des calculs numériques sont typiques des initiatives visant à auditer et critiquer les plateformes numériques et leurs algorithmes. Elles témoignent d’une inquiétude grandissante des pouvoirs publics, des acteurs du marché ou des citoyens à l’égard de la place que tiennent ces plateformes dans nos vies quotidiennes. Avec la généralisation des équipements en téléphone mobile (4,8 milliards en 2017, dont 2,32 milliards de smartphones), les usages de services en mobilité se sont massifiés et plus aucun secteur d’activité n’est épargné par l’arrivée de nouveaux entrants qui redessinent nos manières de nous orienter, de nous déplacer et de consommer dans la ville. Ces critiques ainsi que les initiatives de régulation des institutions gouvernementales se développent donc dans un contexte qui voit ces plateformes connaître un succès massif auprès des utilisateurs et un déploiement général à l’échelle de la planète [3]. Sur le modèle de l’économie collaborative, elles se présentent comme des plateformes de mise en relation et profitent de ce positionnement pour développer des modèles d’intermédiation hyper-concurrentiels dans une logique hors sol, en ignorant le plus souvent les particularités locales en termes de droit et de régulation des marchés.
Il est frappant de constater que beaucoup des interrogations relatives à ces nouveaux services mettent en jeu les algorithmes qui sont au cœur de leur fonctionnement. Il est souvent difficile, du fait de la fermeture du code des applications, de connaître leur fonctionnement et d’anticiper les changements réguliers effectués par les développeurs afin d’optimiser les services. Si le code informatique est une des formes de régulation des mondes numériques, le développement de services via des applications mobiles montre également le pouvoir d’agir du code dans l’espace physique. En imposant une forme abstraite et décontextualisée de calcul, il est reproché aux algorithmes d’être les agents d’une transformation des territoires et des conduites de mobilité. Aussi est-il utile d’explorer ces controverses. Qui sont les agents de ces dérégulations et au nom de quels intérêts agissent-ils ? Comment les plateformes et leurs algorithmes interagissent-ils avec les formes de régulation préexistantes ? Quels principes sont invoqués pour dénoncer les algorithmes comme source de dérégulation des territoires ?
En nous appuyant sur une analyse de cas médiatisés au sujet d’applications réputées proposant des services de référencement de commerces, de livraison, d’offre de logement ou de mobilité dans les villes, ce chapitre voudrait montrer comment la question du calcul de l’espace est progressivement constituée comme un problème public. Pour mettre à jour, ces enjeux, on se propose d’étudier quelques « affaires » [4] issues d’un corpus de 41 cas publiés dans la presse, recueillis entre septembre 2017 et avril 2018 [5]. Pour cet article nous nous sommes concentrés sur une partie du corpus constitué de 19 cas portant sur des plateformes populaires telles que Uber, Waze, Tripadvisor Airbnb ou encore Deliveroo. Le corpus se focalise sur les situations dans lesquelles la question du calcul – par simplification, on dira l’algorithme – est au centre de l’affaire. Il exclut donc les controverses liées aux conditions générales d’utilisation, au droit du travail, à la concurrence déloyale, etc. même si ces enjeux peuvent apparaître dans la controverse comme des effets sur lesquels les algorithmes agissent. Ce corpus ne constitue pas un recensement exhaustif de toutes les controverses générées par ces plateformes, mais en raison de sa diversité, il permet de cartographier l’espace des questionnements que fait apparaître le calcul de la ville par ces nouveaux acteurs.
Le code mange la ville
Le pouvoir d’agir des algorithmes tient à leur capacité à réguler les espaces numériques. Les travaux de Lawrence Lessig [6] ont montré qu’avec la création du cyberespace une nouvelle source de régulation devait être prise en compte. L’architecture technique que représente le code informatique, loin d’être neutre, régule largement le cyberespace car il encapsule les choix politiques de ses concepteurs. Cette nouvelle forme de régulation vient s’ajouter aux trois autres formes de régulation préexistantes que sont la loi, le marché et la norme. La formule à succès de Marc Andresseen, « le logiciel mange le monde » [7] peut alors être reprise : « le code mange la ville ». Si le code fait loi dans le cyberespace, avec le développement des services sur mobile, les espaces physiques et numériques sont désormais entrelacés et ce qui régule dans le monde numérique a des implications directes dans le monde physique. Beaucoup des questions que posent les nouvelles plateformes de services à la mobilité tiennent à l’indifférence du code informatique aux normes édictées par les institutions qui gouvernent les espaces.
En 2017, la Californie est frappée par des incendies dramatiques. Les routes sécurisées sont embouteillées, à l’inverse, les routes les plus dangereuses sont vides car interdites à la circulation. Mais l’algorithme de l’application Waze va proposer aux automobilistes des itinéraires qui les mènent sur des routes à proximité directe des incendies [8]. L’algorithme calcule les parcours à partir des données du trafic et optimise la durée du trajet en temps réel. Ces incidents dénoncés par les utilisateurs sur les réseaux sociaux et repris dans la presse n’ont pas fait de victimes. On voit là un exemple assez concret de la manière dont le code a été développé en encapsulant un objectif qui ne relève que de l’utilité du conducteur, sans intégrer de préoccupation relevant de la sécurité. Les fonctionnalités des systèmes d’orientation par GPS incluent généralement trois options, le trajet « le plus rapide », la distance « la plus courte » et le trajet « le moins coûteux » (évitant les péages). Ces choix sont devenus des conventions techniques, mais ils ne sont que trois manières parmi d’autres de penser ce que devrait être un trajet en fonction des objectifs « supposés » des utilisateurs. Un blogueur utilisant une voiture hybride proposait récemment [9] qu’une option soit intégrée pour effectuer des trajets « les plus économiques sur le plan énergétique » pour les voitures électriques (évitant les parcours sur autoroute très consommateurs en électricité). De la même façon, on pourrait imaginer que ces systèmes proposent les routes « les plus belles », passant par les forêts et campagnes avoisinantes. Plus rapide, plus sécurisé, plus écologique, ou plus esthétique, on voit alors s’opérer un champ de possibles au sein duquel les concepteurs vont faire des choix qui régulent directement ce que la technologie permet de faire ou non. Cet exemple montre également que ces choix algorithmiques ne sont pas confinés à l’espace numérique car ils vont agir sur le trafic automobile en orientant les conducteurs, parmi l’ensemble des possibles, vers un chemin plutôt qu’un autre et ainsi venir en contradiction avec d’autres formes de régulation du trafic qui, dans le cas présent, sont représentés par la loi et les forces de l’ordre qui modifient les voies autorisées en fonction de leur dangerosité face à une situation de crise.
Des travaux montrent que les applications de calcul d’itinéraires viennent déréguler les formes préexistantes de gestion du trafic car elles se fondent notamment sur d’autres types de données et de représentations [10]. Alors que les collectivités en charge de la régulation du trafic dans les agglomérations mesurent à partir de différents dispositifs techniques le taux d’occupation de l’espace de manière collective pour assurer le maximum de fluidité à l’ensemble du trafic, et définissent des priorités de fréquentations automobiles sur certaines rues à travers la définition d’un plan de déplacements urbains, les plateformes telles que Waze sont dans une logique « centrée utilisateur ». Elles agrègent des données individualisées pour optimiser le temps de trajet de chacun sans se soucier de la régulation globale du trafic et des actions de régulation des autorités locales. Le report d’importants flux de circulation sur des espaces non aménagés (par exemple des rues pavillonnaires [11], à proximité d’écoles [12]) devient une conséquence de ce fonctionnement « centré utilisateur » qui entre en contradiction avec d’autres normes de gestion du trafic.
La constitution du problème public
À travers les articles de presse de plus en plus nombreux sur les « pathologies du calcul algorithmique », se constitue progressivement dans l’opinion un nouveau « problème public » ayant trait à la manière désirable d’être (ou de ne pas être) calculé (Cardon 2018). Quelles sont les situations qui font « problème » et celles qui ne le font pas ? Sur la base de quelles normes ou de quels principes peut-on qualifier un calcul de « normal » (juste, équilibré, sincère, etc.) et d’autres de « problématiques » (injustes, déséquilibrées, trompeurs, discriminatoires) ? Et qui en sont les responsables et les victimes ? La fabrication des problèmes publics exige de constituer un répertoire de cas permettant d’identifier les différentes facettes de situations troublées afin de leur imposer une interprétation univoque et partagée [13]. À partir de notre corpus de cas, nous avons cherché à dégager la structure narrative des affaires [14] en faisant apparaître quatre actants : le « dénonciateur » de l’affaire, « l’agent algorithmique » (le code ou la procédure de calcul), la « cause » imputée au fonctionnement de l’agent algorithmique et enfin la « victime » des effets de l’algorithme. Cette décomposition narrative des affaires liées aux algorithmes permet de faire apparaître une tension spécifique aux débats sur les effets produits par les calculs : la responsabilité du calcul est-elle imputable aux intérêts des plateformes ou aux comportements des utilisateurs ? Ce débat trouve une actualité particulière dans le cas des plateformes de services de mobilité où s’oppose le service rendu à l’utilisateur et les exigences de gouvernance commune des territoires.
Des porte-parole pour rendre visible des troubles imperceptibles
Le premier enseignement de l’analyse de ces controverses est d’abord que les « victimes » des algorithmes en sont rarement les « dénonciateurs ». Dans la plupart des cas, elles ont besoin de porte-parole pour révéler des troubles du calcul qui leur sont souvent invisibles. Dans leurs usages quotidiens, les utilisateurs ont une connaissance fragile et imparfaite de la manière dont ils sont calculés. Il arrive certes qu’ils soient désemparés, intrigués ou furieux lorsque les systèmes de suggestion ou d’orientation échouent à leur proposer une information pertinente, mais ces situations font rarement l’objet d’une protestation et d’une publicité, à l’exception de quelques publications sur les réseaux sociaux. La plupart du temps, ces troubles du calcul restent silencieux et ne sont vus par personne. Dans les affaires analysées, les journalistes prennent appui sur le travail effectué par des entrepreneurs de causes, associations, collectifs, universitaires, institutions capables de faire exister le cas et lui donner une consistance suffisamment forte pour qu’il puisse être porté dans l’espace public (Boltanski, 1990). La mise en cause de la loyauté des algorithmes demande notamment une expertise qui, dans la plupart des cas, est issue de travaux universitaires et relayés par des associations et les médias. C’est par exemple le cas dans l’affaire des voitures fantômes d’Uber dénoncée par des chercheurs de Data Society [15], de la discrimination et des écarts de salaires des chauffeurs femmes sur cette même plateforme, mis au jour par des chercheurs de Stanford [16] ou encore du travail de Ben Edelman et Michael Luca de l’université de Harvard pour montrer les effets de discrimination raciale sur Airbnb.
Il est par ailleurs assez courant que la presse relaie des décisions juridiques produites par des autorités publiques au niveau national ou international visant à sanctionner ou réguler les plateformes. C’est par exemple la Federal Trade Commission qui dénonçait en 2016 [17] l’autorisation par la société Uber de laisser ses chauffeurs utiliser l’application « God view » leur permettant de tracer les déplacements des clients via un système de géolocalisation. De fait, les victimes ne deviennent vraiment les dénonciateurs des systèmes algorithmiques que pour autant qu’elles en subissent les effets économiques. En 2017, par exemple, ce sont des restaurateurs qui contactent le journal Libération [18] pour dénoncer la pertinence et la transparence des règles de fonctionnement des algorithmes de Deliveroo et UberEats, accusés de ne pas utiliser les seuls critères de géolocalisation et de temps de livraison censés être pris en compte dans le référencement, favorisant injustement certains restaurants dans le classement de l’algorithme. Il apparaît ainsi que la mise en forme de la question des algorithmes comme problème public est avant tout un travail entrepris par les experts, les ONG et les régulateurs sans que, à l’exception de ceux qui ont des activités marchandes, les individus qui en subissent les conséquences (i. e. les « victimes ») prêtent une forte attention aux effets des plateformes.
Multiplicité des causes
Si les dénonciateurs et les victimes sont assez simples à identifier, il existe en revanche une incertitude beaucoup plus forte sur le rôle que jouent les algorithmes. Celle-ci se manifeste tout particulièrement à travers les conflits d’interprétation des raisons qui les font agir. Lors des controverses publiques, l’imputation de responsabilité des calculs indésirables se fixe sur différentes entités plus ou moins précises. Dans les articles de presse, c’est fréquemment le service dans son ensemble qui est rendu responsable : « Waze dirige les conducteurs vers les incendies en Californie » ; « Waze accusé de protéger bien mieux la vie des Israéliens que celle des Palestiniens » ; « Airbnb as a Racial Gentrification Tool ? ». Cependant, avec la notoriété grandissante du terme d’algorithme et sa pénétration rapide dans le débat public, il arrive de plus en plus fréquemment que les dispositifs de calcul soient désignés comme l’agent responsable : « Comment Uber se cache derrière son algorithme » ; « Chez Uber, une I.A. décidera bientôt du prix de la course à la tête du client » ; « How Airbnb Uses Big Data And Machine Learning To Guide Hosts To The Perfect Price ».
La représentation critique dominante du comportement des algorithmes est de référer la cause du problème aux intérêts économiques de l’entreprise qui l’a conçu. Et, à plus d’un titre, il est la plupart du temps assez juste et pertinent de faire cette hypothèse. Mais, si l’on décompose de façon plus précise les controverses liées aux calculs, il faut isoler l’agent calculateur (qui a été programmé par les ingénieurs de la plateforme de service) et les raisons auxquelles on peut imputer le résultat du calcul. Il est en effet beaucoup de controverses dans lesquelles les acteurs de la controverse sollicitent des raisons très diverses pour expliquer pourquoi l’algorithme fonctionne de telle ou telle manière. Ces raisons peuvent être référées aux intérêts de la plateforme qui l’a programmé, mais la spécificité des controverses algorithmiques est que l’agentivité du calcul peut aussi être imputé aux données produites par les utilisateurs, aux comportements d’autres acteurs ou à des principes de régulation venus de l’extérieur, par exemple des institutions étatiques. Déplier ainsi les controverses permet d’en éclairer certains des enjeux.
Soit un premier exemple. À la fin de l’année 2015, après les attentats de Paris, Waze a été accusé de signaler la présence de la police sur son application [19], limitant ainsi la capacité des forces de l’ordre à opérer des barrages filtrants pour chercher d’éventuels suspects. Ce sont, en réalité, les utilisateurs de Waze qui signalaient la présence de policiers sur l’application et contrairement à d’autres applications, Waze n’avait pas suspendu son service autour des zones concernées. Dans ce cas, l’imputation de responsabilité peut prendre deux directions différentes : elle peut incriminer le comportement des utilisateurs, ou la politique de la plateforme qui, intentionnellement, a choisi de ne pas bloquer le service en dépit des demandes des autorités publiques de ne pas signaler la présence des forces de l’ordre.
Un deuxième cas, plus complexe, est celui de la dénonciation par le maire de Jérusalem du choix, dans l’algorithme de Waze, d’éviter la circulation dans les quartiers Est de la ville, occupés par des populations palestiniennes [20], provoquant des détours pour les Israéliens et une congestion du trafic sur la partie Ouest de la ville. Dans cette affaire, Waze a été accusé de faire un choix politique en entérinant la partition de Jérusalem. Si les quartiers Est de la ville avaient bien été supprimés de l’algorithme par Waze, la société se justifiait en invoquant, d’une part, que des utilisateurs avaient signalé sur l’application ces quartiers comme dangereux pour la sécurité des personnes, et d’autre part, que la société Waze travaillait avec la police israélienne afin d’établir les zones par lesquelles elle pouvait faire circuler ses utilisateurs en toute sécurité. Pour le maire de Jérusalem, les décisions de l’algorithme enferment un choix politique, pour Waze, il s’agit de répondre aux demandes des utilisateurs. La controverse a pris de l’ampleur lorsque les Palestiniens, de leur côté, ont également dénoncé le fait que Waze ne déclarait pas les zones de colonies israéliennes ultra-orthodoxes, potentiellement dangereuses pour eux, produisant une stigmatisation des zones palestiniennes et une asymétrie dans l’information diffusée à ses utilisateurs. Si l’algorithme est clairement mis en cause par les parties prenantes de l’affaire, les raisons que les acteurs confèrent à ses choix ne sont pas intrinsèques au calculateur, mais mobilisent de façon contradictoire des justifications politique ou économique.
Procédures froides des algorithmes
L’incertitude sur ce qui cause le résultat des calculs tient à la difficulté que rencontrent les acteurs pour saisir la dimension « procédurale » du calcul algorithmique. En effet, les règles de calcul des algorithmes sont procédurales et non substantielles. Les artefacts n’ont pas un accès sémantique aux informations qu’ils manipulent, c’est-à-dire qu’ils n’en ont pas une compréhension symbolique. Aussi doivent-ils, pour produire leurs résultats, trouver des procédures permettant de faire la meilleure approximation possible d’un principe que les utilisateurs interprètent, eux, de façon substantielle [21]. Lorsque des polémiques prennent forme publiquement autour des effets produits par les calculs, les imputations des acteurs font appel à des théories de la responsabilité qui laissent penser que les calculateurs agiraient intentionnellement et que cette intention pourrait être rapportée à un projet explicite des concepteurs des plateformes – représentation qui est aujourd’hui renforcée par le terme « Intelligence artificielle » qui donne naissance à la généralisation d’énoncés du type : « Mon IA va trouver le meilleur X ». Le déploiement de la controverse tient alors au décalage entre la méthode procédurale que les plateformes posent sur la ville et les projets substantiels que ceux qui la gouvernent voudraient leur imposer. Ce désalignement nourrit la tension entre la gouvernance de la ville par les algorithmes et par les pouvoirs publics.
À la suite des attentats de Londres en juin 2017, les utilisateurs de la plateforme Uber dénoncent via les réseaux sociaux le fait que les tarifs augmentent considérablement, alors que les Londoniens tentent de quitter les lieux des attentats pour se mettre en sécurité [22]. L’algorithme est programmé pour adapter le prix des courses en fonction de l’offre et de la demande. Après les incidents, la demande explose et mécaniquement l’algorithme augmente les tarifs. Face à cette situation de crise, exceptionnelle, imprévisible, l’algorithme applique une procédure, incapable de prendre en considération cet état irrégulier du monde dans son calcul. Au même moment, les taxis londoniens proposent de transporter des personnes gratuitement pour les mettre en sécurité. On voit à travers cet exemple la manière dont la logique procédurale de l’algorithme se confronte à la réalité variée, diverse et instable du monde qu’il calcule.
Une autre source de controverse est issue de situations pour lesquelles, alors que l’on attend que l’algorithme agisse de manière procédurale en respectant un principe de neutralité, une cause substantielle y est intégrée. Après une expérimentation dans plusieurs villes, Uber s’apprête à généraliser un système de paiement basé sur « l’itinéraire ». Les utilisateurs se verront surfacturer leur course en fonction des quartiers dans lesquels ils voyagent [23]. Si les zones d’arrivée et de départ sont considérées comme des quartiers aisés, les utilisateurs paieront plus cher une course à distance et temps équivalents que des utilisateurs voyageant entre un quartier populaire et un quartier aisé. Uber intègre ici dans son algorithme une cause substantielle en différenciant les caractéristiques variées du monde externe, modifiant la simple logique de neutralité qui consiste à calculer le prix en fonction de la durée et de la distance parcourue. De la même manière, dans le cas précédemment cité de la controverse autour de Waze et des quartiers Est de Jérusalem, demander à l’algorithme de choisir le chemin « le plus rapide » est procédural, en revanche, lui dire « d’éviter de passer par Jérusalem Est » est substantiel. Cette distinction doit être faite avec précaution, notamment parce qu’elle sert aux plateformes à justifier le caractère prétendument « neutre » des règles procédurales et parfois à se dédouaner de leurs responsabilités.
Si les algorithmes sont aujourd’hui accusés dans les médias de déréguler les activités sociales et économiques, on retiendra qu’ils fonctionnent en fait comme des assemblages intégrant à leurs calculs des seuils, des contraintes, et des objectifs qui sont eux-mêmes reconfigurés par les usages que font les utilisateurs du service. Dans de nombreuses situations, les causes sont multiples et parfois « externes » à leur simple conception ou à l’intention de ceux qui les ont programmés. Pourtant, il serait également erroné de penser que mettre en débat ce problème public est sans intérêt car les algorithmes jouent bien un rôle, plus ou moins central, dans la manière dont nous accédons aux informations et dont nous sommes orientés dans nos choix quotidiens.
Concurrences sur les principes
Si la question de la responsabilité des algorithmes et leur niveau d’implication restent difficiles à évaluer, il n’en reste pas moins que la dénonciation de ces nouveaux actants est aujourd’hui vivace. On peut alors essayer de comprendre, à travers l’analyse des critiques, les différents principes que les algorithmes sont accusés de transgresser.
–Le principe d’égalité est l’un des principes les plus fréquemment évoqués. Les algorithmes sont sans cesse accusés de discriminer, de produire des déséquilibres, ou de fournir une information orientée et partielle. En 2016, des journalistes dénoncent le fait que les algorithmes de classement des plateformes comme Airbnb tendent, pour optimiser leurs bénéfices, à valoriser davantage les lieux aseptisés dans lesquels l’esthétique est homogénéisée [24], visant les clients masculins, blancs et à fort pouvoir d’achat qui voyagent à travers le monde.
–Le principe de loyauté est invoqué pour dénoncer le fait que les algorithmes nous trahissent, nous mentent ou nous trompent. En ce cas, l’algorithme est accusé de ne pas faire ce qu’il prétend faire. Le cas des voitures fantômes d’Uber est un bon exemple de tromperie des utilisateurs par l’algorithme. Uber trompe délibérément ses clients, il rompt le contrat selon lequel il est censé être un simple intermédiaire rendant compte du marché en temps réel.
– Le principe de respect de la vie privée est aussi invoqué lorsqu’on accuse les algorithmes de nous calculer ou de nous surveiller. La société Uber est accusée par certains de ses employés d’avoir utilisé un programme nommé GreyBall [25], qui visait, en recoupant des informations personnelles de clients (nom, carte bancaire, etc.), à identifier des personnes désignées comme des potentiels « opposants » à son développement afin de les ignorer ou d’annuler leurs courses sur le service.
–Le principe d’autonomie du sujet peut être également mis en avant lorsque les algorithmes sont accusés de limiter ou de contraindre la liberté des individus. En installant l’utilisateur dans un environnement de contrôle et de guidage, les plateformes assujettissent les individus à des choix qui ne sont pas les leurs. Ces critiques apparaissent par exemple dans les enquêtes d’usages sur le guidage routier [26], mais également pour dénoncer le caractère in fine coercitif des pressions que le système de récompense algorithmique exerce sur les chauffeurs prétendument indépendants d’Uber [27]. Les fonctionnalités de la plateforme incitent donc les chauffeurs à travailler sans cesse davantage et ils sont assujettis au rythme imposé par l’algorithme.
–Le principe d’efficacité diffère des principes précédemment évoqués qui s’apparentent à des principes fondamentaux, constitutifs du droit. Ce principe est invoqué lorsqu’un algorithme n’est pas en mesure de produire le résultat qu’il prétend atteindre ou lorsqu’il dysfonctionne. De nombreux cas déjà présentés relèvent de la dénonciation de ce principe, comme celui de la détection de faux avis et de faux restaurants sur Tripadvisor ou encore celui des échecs de Waze à anticiper les zones à risques ou non adaptées lorsqu’il propose des itinéraires alternatifs pour optimiser le temps de trajet.
Ce qui apparaît à la lecture de ces affaires, c’est une tension entre ces différents principes normatifs et une autre forme de justification du calcul qui s’appuie moins sur le respect d’une norme politique et morale que sur l’optimisation de l’utilité du service rendu à l’utilisateur. Ces tensions entre normes et utilité sont le théâtre des conflits entre les nouveaux services et les régulateurs. Face aux critiques, la question de l’utilité apparaît en effet comme la principale justification du choix de telle ou telle procédure algorithmique par les plateformes. Elle est au cœur de la justification libérale des plateformes numériques qui assurent offrir l’architecture la moins interventionniste possible afin de laisser les utilisateurs définir eux-mêmes les finalités de leurs usages. Pourtant, le laissez-faire agnostique des plateformes peut créer de fortes situations d’inégalités et renforcer des distributions urbaines déjà profondément inégales. La logique utilitariste des plateformes peut également, même lorsqu’elle prétend être au bénéfice des utilisateurs, produire des situations dans lesquelles les données des utilisateurs sont exploitées de manière abusive, générer des formes de dépendance ou d’asservissement ou encore limiter leur capacité d’action en les contraignants à agir en fonction des paramètres de l’algorithme.
En termes de politique publique, il est frappant de constater que les enjeux tenant aux calculs de la ville font apparaître un changement de paradigme qui voit la régulation de la ville se déplacer d’une logique de choix collectifs orientant les usages de la ville à une optimisation utilitariste de la satisfaction des usagers des plateformes. La gouvernance de la ville suppose la mise en œuvre de contraintes, d’interdits et d’exceptions afin de respecter des équilibres entre les populations, de préserver certains espaces, de gérer la cohabitation entre différentes catégories d’usagers, d’éviter des effets de concentration des ressources, des prix ou des populations. Ces décisions supposent d’introduire des choix substantiels – i. e. des exceptions – à l’intérieur d’écosystèmes de calcul qui, du fait de leur simplicité et de l’universalité des règles qu’ils mettent en place, ont un horizon procédural. Cette tension est inséparable de la nature et de la disponibilité des données pour le calcul. L’intégration de contraintes dessinant une gouvernance des territoires en fonction d’orientations politiques « substantielles » dans les calculs procéduraux requiert des données qui sont souvent possédées par les opérateurs territoriaux et qui n’ont pas les mêmes qualités (complétude, temporalité, etc.) que les traces géolocalisées que les utilisateurs donnent aux plateformes. C’est pourquoi la question du partage, de la circulation et de la propriété des données constitue un des principaux enjeux de la gouvernance algorithmique des territoires.
Dominique Cardon & Maxime Crépel, « Algorithmes et régulation des territoires »,
La Vie des idées
, 27 août 2019.
ISSN : 2105-3030.
URL : https://laviedesidees.fr./Algorithmes-et-regulation-des-territoires
Nota bene :
Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction (redaction chez laviedesidees.fr). Nous vous répondrons dans les meilleurs délais.
[1] « Comment « L’Œil du 20 heures » a piégé TripAdvisor en créant un faux restaurant », France Info, 07/09/15 ; « Un journal italien invente un faux restaurant pour piéger le site TripAdvisor », France Info, 05/07/15.
[2] « Comment Uber se cache derrière son algorithme », Slate, 07/08/15.
[3] Dans le monde on comptait en 2017, 150 millions utilisateurs d’Airbnb, 75 millions d’utilisateurs d’Uber pour 7 millions de chauffeurs, et 4,26 millions de restaurants référencés sur Tripadvisor. En 2017, Airbnb était présent dans 65000 villes et 191 pays pour un chiffre d’affaires de 31 milliards de dollars, Uber dans 78 pays et 600 villes pour un chiffre d’affaires de 68 milliards de dollars, Tripadvisor réalisait un chiffre d’affaires de 1,4 milliards en 2016.
[4] Luc Boltanski, « 4. La topique de la dénonciation », La Souffrance à distance. Morale humanitaire, médias et politique, Éditions Métailié, 1993, p. 91-116.
[5] Données recueillies dans le projet Algoglitch réalisé au médialab de Sciences Po et soutenu par le Conseil National du Numérique.
[6] Lawrence Lessig, Code and Other Laws of Cyberspace, Basic books 1999.
[7] Marc Andreessen, “Why software is eating the world”, The Wall Street Journal, 20/08/11.
[8] « Waze dirige les conducteurs vers les incendies en Californie », Clubic, 08/12/17.
[9] « GPS : de la valeur par défaut », Internet Actu, 05/12/17.
[10] A. Courmont, « Entre monde et réalités. Big data et recomposition du gouvernement urbain », Revue française de Sociologie, 2018.
[11] « Une petite ville américaine est envahie par les embouteillages à cause de l’appli de navigation Waze », Mashable, 27/12/17.
[12] « Loyauté des plateformes, d’accord, mais loyauté à quoi ? », Nouvelobs, 10/12/16.
[13] Daniel Cefai, « La construction des problèmes publics. Définition de situations dans des arènes publiques », Réseaux, 1996, n°75, p. 43-66.
[14] Bruno Latour, Changer de société - refaire de la sociologie, La Découverte, 2006 ; Luc Boltanski, « 2. Le système actanciel de la dénonciation », in L’amour et la justice comme compétences : Trois essais de sociologie de l’action (p. 266-279). Éditions Métailié, 1990.
[15] A. Rosenblat, L. Stark, « Algorithmic Labor and Information Asymmetries : A Case Study of Uber’s Drivers », International Journal Of Communication, 2016, 10, 27.
[16] C. Cook, R. Diamond & al. (2018), The Gender Earnings Gap in the Gig Economy : Evidence from over a Million Rideshare Drivers, Natural Field Experiments 00634.
[17] « Uber règle à l’amiable une plainte sur la protection des données », Le Point, 15/08/17.
[18] « Après les livreurs, les restaurateurs bouffés par l’uberisation », Libération, 22/08/17.
[19] « Les applis de géolocalisation critiquées en marge des attentats », GQ, 17/11/15.
[20] « Waze accusé de protéger bien mieux la vie des Israéliens que celle des Palestiniens », Numerama, 05/10/16.
[21] Dominique Cardon, « Le pouvoir des algorithmes », Pouvoirs, 2018, vol. 164, no. 1, p. 63-73.
[22] « Attentat de Londres : Uber scandalise ses utilisateurs en augmentant ses prix pendant les attaques », Huffingtonpost, 04/06/17.
[23] « Chez Uber, une I.A. décidera bientôt du prix de la course “à la tête du client“ », Journal du Geek, 31/05/17.
[24] « Comment Airbnb et Instagram uniformisent nos lieux de vie », Les Inrocks, 27/08/16.
[25] « La manipulation secrète des utilisateurs d’Uber dévoilée par des lanceurs d’alerte », The Conversation, 18/04/17.
[26] Y. Bruna, « La déconnexion aux technologies de géolocalisation. Une épreuve qui n’est pas à la portée de tous », Réseaux, n°86, 2014, p. 141-161.