La vie débridée des algorIthmes

Publié par jbrunati le 24 Février, 2017 - 18:36
Version imprimable

                          
A propos de l’’article d’’Antoinette Rouvroy et Thomas Berns « Gouvernementalité algorithmique et perspectives d'émancipation » Le disparate comme condition d'individuation par la relation?

2013/1 n° 177, p. 163-196. DOI  10.3917/res.177.0163
Les deux auteurs sont philosophes du droit , chercheurs au Fonds National de la Recherche Scientifique (FNRS, Belgique)

    Par « gouvernementalité algorithmique » les auteurs désignent un mode de gouvernance qui s’’appuie sur une nouvelle pratique de la statistique, revisitée par le numérique. Ces  nouvelles  statistiques « nous éloignant des perspectives statistiques traditionnelles de l’’homme moyen, semblent permettre de « saisir » la « réalité sociale » comme telle, de façon directe et immanente, dans une perspective émancipée de tout rapport à « la moyenne » ou à la « normale », ou, pour le dire autrement, affranchie de la « norme ». Les auteurs parlent d’’une  « objectivité a- normative », créant un «nouveau régime de vérité numérique »; la gouvernementalité algorithmique rompt ainsi avec l'origine conventionnelle de l'information statistique".
 La statistique traditionnelle repose en effet sur des normes conventionnelles, cadre de référence dans lequel elle opère et qui pré-existe à sa construction. Ceci a comme   conséquence d’ouvrir la possibilité de débat ou même de  contestation à propos des présupposés de l'analyse statistique en question. C’est bien cela qui semble impossible avec cette nouvelle forme d’’analyse qui combine calculs algorithmiques et big data, dans la mesure où elle se présente comme neutre, objective, prétendant aboutir à une sorte de copie du « réel ». Sans trop entrer dans le détail de cette analyse riche de références et de perspectives je soulignerai les points importants de leur analyse en y ajoutant  quelques remarques.

Position du problème :

Les auteurs insistent sur l’’importance du data mining, décrite ainsi dans  Wikipédia :
« L’’exploration de données, fouille, ou encore prospection de données, a pour objet l’’extraction d'un savoir ou d'une connaissance à partir de grandes quantités de données par des méthodes automatiques ou semi-automatiques ». Antoinette Rouvroy et Thomas Berns  en expliquent les finalités :
 « Le datamining, articulé à des finalités de profilage, reconstruit, suivant une logique de corrélation, les cas singuliers émiettés par les codages, sans pour autant les rapporter à aucune norme générale, mais seulement à un système de rapports, éminemment évolutifs, entre diverses mesures, irréductibles à aucune moyenne. Cette émancipation par rapport à toute forme de moyenne tient notamment au caractère auto-apprenant de ces dispositifs, et peut être considérée comme essentielle à l’’action normative contemporaine. »
Les auteurs mettent l’accent donc tout d’’abord sur ce qu’on peut appeler une opération de dé-moyennisation  dans la construction d’’une nouvelle « action normative ». Affirmation  paradoxale, car il y a production de normes nouvelles, mais cette production  se fait sans aucun rapport, disent les auteurs, avec une quelconque norme générale! Il faut ici  distinguer sans doute  normalisation, où il faut entendre le plus souvent  retour à l’’ordre, voire mise au pas, et normativité, au sens de Georges Canguilhem et de certains juristes.  Cette dernière représente au coeur  de toute vie humaine, la capacité à produire des normes et à en jouer, à les faire varier,  le pouvoir de transformer le milieu, de l’ instituer autant qu’on le subit. Autrement dit la normativité met l’accent sur le processus plus que sur l’état des choses, sur l’invention et le pouvoir d’agir plutôt que sur l’adaptation.
Ensuite, la logique mise en oeuvre est une logique de corrélation; elle se situe donc d’emblée  hors de toute causalité, de tout système explicatif, théorie, modèle, etc. Un autre élément  intéressant réside dans le "caractère auto-apprenant" des dispositifs considérés, on reviendra sur ces questions. Un autre point important est le fait que les dispositifs qui s’’appuient sur les algorithmes « ne sont pas générateurs d’’espace public mais du contraire, sous couvert de « personnalisation » des offres d’’information, de services et de produits; c’’est donc plutôt à une colonisation de l’’espace public par une sphère privée hypertrophiée que nous aurions affaire, au point de faire craindre que les nouveaux modes de filtrage de l’’information aboutissent à la disparition de l’’expérience commune ». On voit que les auteurs n’y vont pas par quatre chemins! Cette colonisation passe par une  tromperie  qui prend la forme d’une fausse personnalisation et nous verrons plus loin dans le texte que cette dernière empêche de fait aux yeux des auteurs toute subjectivation.
    Le processus de gouvernementalité algorithmique est décrit en 3 étapes en réalité confondues dans le temps.

1° La récolte de quantité massive de données et la constitution de « datawarehouses »

« …qu’’il s’’agisse de conserver la trace d’’un achat, d’’un déplacement, de l’’usage d’’un mot ou d’’une langue, chaque élément est ramené à sa nature la plus brute, c’est-à-dire être tout à la fois abstrait du contexte dans lequel il est survenu et réduit à « de la donnée ». Ainsi « une donnée n’’est plus qu’’un signal expurgé de toute signification propre ». Ces données récoltées « constitutives d’’un comportementalisme numérique généralisé », « ont comme principale caractéristique d’’être parfaitement anodines, de pouvoir rester anonymes, et d’’être non contrôlables » (non contrôlables par les intéressés eux-mêmes).
     
2° Le  traitement des données et la production de connaissance

« Le deuxième temps est celui du datamining proprement dit à savoir le traitement automatisé de ces quantités massives de données de manière à faire émerger des corrélations subtiles entre celles-ci ; nous nous trouvons ainsi face à une production de savoir à partir d’’informations non triées, et donc parfaitement hétérogènes ». Et surtout,  cette production automatisée de savoir « se passe de toute forme d’’hypothèse préalable »
    A ce propos les auteurs citent C. Anderson, rédacteur en chef de Wired, dans « L’’âge des Petabits » : « C’’est un monde dans lequel des quantités massives de données et les mathématiques appliquées remplacent tous les autres outils. Exit toutes les théories sur les comportements humains, de la linguistique à la sociologie. Oubliez la taxinomie, l’’ontologie, et la psychologie. Qui peut savoir pourquoi les gens font ce qu’’ils font? Le fait est qu’’ils le font, et que nous pouvons le tracer et mesurer avec une fidélité sans précédent. Si l’’on a assez de données, les chiffres parlent d’’eux-mêmes » (cité dans Cardon, 2012). Or comme le remarquent les auteurs de l'article "le propre de la politique (notamment le souci d’’une mutualisation des risques) est de refuser d’’agir sur la seule base de corrélations ».

3° Troisième temps : le type d’’usage qui en est fait.

    Ces savoirs probabilistes sont utilisés « à des fins d’’anticipation des comportements individuels, rapportés à des profils définis sur la base de corrélations découvertes par datamining ». L’anticipation en effet permet de « modéliser et affecter par avance les comportements possibles; il ne s’’agit plus d’’exclure ce qui sort de la moyenne, mais d’’éviter l’imprévisible » afin de rendre la « désobéissance ou certaines formes de marginalité toujours plus improbable». En bref le calcul algorithmique permet l'anticipation qui permet elle-même d’ empêcher de s’ opposer à ceux qui contrôlent ces algorithmes!
    Ce qui fait que le Directeur général de Google, Éric Schmidt, peut dire : « Nous savons en gros qui vous êtes...l. La technologie va être tellement bonne qu’’il sera très difficile pour les gens de voir ou de consommer quelque chose qui n’’a pas été quelque part ajusté pour eux».
    Les auteurs ajoutent que « ce n’’est plus prioritairement à travers des capacités que les individus sont interpellés par le « pouvoir », mais plutôt à travers leurs « profils » (de fraudeur potentiel, de consommateur, de terroriste potentiel, d’’élève à fort potentiel) ».  En outre, du fait que « nous sommes chacun uniques »( c’est le discours qui nous est adressé), cette pratique statistique fonctionne comme si notre accord était déjà donné; l’idée de fausse personnalisation  ici se précise!
    Cet ensemble d’ opérations est mise en perspective avec ce que Bernard Stiegler appelle la prolétarisation.
« La prolétarisation, c’’est historiquement la perte du savoir du travailleur face à la machine qui a absorbé ce savoir. Aujourd’hui, la prolétarisation, c’’est la standardisation des comportements à travers le marketing et les services, et la mécanisation des esprits par l’’extériorisation des savoirs dans des systèmes tels que ces “esprits” ne savent plus rien de ces appareils de traitement de l’’information qu’’ils ne font plus que paramétrer : c’’est précisément ce que montre la mathématisation électronique de la décision financière. Or cela affecte tout le monde : employés, médecins, concepteurs, intellectuels, dirigeants. De plus en plus d’’ingénieurs participent à des processus techniques dont ils ignorent le fonctionnement, mais qui ruinent le monde » (Stiegler, 2011).
    Dans une deuxième partie les auteurs confrontent leurs analyses avec certains concepts de Gilbert Simondon et Gilles Deleuze : « Ce qui définit essentiellement un système métastable, c’’est l’’existence d’’une “disparation”, au moins de deux ordres de grandeur, de deux échelles de réalité disparates », écrivait Deleuze (2002), lecteur de Simondon. Or cet évitement du raté ou de la déviation opère comme négation de cette « disparation ». La gouvernementalité algorithmique présente une forme de totalisation, de clôture du « réel » statistique sur lui-même, de réduction de la puissance au probable, d’’indistinction entre les plans d’’immanence (ou de consistance) et     d’’organisation (ou de transcendance).
    Les auteurs notent que dans cette forme de gouvernement « chaque sujet est lui-même une multitude, mais il est multiple sans altérité, fragmenté en quantité de profils qui tous, se rapportent à « lui- même», à ses propensions, ses désirs présumés, ses opportunités et ses risques. De plus
l’ attention du sujet est constamment sollicitée, il y a  une  « captation totale de l’attention ».

Remarques et questions : sujet de la  statistique, sujet de droit, sujet de l’inconscient.   

    Avec les analyses algorithmiques l’ancienne distinction entre statistiques descriptives et statistiques prédictive peut-elle encore être maintenue?  On pourrait dire qu’elles sont à la fois  prédictives et  descriptives, c’est-à-dire, dans les conditions actuelles de leur usage, terriblement prescriptives. Il est certain  par ailleurs que les algorithmes peuvent avoir d'excellents résultats en matière de prédiction et que ces méthodes de calcul sont très précieuses dans bien des domaines dans la mesure où elles soulagent l’ esprit d’opérations fastidieuses et d’une manière générale font très bien ce qu’il ne peut absolument pas faire. Peut-on s’ en plaindre? Les rejeter serait tomber dans des formes nouvelles d’obscurantisme; toute la question est donc de savoir quel usage on en fait.
     Mais ces « environnements intelligents» et autres dispositifs « auto-apprenants », au-delà de leur utilité et de leurs qualités, n’ont-ils pas une autre face, moins avouée? On sait en effet l’’importance des investissements que les « GAFA» consacrent au « machine learning ». Ce qui intéresse là-dedans ces giga  entreprises c’est qu’en somme une fois mis en route ça roule tout seul… Mais à quel prix? A quel prix à l’entrée bien sûr, mais également à la sortie! Les inexactitudes, erreurs et ratés ne sont pas seulement le fait des humains, ils existent aussi dans les systèmes automatisés, à la différence notable qu’’on ne demande pas aux machines de s’’expliquer, qu’’on ne les fait pas comparaître devant un tribunal, ce qui fait qu’’en la matière les responsabilités sont beaucoup plus difficile à cerner. En outre  il y a des erreurs de peu de conséquences et d’’autres qui ont des effets catastrophiques. Tout cela est  bien illustré par l’’épisode calamiteux qui a vu en pleine crise des subprimes, Alan Greenspan, Directeur de la  FED pendant  18 ans, dit « l’économiste des économistes » ou « il maestro », s’expliquer devant le Congrès américain, en déclarant que « personne ne comprend rien » aux algorithmes utilisés pas les robots « intelligents » qui ont dans la pratique remplacé les traders. Le prix payé ici c’est celui de l’intelligence, perdue, en tout cas pour le moins gaspillée.
    Sur la question de la  personnalisation  il y a évidemment tromperie sur la marchandise dans la mesure où  ce qui est présenté comme tel, est en fait une entreprise de contrôle des populations par les deux modalités de pouvoir (non indépendantes) que représentent, d’un coté le marketing économique (et politique), de l’autre la surveillance généralisée, étatique et privée. Tout ceci conduit à un effacement programmé, c'est le cas de le dire, des subjectivités, mais cet effacement se produit dans une logique propre au système, qui face à des sujets objecteurs ou récalcitrants ne les exclut pas mais prétend se les concilier par la force de prédictions qui fonctionnent à la manière des prophéties auto-réalisatrices. En fait, et cela va de pair avec cet OPA sur les  subjectivités, il se produit également un effacement du « réel », entendu avec Lacan comme « ce contre quoi on se cogne »  car ici "le seul réel qui « compte », pour la gouvernementalité algorithmique, est le réel numérique », disent les auteurs. Avec ce « réel » numérique , double statistique de chaque individu il est évident qu’on ne se cogne jamais… Il n’empêche que le retour sur terre risque d’être difficile!
    Le problème de la subjectivation ou plutôt de ce qu’on peut appeler une machine à désubjectiver est abordé par les auteurs, quoique pour eux il serait plutôt question « d’’une raréfaction des processus et occasions de subjectivation, d’’une difficulté à devenir des sujets, que d’’un phénomène de « désubjectivation » ou de mise en danger de l’’individu. Tout dépend de ce qu’on entend par « sujet » sans doute et peut-être cette formule apparemment  prudente  est due au fait que ce sont deux philosophes qui s’expriment; le sujet des philosophes n’est pas le sujet de l’inconscient.
    Autre problème soulevé, le statut  de l’’ hypothèse est inversé : les hypothèses, au lieu de  précéder la formulation des modèles et normes qu’on entend promouvoir sont « elles -mêmes « générées » à partir des données ».  Ainsi les « savoirs » produits  « ont comme principale caractéristique de paraître émerger directement de la masse des données, sans que l’’hypothèse menant à ces savoirs ne leur préexiste, ce qui nous semble dessiner une véritable rupture. Cela aurait pour les auteurs comme conséquence  « la disparition, au moins dans une partie de l’’espace social, de l’’idée du projet».

    L’extraction à partir de milliards d'individus de données qui sont les  traces de leurs comportements passés aboutit à créer une  plus-value d'un genre nouveau; ça se fait pourtant par le retour à quelque chose de connu qui est  le comportementalisme; celui-ci pour le coup prend des formes extrêmes car non seulement il nous prive de notre passé en le réduisant à une somme de comportements, mais également de notre avenir en prétendant prédire les modes de vie futurs de tout un chacun. Réduire quelqu’un à son passé en dehors de toute parole de sa part entrave sa liberté et par conséquent sa responsabilité .
    Les auteurs entendent essentiellement dans cet article décrire l’avènement d’’un discours installant une nouvelle normativité, «immanente », qui se présente comme surgissant de la vie elle-même, en miroir, ce qui en ferait une normativité  absolue, toute-puissante dans la mesure où on peut très difficilement la questionner. Il semble qu’on aie là une amorce de réponse au paradoxe pointé au début. De fait, quand la norme est nulle part, elle est partout! Par  l’opération du bien nommé « datamining », le processus génère sa propre normativité et on n’’est donc pas surpris d’’apprendre que ce système est « intelligent », ce qui apparaît dans « le caractère auto-apprenant de ces dispositifs ». Mais n’est-ce pas une forme d’intelligence imbécile dans la mesure où elle ne veut pas savoir où elle va? Au-delà de cette imbécillité il y a l’avènement d’une nouvelle forme de perversité.
    Car ce système et les discours qui l’accompagnent n’ont rien de l’image neutre et inoffensive qu’ils se donnent : « L’’inoffensivité, la « passivité » du gouvernement algorithmique n’’est qu’’apparente : le gouvernement algorithmique « crée » une réalité au moins autant qu’’il l’’enregistre. Il suscite des « besoins » ou désirs de consommation, mais de la sorte il dépolitise les critères d’’accès à certains lieux, biens ou services ; il dévalorise la politique (puisqu’’il n’’y aurait plus à décider, à trancher, dans des situations d’’incertitude dès lors que celles-ci sont d’’avance désamorcées) ; il dispense des institutions, du débat public ; il se substitue à la prévention (au profit de la seule préemption), etc ».
    Il faut également remarquer  et les auteurs le signalent au tout début de leur article, mais sans le souligner suffisamment, que tout cela serait impossible sans les « big data ». En effet ces immenses réservoirs de données, enjeu d’une concurrence féroce entre les grandes entreprises de la « révolution numérique » constituent les infrastructures de ces nouvelles formes de pouvoir, et n’ont rien de « virtuel »; il n’y a qu’à voir les immenses espaces qu’elles occupent et la quantité faramineuse d’électricité qu’elles consomment.  Or, sans  Big data, pas de  gouvernement algorithmique possible.
    Car la question qui reste  à se poser c'est celle de savoir qui contrôle la production et la distribution des algorithmes, qui a la main en quelque sorte. La question centrale est-elle celle des algorithmes? Ou celle des groupes qui stockent de plus en plus  de données et veulent nous entraîner dans une course aux données à tous égards dangereuse? Ici encore il faut dépasser les impasses du « pour et du contre » car s’il est évident que les algorithmes tels qu’’ils sont instrumentalisés sont un vrai poison pour les sociétés il est tout aussi évident qu’ils constituent aussi  le meilleur remède pour parer à cette utilisation débridée.
    Dans le contexte actuel de domination des politiques du tout-marché les algorithmes sont au service du marketing; dans ces conditions-là il est quasiment impossible  d’’en réguler le cours, mais si l’on veut, et le temps presse, en accélérer le bon usage, cela suppose tout d’abord d’’en inventer de nouvelles règles d’’utilisation. Il faut donc distinguer dans l 'analyse des algorithmes l'outil de calcul extrêmement puissant qu’’ils représentent et l'utilisation qui en est faite actuellement. Une toute autre utilisation pourrait en être faite si on s' en donnait la peine et si on veut éviter la catastrophe. Elle consisterait à les penser et à les produire pour les mettre au service du bien-être et du bien-vivre de tous en profitant de cette capacité qu'ont les algorithmes à optimiser toutes ce qui est d’ordre procédural. Faut-il continuer à laisser ces outils  aux mains des puissants c’est-à-dire  au service exclusif d'intérêts particuliers? On se doute que ce n’’est pas l’option que retiennent les auteurs quand ils  évoquent ’ en fin d’’article un dépassement possible du gouvernement algorithmique  par le « commun »; « le commun nécessite et présuppose de la non-coïncidence car c’est depuis celle-ci que des processus d’individuation se produisent ». Reste à définir ce « commun ».
   
    La place manque pour évoquer d’autres aspects de ce texte riche d’enseignements, notamment la question de  la « viralité » du système algorithmique : « plus on s’en sert, plus il s’affine et se perfectionne, puisque toute interaction entre le système et le monde se traduit par un enrichissement corrélatif de la « base statistique », et une amélioration des performances des algorithmes ». Autre point important: ce que les auteurs désignent comme l’objectif même de cette politique algorithmique, à savoir dégager et cibler « les systèmes de rapport » « les relations de relations » en toute « indifférence » à l’égard des individus. Enfin puisque les auteurs sont des philosophes du droit,  les conséquences  en matière de Droit, ( un Droit déjà bien fragilisé par plusieurs décennies d’économisme) peuvent se révéler dévastatrices au plan théorique autant que pratique. A nos lecteurs donc d’aller aux sources pour réfléchir à toutes les questions abordées par les auteurs…belges, encore une fois!