SALA et non-droit à la vie

Publié par abonneau le 15 Juillet, 2014 - 23:48
Version imprimable

PRÉSENTATION

Paolo VIGNOLA, dans l’Introduction à “Symptomatologie de ce qui nous arrive” – Studia Humaniora Collection Études et Recherches Volume VII août 2013– a perçu pour la philosophie toute l’urgence qui lui fait face, qui lui fait front, la reléguant à un rang subalterne et désuet de “culture passée, périmée devenue objet de consommation culturelle” :

Il écrit :

« Si elle ne veut pas se retrouver sans les conditions « matérielles » pour pouvoir exercer, la philosophie, aujourd’hui plus que jamais, doit surveiller en permanence d’un côté les processus de subjectivation qui se développent à l’intérieur de l’économie politique en vigueur et de l’autre l’influence qu’ont sur elle les technologies de l’information et de la communication en tant qu’instruments de propagation et de production des savoirs. Est en effet à considérer la potentialité de tels instruments, qui sont souvent de réels dispositifs de domination confrontés aux sujets individuels et collectifs ; l’ambivalence de la technologie et la fragilité des processus de subjectivation représentent, par conséquent, deux énormes problèmes de la contemporanéité qui doivent être diagnostiqués dans une pensée critique avant qu’il ne soit trop tard. »

Les conditions matérielles évoquées sont doubles, perversement intriquées :

Le psycho-pouvoir à l’œuvre, comme nous allons le voir, maîtrise désormais – serait-il donc trop tard ? - tant le contexte médiatique global que les outils, à la fois conceptuels et techniques : les savoirs intégrés dans les machines, produits par l’humain puis spoliés via les algorithmes, en sont au point de détruire tout métier, tout travail véritable en responsabilité et initiative voire tout savoir qui individue [1].

Il peut de la même manière agir simultanément sur le plan de la génération des subjectivations [2] et du contrôle pointilleux de leurs effets concrets, en temps réel, (économiques, financiers et de contrôle des échanges informatisés en réseaux de personnes [3]), tout en ayant développé discrètement en amont les moyens techniques militaro-sécuritaires pour identifier précisément les oppositions éventuelles et les éliminer.

 

Cette dernière question fait aujourd’hui l’objet de ce nouvel article – dont “l’effarement” vital est la cause – ce qui rejoint sur le fond le texte cité.

 

En page 10, Paolo Vignola faisait également état de la “précarité de l’existence” :

« Maintenant, on ne peut pas ne pas considérer que tout ceci, en étant lié à l'économie politique en vigueur, ait son côté particulier de malaise social, y compris dans le sens le plus matériel du terme. Tel malaise n'est pas un mystère, il peut être synthétisé dans l'expression, de plus en plus utilisée, de "précarité" des existences ou "nouvelle pauvreté." »

L’actualité “effarante” (je répète volontairement ce terme, “ce coup porté à l’humanité tout entière”, qui reprend la “schizophrénie organologique” à laquelle P. Vignola fait référence dans la présente revue[4]) amplifie, dans sa réalité soudain mise à jour, l’étendue du désastre qui s’annonce, bien au-delà de la notion de précarité matérielle, liée à la subsistance, aux statuts social et professionnel, familial, de la santé et de l’éducation :

Non, le psycho-pouvoir envisage désormais ouvertement à son sommet l’éventualité d’un eugénisme automatique, fin industrielle et autonome de l’opposition vivante à sa domination sans partage. Je m’explique :

 

POURQUOI CE SUJET MAINTENANT ?

Du 13 au 16 mai 2014, à Genève, s’est tenue au plus niveau la “Réunion informelle d’experts sur les Systèmes d’Armes Létaux Autonomes (SALA)”.

 

Si le développement intensif des drones, sur le plan militaire, a été intégré en décembre dernier, dans la loi de programmation de l’armée française, comme nous l’avons vu [5], et fait l’objet de concertations au niveau européen entre certains États, ce vaste champ technologique à visée stratégique n’est pas sans poser aussi des questions juridiques.

Or, un document très récent [6], intitulé paradoxalement “Disarmament”, précise le calendrier des rencontres dans le cadre de la “Convention on Certain Conventional Weapons” CCW.

Certes, le discours introductif du Sous-Secrétaire Général des Nations Unies Mr Michael Møller est positif dans son intentionnalité objective :

« This Meeting of Experts is only a first step towards addressing lethal autonomous weapons. In doing so, I urge delegates to take bold action. All too often international law only responds to atrocities and suffering once it has happened. You have the opportunity to take pre-emptive action and ensure that the ultimate decision to end life remains firmly under human control.

In this regard, Protocol IV to the CCW prohibited the use of blinding laser weapons before they were ever deployed on the battlefield. Clearly, Protocol IV serves as an example to be followed again.

Geneva has a historical record that is second to none for achieving results in disarmament and international humanitarian law negotiations. Testimony to this are the Geneva Conventions and their Additional Protocols, the Biological and Chemical Weapons Conventions, the CCW and its Protocols, to name but a few examples. Geneva remains the home of disarmament and international humanitarian law and I look forward to CCW States Parties adding to this proud tradition. » [7]

 

M. Jean-Hugues Simon-Michel, Ambassadeur et Représentant Permanent de la France, vient de présider à Genève cette Réunion informelle d’experts nommée “Convention sur Certaines Armes Classiques” dont le titre, apparemment vague ou peu déterminé, marque une réalité bien concrète et révolutionnaire (mais au sens de l’inverse mathématique : top down) : il s’agissait dans le cadre du “mandat de discussion” reçu [du Président de la République, Chef des Forces Armées] de préciser les “Aspects techniques des SALA ”, soit des armes à décision logicielle totalement autonome ayant pouvoir de mort.

Réunion d’importance à laquelle étaient conviés les représentants de 87 gouvernements, parmi les 117 États Parties qui ont adhéré à la Convention sur les armes classiques “, 400 experts de toutes nationalités, afin de préciser les “concepts pertinents pour la suite de la discussion” relatifs aux “questions relatives aux technologies émergentes dans le domaine des systèmes d’armes létaux autonomes, dans le contexte des buts et objectifs de la Convention. ” 

 

Il est à noter parallèlement le même propos d’intentionnalité positive dans le communiqué du porte-parole du Ministère des Affaires Étrangères Français :

L’objectif de cette réunion est d’appréhender les enjeux éthiques, juridiques et opérationnels soulevés par le développement de nouvelles technologies dans le domaine de l’armement.

La capacité du droit international existant à encadrer l’utilisation éventuelle de ces systèmes d’armes, qui ne sont pas encore opérationnels, est au cœur de ces enjeux.[8]

 

M. Simon-Michel a proposé trois points “essentiels parmi plusieurs” :

1. La prise en compte de technologies qui, par définition, n’existent pas encore ou sont en cours de développement ; ceci excluant – du point de vue de [sa] délégation, les systèmes existants.

2. La mention du caractère létal de ces armes, impliquant d’écarter certains types d’armes, utilisables dans des contextes particuliers.

3. La question centrale de l’autonomie pleine, laquelle implique à ce stade :

- L’absence de supervision humaine

- Un caractère non-prévisible des actions

- Une capacité d’adaptation à un environnement évolutif.

4.  L’exclusion [concerne] les systèmes d’armes automatisés ou téléopérés. Les systèmes d’armes extrêmement complexes impliquent le recours à l’intelligence artificielle et aux capacités d’auto-apprentissage.

 

Il est à noter en premier lieu que le texte diffusé sur internet [9] sous le logo “République Française – Liberté – Égalité - Fraternité” est assorti de la mention “Version originale : Français ; Seul le prononcé fait foi” : faute d’avoir assisté (ou pu assister) à cette réunion, nous en resterons donc à l’analyse de cette présentation officielle pour le moins révolutionnaire, je le répète.

 

Le contexte international

L’information y est ambiguë : « Les technologies n’existent pas encore tout en étant en cours de développement » : cela signifie que les efforts de recherche, fortement financés (donc par des États Parties) sont en cours d’aboutissement, même si des problématiques ne sont pas encore résolues.

Cela signifie aussi que, faute que chaque État accède à la maîtrise de ces armes concomitamment, des craintes de perte de suprématie se manifestent, qui font le jeu des protocoles diplomatiques, afin de contourner des déséquilibres géostratégiques possibles, en amont des risques, afin d’assurer la pérennité des alliances.

Cela peut aussi signifier en creux que des coopérations technologiques sont nécessaires, encadrées ouvertement par des réflexions “éthiques, juridiques et opérationnelles” car le droit international existant ne saurait encadrer en l’état l’intrusion démoniaque de ces “ROBOTS TUEURS” [10].

 

Car le développement de l’intelligence artificielle est bien l’espoir des gouvernements, sur le plan économique également, qui doit passer par un retour sur investissement [11], précisément dans une période de crise, et à une époque où même la concurrence entre alliés fait rage, [12] ce qui n’exclut pas la coopération des puissants, au-delà des populations. [13]

D’ailleurs, qui s’intéresse aux drones ou aux robots tueurs ? peu en ont entendu parler, sinon dans les jeux vidéo ; et les drones ne sont présentés au grand public que comme appareils photo ailés, tant à la télévision que par le marketing. Le Pakistan ou l’Afghanistan, cela ne passionne pas et les ONG centrées sur la défense des Droits Humains voient le nombre de leurs adhérents chuter régulièrement. [14]

 

L’intelligence artificielle

c’est le futur graal des États les plus puissants, l’espoir d’une nouvelle ère industrielle, d’un rebond de croissance. Les recherches ont commencé il y a plus de dix ans [15] avec les tentatives de modélisation du système psychique. La guerre mondiale du cerveau – et sa riposte américaine – datent de 2013 [16]

Mais elle l’est plus encore pour les multinationales, telles Google, qui a racheté en six mois (2013) huit start-up spécialisées dans la robotique (humanoïdes, dockers mécaniques, caméras robotisées, etc.) [17] la dernière en date étant Boston Robotics, spécialisée dans la robotique à usage militaire. [18]

L’absence de supervision humaine fait l’objet de recherches assidues et l’on pouvait déjà citer en mars 2004 l’ouvrage d’Alain Cardon “Modéliser et concevoir une machine pensante, Approche de la conscience artificielle” Éditions Vuibert - Collection Automates Intelligents dirigée par Jean-Paul Baquiast et Christophe Jacquemin.

Ces Directeurs de publication-ci sont membres du bureau de l'Association Française pour l'Intelligence Artificielle (AFIA) [19] et ont créé le site “automates intelligents” en octobre 2000, bien conscients, formés [20] et informés des choix en cours dans la recherche fondamentale et des tendances lourdes constituantes de la société en bouleversements : [21]

 

D'emblée, il faut noter que si rien n'est fait, ces changements prodigieux ne seront compréhensibles et le cas échéant maîtrisables, que par une très petite minorité d'hommes, issus des couches socialement et intellectuellement favorisées du monde occidental, et plus particulièrement des États-Unis. De plus, tout se fera et se communiquera en anglais.

L'Europe pourra dans certains cas mais non dans tous, essayer de tenir la distance.

Tous les autres hommes, comme l'ensemble des organismes vivants, seront affectés par ces changements, mais ils les subiront passivement, pour le meilleur dans certains cas, en ce qui les concernera, mais sans doute le plus souvent pour le pire.

Ceci dit, des politiques de rééquilibrage et de meilleur partage de l'accès aux connaissances et aux pouvoirs seront possibles. Encore faudra-t-il que s'établissent en ce sens des rapports de force plus favorables, dont l'on ne voit pas les prémisses aujourd'hui [22], malgré les déclarations d'intention des hommes politiques. (…)

Dans quels domaines se produiront les ouvertures que nous évoquons ? (…)

Ce seront ceux concernant la vie et l'intelligence artificielle, le génie génétique et le décryptage du fonctionnement du cerveau.

Un point essentiel à souligner est que, contrairement à la spécialisation encore trop répandue entre chercheurs, ces trois domaines de recherche ne prendront tout leur poids que si les personnes s'en occupant apprennent à coopérer, sur le modèle proposé par Gérald Edelman* en ce qui concerne la conscience.

En simplifiant, il faudra cultiver systématiquement la redondance et la               ré-entrance, en acceptant la sélection permanente des solutions les plus aptes à la survie compétitive. 

La redondance veut dire que des techniques différentes (électroniques, génétiques, neurologiques) pourront et devront converger vers les mêmes buts ou fonctions, en acceptant des modes éventuellement dégradés de fonctionnement.

La ré-entrance, plus complexe à définir, veut dire que toute modification apparue dans un domaine ou dans la subdivision d'un domaine devra immédiatement être transmise et introduite dans chacun des autres domaines, et que réciproquement les réactions à cette transmission ou introduction devront être retournées ou ré-adressées, sans délais, vers tous les autres domaines, y compris vers l'émetteur initial de la modification.

Le modèle de la société résultant de cette évolution, modèle qu'il faudra absolument privilégier, sera celui de la complexité et de la réactivité à la milliseconde. (…) En fait, ce sera une société de processus, s'incarnant et se développant dans et par les activités ou actions de ses divers acteurs, et donc en partie subjective et privative à chacun de ces acteurs.

Le 23/01/2011, ils signaient un papier intitulé : “Introduction à la lecture de l'ouvrage d'Alain Cardon «Un modèle constructible de système psychique»” [23] dont le sous-titre est :   “Les «processus coactivés» et la nouvelle maîtrise du monde

où l’on peut lire un texte étonnant et dont l’architecture de pensée aurait pu être signée par Bernard Stiegler :

« La planète semble être entrée depuis quelques siècles dans une nouvelle ère (aire) géologique marquée par l'empreinte omniprésente des humains sur les phénomènes naturels. Ce serait l'anthropocène. Pour notre part, nous avons suggéré qu'il valait mieux employer ici le terme d'anthropotechnocène, tout au moins pour désigner l'évolution de la Terre depuis quelques décennies.
Par ce terme, nous postulons que cette évolution est de plus en plus déterminée par un développement exponentiel des technologies associées aux humains dans ce que nous avons nommé les "systèmes anthropotechniques".
Nous proposons ici d'apprécier la pertinence de cette hypothèse en introduisant le concept de «processus coactivés». Il illustre la prise de pouvoir de plus en plus marquée des technologies en réseau sur l'humain.
 »

 

Utiliser l’intelligence artificielle

La suite du discours nous ramène, par un raisonnement construit et précis vers le sujet d’aujourd’hui :

« Quelles sont les forces qui s'impliquent dans la généralisation des systèmes-méta que nous avons décrits ?
On trouve en premier lieu celles visant sous couvert de défense et de sécurité, à une militarisation de plus en plus complète de l'espace social. Le but de cette militarisation est de conserver aux détenteurs de la richesse et de la puissance, par la force, les avantages qu'ils se sont donnés.

Il s'agit d'une toute petite minorité en nombre, qui se trouvera de plus en plus confrontée à des milliards de défavorisés de toutes sortes et de toutes origines. Ces derniers ne demeureront évidemment pas passifs et feront tout ce qu'ils pourront pour échapper, avec les armes dont ils disposeront, à la domination. Et pour cette petite minorité, il convient donc préventivement de tenir sous contrôle le reste des populations. Il est significatif de voir que pratiquement toutes les recherches en matière de systèmes intelligents pour la défense et la sécurité sont financées par des budgets militaires. Au premier rang de ceux-ci se trouve le budget de la défense américain, lequel est à lui seul dix fois plus important que ceux cumulés des autres États.

Les mêmes minorités de la richesse et de la puissance tirent leurs pouvoirs de la prédation qu'elles exercent sur les activités productives des milliards de travailleurs qui en contrepartie de leur travail au sein de l'économie réelle gagnent à peine de quoi survivre. Nous avons vu que cette prédation s'exerce presque exclusivement aujourd'hui par le biais de la finance internationale en réseau.

Les grands acteurs au sein de cet univers virtuel, banques, fonds spéculatifs, corporate powers, ont réussi à persuader les travailleurs de la base qu'ils devaient leur abandonner les valeurs ajoutées de leur travail. Périodiquement, des crises artificielles viennent spolier les épargnants de leurs économies afin d'en faire bénéficier les «investisseurs». Pour que ceci soit accepté, il fallait évidemment que les humains à la source de ces techniques de prédation, [24] formes renouvelées de l'esclavage ancien, puissent ne pas être accusés d'en être les organisateurs. La meilleure solution consistait à laisser agir des systèmes-méta anonymes*, bien plus imaginatifs d'ailleurs que les humains eux-mêmes pour capter les ressources des travailleurs de la base.

Il se trouve cependant que les processus coactivés que nous avons décrits ne cessent de s'étendre au sein des sociétés, en se coactivant sur des échelles de plus en plus larges. Les humains qui étaient à l'origine de leur mise en place risquent de se trouver désormais dépassés par leurs créatures, lesquelles exerceront le pouvoir à leur place. »

Nous avons un exemple de systèmes-méta anonymes par l’exemple de la R & D de Google [25] [26], en lien avec le Petit Larousse[27], faute encore que la novlangue soit validée par l’Académie, jusqu’ici institution publique détentrice de la langue, et qui a pourtant intégré avec une réactivité étonnante le mot drone, dans son usage militaire et civil. [28]

Je fais aussi ici allusion à l’article de Filippo Domenicali:

« In breve, questo significa che l’istituzione di un regime di verità, in apparenza neutrale, obiettivo, scientificamente fondato, fa sì che i soggetti si riconoscano in questa verità, assumendo su di sé (cioè interiorizzando) una verità che permette loro di orientarsi nella pratica. I soggetti assoggettati danno forma alle proprie credenze sulla base di un discorso che ritengono vero, plasmando la propria soggettività sulla base di un principio di realtà socialmente convalidato. La verità obbliga. »[29]

 

RÉUNION « AU SOMMET »

Reprenons cette inquiétude des “humains en passe d’être dépassés par leurs créatures” en cours de concrétisation en lisant quelques extraits du rapport final de la “Réunion informelle d’experts sur les systèmes d’armes létaux autonomes[30] :

« 11.   Serving as Friends of the Chair were Mr. Michael Biontino, Ambassador of

Germany on technical issues; Mr. Pedro Motta Pinto Coelho, Ambassador of Brazil on ethical and sociological issues; Ms. Aya Thiam Diallo, Ambassador of Mali, on international humanitarian law; and Ms. Yvette Stevens, Ambassador of Sierra Leone, on other areas of international law. The Chairperson presided over the discussions on operational and military aspects. » (in page 2). [31]

Les sociétés, toutes les sociétés, sont concernées à de multiples niveaux.

Et le temps « est venu » d’en débattre, pour ces dirigeants mondiaux.

« 14. Given the potential for rapid technological developments in autonomous weapons to radically transform the nature of warfare, which was raised by a number of delegations, the timely convening of the meeting and the multidisciplinary approach allowed by the CCW was welcomed. »

 

Fuite en avant et Peur de l’apocalypse

Mais les peuples concernés risquent bien de se faire voler leur parole et leurs réponses « légales » ultérieures par leurs dirigeants bien intentionnés :

« 15. Delegations welcomed the contribution of civil society to the work of the meeting and, more generally, their role in awareness-raising on the issue of LAWS. »

Car c’est bien le double rôle, la problématique éthique et morale, signifié par l’expression internationale “être juge et partie” – “essere giudice e parte” “you can’t both judge and be judged”, qui est à dénoncer ici de la part des acteurs politiques.

Derrière les déclarations positives citées plus haut, comment parviendront-ils à faire le grand écart entre leurs intérêts de prévention, de précaution, de géostratégie lors de cette guerre économique qu’ils se mènent les uns les autres ? Quels règlements contraignants oseront-ils inventer pour qu’un tel accord ne reste pas un rideau de fumée aisément transgressible ?

« Durant la réunion, de nombreux gouvernements ont exprimé leur soutien à l’égard de la nécessité de garantir un contrôle humain significatif dans le cadre de toute décision liée à la détermination de cibles et aux attaques en temps de guerre, a indiqué Human Rights Watch. »

Mais…

« Lors de leur prochaine réunion annuelle, le 14 novembre, les 117 États qui ont adhéré à la Convention sur les armes classiques devront décider s’ils poursuivent le processus.» [32]

 

D’ailleurs, le paragraphe 18 du rapport final pose clairement le dilemme ingérable par nombre d’entre eux de leur développement :

« 18. A number of delegations stressed the necessity of recognizing the significance of the peaceful uses of autonomous technologies in the civilian field, and the importance to not undermine the current technological development efforts in this area. »

Si comme dans le texte ci-dessus, les politiques se préoccupaient réellement des décisions à prendre relatives à la protection a priori de la vie humaine, on pourrait peut-être lire une publication voisine de celle-ci, actualisée aux problématiques du XXI° siècle de la Documentation Française :[33]

 

 

Faire des choix ?  Les fonctionnaires dans l'Europe des dictatures : 1933-1948

Conseil d'État

Voici les actes du colloque organisé conjointement par le Conseil d'État et l'École des hautes études en sciences sociales en février 2013. Autour de quatre thématiques :

Prise du pouvoir et mise au pas ; le droit, outil de légitimation ou garde-fou ?

Pratiques professionnelles et marges de manœuvre ;

Personnes, institutions et réseaux. 

Sont ici posées, pour la première fois de manière comparative, des questions telles que : comment les institutions pensent-elles, agissent-elles, protègent-elles, répriment-elles ? Que faut-il, à l'inverse, à un fonctionnaire pour faire le saut le conduisant ―lors de circonstances exceptionnelles ―à agir à côté de l'institution, sans elle, contre elle ?

2014, La Documentation française   ―Collection : " Histoire et Mémoire " n° 3  328 pages, 19 €

ISBN : 978-2-11-009547-3  Réf. : 9782110095473

 

En 2009 a été fondé l'ICRAC (International Committee for robot arms control) qui se donne pour mission de lutter contre le danger que représentent les robots militaires pour la paix et la sécurité internationale des civils en temps de guerre.

Human Rights Watch, membre fondateur (en avril 2013) et coordinateur de la “Campagne pour interdire les robots tueurs”, coalition internationale de 51 organisations non gouvernementales, a été soutenu le 12 mai 2014, par l’Appel de 20 lauréats du prix Nobel à une interdiction préventive de l’élaboration, de la production et de l’utilisation des armes entièrement autonomes. [34]

 

Nous ne sommes donc pas les seuls inquiets de cette nouvelle épée de Damoclès que l’industrie réclame indirectement.

Même le Saint-Siège, représenté par Mgr Tomasi, a rappelé sa mise en garde contre les drones de combat dans ce nouveau contexte d’autonomie technologique possible :

« Les machines « ne peuvent pas remplacer l’homme dans les décisions de vie et de mort » et a exprimé les « profondes préoccupations » du Saint-Siège sur « l’utilisation de drones qui peuvent aller au-delà des capacités de surveillance ou de renseignement en visant effectivement des cibles humaines » durant la guerre.

« Alors que dans de nombreux domaines, la technologie autonome peut s’avérer bénéfique pour l’humanité, la question de l’autonomie des armes est tout à fait distincte » : elle met une machine « en position de décider de la vie et de la mort », a-t-il souligné.

« L’intervention humaine significative est absolument essentielle dans les décisions affectant la vie et la mort d’êtres humains », a-t-il affirmé : en effet, « les systèmes d’armes autonomes ne pourront jamais remplacer la capacité humaine de raisonnement moral ». [35]

Il semble que le Vatican ait même cherché à anticiper les modifications possibles du droit international en affichant ce cadrage législatif, au-delà de ce que les “roboéthiciens” tels Arkin souhaitent faire accepter :

« Les machines, même « bien programmées avec des algorithmes sophistiqués pour prendre des décisions sur le champ de bataille dans le respect du Droit international humanitaire (D.I.H.), ne peuvent pas remplacer l’homme dans les décisions de vie et de mort ».

Cette technologie « rend la guerre trop facile » en éliminant sa dépendance aux soldats.

Elle crée aussi « un vide de responsabilité face aux violations du droit international »   a-t-il mis en garde Mgr Tomasi.

 

La préoccupation de l’Église chrétienne est grave - cri de détresse allégorique, peur apocalyptique -« Le spectre de la prolifération des drones », poussée dans l’urgence décrite comme une accélération atterrante :

 

Pour le Saint-Siège, « il est impératif d'agir avant que la technologie des systèmes d'armes autonomes ne progresse et ne prolifère » :

 « Les êtres humains ne doivent pas être mis hors de la boucle sur les décisions concernant la vie et la mort d'autres êtres humains. »

 

Rappelons-nous aussi 1793 : quand la guillotine a commencé à fonctionner, la force a manqué pour l’arrêter.

Mais y échapperons-nous, Terriens de tout bord, alors que la science évolue vers des concepts toujours plus généraux et systémiques ?

 

HRW s’est engagé – les propos sont vitaux ici aussi - dans un combat contre   l’ « ébranlement [final] des fondements »

« Shaking the Foundations: The Human Rights Implications of Killer Robots »,  rapport de 26 pages :

« évalue en détail les risques présentés par ces armes au cours des opérations d'application de la loi, en élargissant le débat au-delà du champ de bataille.

Human Rights Watcha constaté que les armes entièrement autonomes menaceraient des droits et des principes au regard du droit international aussi fondamentaux que le droit à la vie, le droit à un recours et le principe de la dignité.»[36]

 

De son côté l’ICRAC a une analyse aussi effarée :

« ICRAC stresses that autonomous weapon systems pose pressing dangers to global peace and security. If not prohibited, they will likely proliferate rapidly, trigger arms races, lower the threshold to war, interact in ways no one is prepared for, and undermine the right to life.»

en français :

« des systèmes d'armes autonomes présentent des dangers urgents pour la paix et la sécurité mondiales. Sans prohibition, ils proliféreront probablement très vite, déclencheront des courses aux armements, abaisseront le seuil de potentialité de la guerre, interagiront d’une façon à laquelle personne n'est préparé et porteront atteinte au droit à la vie. »

 

en italien :

« Sistemi d'arma autonomi presentano dei pericoli urgenti per la pace e la sicurezza mondiale. Senza divieto, probabilmente proliferanno molto rapidamente, scateneranno delle corse agli armamenti, abbasseranno la soglia del potenziale bellico, interagiranno in un modo che nessuno è preparato e recheranno pregiudizio al diritto alla vita. »

 

SCIENCE, TECHNOLOGIE & ÉTHIQUE

Mathématiques

Il est des scientifiques de premier plan qui marquent de façon claire et irrévocable leur capacité à lier des domaines vastes et apparemment incompatibles.

Dans le domaine de la géométrie algébrique, un “génie, fantasque, dont l’intuition et le travail personnel se trouvent pour lui à l’origine de tout[37] a révolutionné les conceptions académiques.

Après une enfance des plus éprouvantes (il est interné avec sa mère et son père au camp de Rieucros, en Lozère, puis son père décèdera à Auschwitz). A 30 ans, en 1958, il intègre pourtant l’Institut des Hautes Études Scientifiques où il rejoint le séminaire d’Henri Cartan puis est rapidement confié à Laurent Schwartz et Jean Dieudonné, car il apostrophait le professeur comme s’il était son égal. En 1949, réprimandé par Dieudonné parce qu’il refaisait les calculs de Lebesque, il est invité à réfléchir aux questions laissées sans réponse par le tandem Schwartz-Dieudonné.

Dans ses mémoires, Laurent Schwartz évoque « quatorze problèmes que nous n’avions pas su résoudre. Dieudonné lui proposa de réfléchir à certains d’entre eux qu’il choisirait. Nous ne le revîmes plus de quelques semaines. Lorsqu’il réapparut, il avait trouvé la solution de la moitié d’entre eux. »

Jean Dieudonné complète : « En moins d’un an, il avait résolu tous nos problèmes. »

En 1953, il est temps de lui attribuer le titre de docteur.puis il obtient la médaille Fields en 1966.

Dans un texte inédit de 1980, Alexandre Grothendieck écrit ses mémoires : “Récoltes-Semailles[38] où l’on peut lire par exemple, (pages 38-39/929) :

« La plupart des mathématiciens, je l’ai dit tantôt, sont portés à se cantonner dans un cadre conceptuel, dans un "Univers" fixé une bonne fois pour toutes - celui, essentiellement, qu’ils ont trouvé "tout fait" au moment où ils ont fait leurs études. Ils sont comme les héritiers d’une grande et belle maison toute installée, avec ses salles de séjour et ses cuisines et ses ateliers, et sa batterie de cuisine et un outillage à tout venant, avec lequel il y a, ma foi, de quoi cuisiner et bricoler.

Comment cette maison s’est construite progressivement, au cours des générations, et comment et pourquoi ont été conçus et façonnés tels outils (et pas d’autres. . . ), pourquoi les pièces sont agencées et aménagées de telle façon ici, et de telle autre là - voilà autant de questions que ces héritiers ne songeraient pas à se demander jamais. C’est ça "l’ Univers", le "donné" dans lequel il faut vivre, un point c’est tout ! Quelque chose qui paraît grand (et on est loin, le plus souvent, d’avoir fait le tour de toutes ses pièces), mais familier en même temps, et surtout : immuable.

(…) Le petit tableau que je viens de brosser n’est pas spécial au monde des mathématiciens. Il illustre des conditionnements invétérés et immémoriaux, qu’on rencontre dans tous les milieux et dans toutes les sphères de l’activité humaine, et ceci (pour autant que je sache) dans toutes les sociétés et à toutes les époques. J’ai eu occasion déjà d’y faire allusion, et je ne prétends nullement en être exempt moi-même.

 Comme le montrera mon témoignage, c’est le contraire qui est vrai. Il se trouve seulement qu’au niveau relativement limité d’une activité créatrice intellectuelle, j’ai été assez peu touché8 par ce conditionnement-là, qu’on pourrait appeler la "cécité culturelle" - l’incapacité de voir (et de se mouvoir) en dehors de l’ "Univers" fixé par la culture environnante.

Je me sens faire partie, quant à moi, de la lignée des mathématiciens dont la vocation spontanée et la joie est de construire sans cesse des maisons nouvelles. Chemin faisant, ils ne peuvent s’empêcher d’inventer aussi et de façonner au fur et à mesure tous les outils, ustensiles, meubles et instruments requis, tant pour construire la maison depuis les fondations jusqu’au faîte, que pour pourvoir en abondance les futures cuisines et les futurs ateliers, et installer la maison pour y vivre et y être à l’aise.

Pourtant, une fois tout posé jusqu’au dernier chêneau et au dernier tabouret, c’est rare que l’ouvrier s’attarde longuement dans ces lieux, …»

 

Cet homme regarde ailleurs, et non seulement dans des disciplines mathématiques différentes : L’année 1966, précisément, protestant contre l’internement de deux écrivains russes, il refuse de se rendre à Moscou pour recevoir son prix, et renouvellera son refus en 1988, lorsque le prix Crafoord, doté de 1,4 millions de Francs lui sera attribué.

Ses apports fondamentaux, le concept de K-théorie, les théories cohomologiques, puis celle des motifs (le “cœur du cœur”, pour les géomètresalgébristes, d’une représentation de l’Univers, inspirant la démonstration du théorème de Fermat ou le programme de Langlands), ne l’empêchent pas, alors qu’il est reconnu internationalement (il a une correspondance avec Jean-Pierre Serre médaille Fields en 1954 et professeur au Collège de France puis obtient un poste au CNRS), de quitter brusquement l’IHES, en 1968, lequel vient d’accepter qu’une part infime de son budget provienne du ministère de la Défense.

En 2010, à 82 ans, après avoir rédigé près de 20 000 pages de notes, il refuse d’être publié après sa mort. Ses productions sont conservées par des amis qui ont pour mot d’ordre de ne pas les divulguer.

 

Qu’a-t-il découvert qu’il refuse de communiquer ?

Nous avons peut-être un indice en remarquant que nombreux sont les chercheurs qui se sont appuyé sur son travail fondamental pour dégager des solutions à des impasses de longue date. Car il a l’idée de s’intéresser non pas à un objet absolu en lui-même, une variété algébrique (espace défini par des équations polynomiales) mais à ses variations, idée puissante qui sera appelée “relativité”.

Assaf Naor[39] a en effet transféré en informatique théorique les résultats du théorème de Grothendieck : « Cela aboutit à cette situation extraordinaire que la constante de Grothendieck découverte dans la géométrie des espaces de Banach, devient une constante critique sur un problème de calculabilité en informatique théorique. »

Or il avait pourtant écrit dans “Récoltes-Semailles”, page 185 :

« Toute personne qui trouve un résultat digne d’intérêt doit avoir le droit et la possibilité de le publier, à seule condition que ce résultat ne soit déjà l’objet d’une publication. »

 

Faute d’avoir accès à ces recherches, le mystère restera entier ici encore quelques années.

 

 

 

Mais l’on assiste parallèlement aujourd’hui aux mêmes méta-développements de la recherche, dans d’autres domaines :

Informatique réticulaire       

La R & D de Google, déjà citée plus haut pour ses systèmes-méta anonymes, traque le moindre de vos déplacements par satellite et peut instantanément vous rappeler où vous étiez il y a trois mois, à 13h13 [40].

L’entreprise, alliée pour l’occasion à FaceBook, menace sévèrement une proposition de loi introduite par le Sénat Californien désireux d’assurer la protection de la vie privée de ses citoyens. [41]

    • et les débuts de l’informatique quantique (à ce propos, remarquons encore que cette même société californienne s’est également positionnée en amont sur cette autre discipline émergente[42])

 

Sciences cognitives

Des théories descriptives et explicatives généralisantes, sont en fort développement tant en Europe qu’aux États-Unis, autour du cerveau, comme nous l’avons vu.

 

Physique

La physique dans son ensemble procède également d'une démarche unificatrice, cherchant à développer des théories susceptibles d'offrir la description d'un nombre croissant de phénomènes physiques. La “Relativité Générale” d’Albert Einstein en était un des premiers exemples.

Le nom de “théorie du tout” désigne une théorie physique susceptible de décrire de manière cohérente et unifiée l'ensemble des interactions fondamentales. Une telle théorie n'a pas été découverte à l'heure actuelle, principalement en raison de l'impossibilité de trouver une description de la gravitation qui soit compatible avec la mécanique quantique, qui est le cadre théorique utilisé pour la description des trois autres interactions connues (électromagnétisme, interaction faible et l'interaction forte).

L'unification théorique des quatre forces fondamentales régissant la physique dans son ensemble porte aussi le nom de “superforce”.[43]

 

 

 

 

 

 LE point de vue des experts au sommet de GENÈVE de mai 2014

L’affaire de l’Autonomie Éthique des Systèmes sans pilote[44]

 

texte deRonald C. Arkin

Institutional Affiliation : Georgia Institute of Technology

 

Curriculum vitæ

• Ronald C. Arkin est Professeur des Régents d’Informatique et Directeur du Laboratoire de Robot Mobile à l’Université de Technologie de Géorgie (Atlanta, GA).

• Il occupe aussi le poste de Doyen Associé pour la Recherche et la Planification des Projets Spatiaux au College of Computingà Georgia Tech depuis octobre 2008.

• Pendant les années 1997-1998, le professeur Arkin a été professeur associé de l’atelier STINT [45]au Centre pour les Systèmes Autonomes à l’Institut Royal de Technologie (KTH) de Stockholm, en Suède.

• De septembre à juin 2005, le professeur Arkin a dirigé la Chaire Sabbatique au Laboratoire des Dynamiques d’Intelligence de Sony à Tokyo au Japon.

• Il a pris part ensuite au Groupe d’Intelligence Artificielle et de Robotique en tant que membre au LAAS/CNRS de Toulouse, France, d’octobre 2005 à août 2006.

 

Ses axes de recherche incluent le contrôle réactif basé sur le comportement, et la perception fondée sur l’action, pour des robots mobiles et des véhicules aériens sans pilote, des architectures logicielles délibératives/réactives hybrides, la capacité de survie robotique, les systèmes robotisés multi-agents, la biorobotique, l'interaction entre humain et robot, l'éthique des robots et l’apprentissage dans les systèmes autonomes. Il a publié plus de 170 études techniques dans ces disciplines.

Le professeur Arkin a écrit un manuel intitulé « Robotique Basée sur le Comportement », publié par le MIT Press en mai 1998, a coédité (avec G. Bekey) un livre nommé « Colonies de Robots », publié en 1997, ainsi qu’un livre publié au printemps 2009 intitulé «Conduite de la Décision Létale chez les Robots Autonomes» publié par Chapman-Hall (Taylor & Francis).

 

L'article suivant est tiré principalement de ce dernier travail.

 

 

Résumé

La thèse sous-jacente de recherche en autonomie éthique pour des “systèmes autonomes létaux sans pilote” est qu'ils seront potentiellement capables d'exécution sur le champ de bataille plus éthiquement que ne le sont des soldats humains. Dans cet article, cette hypothèse est soutenue par des avancées technologiques en cours et prévues et peut-être - argument d’égale importance - selon une évaluation de la capacité fondamentale des combattants de guerre humains dans l'espace de bataille d'aujourd'hui.

Si cet objectif de « performance meilleure qu’humaine » est réalisé, même s’il restera toujours imparfait, il peut aboutir à une réduction de pertes humaines non-combattantes et des dommages matériels, en cohérence avec le respect des Lois de la Guerre telles qu’elles sont prescrites dans des traités internationaux et des conventions ; ce but vaut ainsi la peine d’être vigoureusement poursuivi.

Mots-clés : robotique, systèmes sans pilote, autonomie, systèmes autonomes mortels, éthique, les lois de guerre.

 

Introduction

La tendance est claire : la guerre continuera et des robots autonomes seront en fin de compte déployés pour sa conduite. Se référant à la technologie du moment qui s’améliorait et à son impact sur l'inévitabilité de guerre, Clausewitz avait affirmé que « la tendance de détruire l'adversaire, qui est au fondement de la conception de Guerre n'est en aucune façon changée ou modifiée par le progrès de civilisation » (Clausewitz 1832).

Plus récemment, Cook a observé que « le fait que les contraintes d’une guerre juste sont par habitude ignorées n'est pas plus une preuve de leur fausseté et de leur pertinence que l'existence d’un comportement immoral ne réfute les standards de la moralité : nous connaissons les normes et nous savons aussi que les êtres humains échouent à les respecter avec une régularité désespérante.» (Cook 2004).

De ce fait, des questions émergent relatives à l’éventualité et au “comment” ces systèmes peuvent se conformer aussi bien voire mieux que nos soldats au respect des Lois de la guerre en vigueur. En cas de réussite, il en résulterait une réduction des dommages collatéraux, c’est-à-dire des pertes humaines non-combattantes et des biens civils.

 

Le corpus de la recherche conduite dans notre laboratoire (Arkin 2009, Arkin et Ulam 2009, Arkin et ass. 2009) se concentre directement sur cette question à partir de la perspective conceptrice. Comme les robots sont déjà plus rapides, plus forts et dans certains cas (par exemple, au jeu d'échecs) plus intelligents que des humains, est-ce difficile de croire qu'ils pourront nous traiter plus avec humanité sur le champ de bataille que chacun de nous ne le fait ?

Ceci n'est aucune tâche simple, cependant. Dans le brouillard de la guerre, c'est assez dur pour un homme pour pouvoir efficacement distinguer si une cible est légitime ou non. Heureusement, et pour une variété de raisons, on peut prévoir, malgré l'état de l'art actuel, que des robots autonomes futurs pourront avoir de meilleurs résultats que des humains dans ces conditions, pour les raisons suivantes :

 

1- La capacité d'agir d'une manière conservatrice : c'est-à-dire, ils n’ont pas besoin de se protéger eux-mêmes dans les cas de faible certitude d'identification de la cible. Des véhicules robotisés armés autonomes ne doivent pas considérer leur auto-conservation comme la conduite principale, voire pas du tout. Ils peuvent être utilisés si nécessaire par un commandant avec l’abnégation appropriée et sans réserve. Il n'y a aucune nécessité d'un tir avec sommation, avant de poser des questions.

2- Le développement final et l'utilisation d'une large gamme de capteurs robotisés mieux équipés pour des observations de champ de bataille que des humains n’en possèdent actuellement. Ceci inclut des avances technologiques dans l'optique électronique, la synthèse d'ouverture ou des radars pénétrants les murs, l'acoustique et les capteurs sismiques, pour n’en nommer que quelques-uns.

3- Des systèmes robotisés sans pilote peuvent être conçus sans émotions qui embrument leur jugement ou débouchent sur de la colère et de la frustration lors d’événements sur le champ de bataille. De plus, crainte et hystérie sont toujours latentes pendant le combat, souvent réelles et elles nous forcent par la crainte à adopter des mesures et un comportement criminel ' (Walzer 1977). Il n’est pas besoin que des “agents autonomes” souffrent de la même façon.

4- L'évitement du problème psychologique humain de « l'accomplissement du scénario » est possible, facteur entendu comme ayant contribué en partie au crash (destruction en vol : http://fr.wikipedia.org/wiki/USS_Vincennes_%28CG-49%29 NDLA) d'un Avion de ligne iranien par le croiseur “USS Vincennes” en 1988 (Sagan 1991). Ce phénomène mène à l'altération ou la négligence d'informations contradictoires dans des situations stressantes, où les humains utilisent les nouvelles informations entrantes de façon à ce qu’elles s’adaptent seulement à leurs modèles de conviction préexistants, forme de fermeture cognitive prématurée. Les robots n'ont pas besoin d'être vulnérables à de tels modèles de comportement.

5- Ils peuvent intégrer davantage d'informations provenant de sources plus nombreuses, ce beaucoup plus rapidement qu'un homme ne pourrait probablement le faire en temps réel avant de répondre par la force létale. Ces données peuvent résulter de capteurs à distance multiples et de “l'intelligence des sources” (incluant l'homme), dans le cadre du concept de guerre en réseau centralisé de l'Armée (McLouglin 2006) et le développement simultané de la Grille Globale d’Information (DARPA 2007).

« Les systèmes militaires armés désormais à l'horizon des combats seront trop rapides, trop petits, trop nombreux et créeront un environnement trop complexe pour qu’il puisse être piloté par des humains» (Adams 2002).

6- En travaillant dans une équipe mixte de soldats humains et de systèmes autonomes comme un atout organique, ils ont la capacité potentielle d'indépendamment et objectivement contrôler le comportement éthique sur le champ de bataille par tous les partis et le rapport des infractions qui pourraient être observées. Cette présence seule pourrait probablement mener à une réduction d'infractions éthiques humaines.

À part de ces considérations éthiques, des systèmes robotisés autonomes offrent nombreux d'autres avantages opérationnels potentiels à l'armée : plus rapides, moins chers, permettant un meilleur accomplissement de la mission, une portée plus longue, une persistance supérieure, une plus longue endurance, une meilleure précision, un engagement sur cible plus rapide et l’immunité aux armes chimiques et biologiques parmi d'autres (Guetlein 2005).

 

 

2- Les défauts humains sur le champ de bataille

Ce n'est pas ma croyance qu'un système sans pilote autonome pourra être parfaitement éthique sur le champ de bataille, mais je suis convaincu qu'il peut fonctionner plus éthiquement que des soldats humains ne sont capables de son exécution. Malheureusement les tendances du comportement humain sur le champ de bataille quant aux exigences légales et éthiques afférentes sont au mieux douteuses. “Des Armées, des groupes armés, des mouvements politiques et religieux ont tué des civils depuis un temps immémorial” (2008 Mince, p. 3). Les dangers d'abus de systèmes robotisés sans pilote, comme le Prédateur et le Reaper, sont bien documentés dans la guerre, ce qui arrive même quand un opérateur humain en est directement responsable (Sullivan 2010, Filkins 2010, Adams 2010).

Les atrocités de champ de bataille sont aussi vieilles que la guerre. “L'Atrocité … est l'aspect le plus répulsif de guerre et celle qui réside en l'homme et lui permet de commettre ces actes est l'aspect le plus répulsif de l'humanité”. (Grossman 1995, p. 229).

La propension de l'Humanité à faire la guerre est partie inchangée aussi longtemps que l'histoire en a été enregistrée. On pourrait soutenir que le défaut le plus gros de l'homme s’exerce en premier lieu sur le champ de bataille. Emmanuel Kant a affirmé “la Guerre n'exige aucune motivation, mais semble être enracinée dans la nature humaine et est même appréciée comme quelque chose de noble”. (Kant 1985, p. 125).

Même Albert Einstein, qui est resté un pacifiste bien dans les années 1950, a finalement reconnu qu’ “aussi longtemps qu’il y aura des hommes, il y aura des guerres”. (Isaacson 2007, p. 494).

 

Sigmund Freud était même plus au point : “… Il n'y a aucune probabilité pour notre capacité de supprimer les tendances agressives de l'humanité”. (Isaacson 2007, p. 382).

Dans cet article, cependant, nous sommes concernés pour une large part par l’exposition des défauts de l'humanité lors de la conduite de la guerre (jus in bello) par opposition à ce qui nous a amenés ici au premier chef (jus ad bellum). “La tension émotionnelle de guerre et le combat ne peuvent pas être quantifiés.” (Bourke 1999, p. 232), mais au moins il y a récemment eu une tentative sérieuse de rassembler des données sur ce sujet.

 

3- La marche à suivre

La recherche dans notre laboratoire a fourni la motivation, la philosophie, des formalismes, des exigences représentatives, des critères de conception architecturaux, des recommandations et des scénarios de test pour concevoir et construire une architecture de système robotisée autonome capable de l'utilisation éthique de la force létale (Arkin 2009).

Ces premières étapes vers ce but, cependant, sont très préliminaires et soumises à une révision majeure, mais à tout le moins elles peuvent être considérées comme les débuts d’un guerrier robotisé éthique. Le but principal reste de faire respecter le droit humanitaire international (ou les Lois du Conflit Armé (LOAC)) sur le champ de bataille d’une façon que l'on croit réalisable, en créant une classe de robots qui respectent non seulement les restrictions de droit international, mais surpassent en fait des soldats humains dans leur capacité éthique dans des circonstances comparables. En cas de réussite, ceci aboutira au sauvetage des vies des non-combattants et des biens, idéalement sans érosion de la performance de mission. Il est trop tôt pour dire si cette entreprise aura du succès. Des problèmes décourageants demeurent.

Début de critique

L’argumentaire initial introduit des biais dans la pensée, en mêlant sans causalité les a priori de la guerre et ses intentionnalités avec ses conséquences :

des “systèmes autonomes létaux sans pilote” seront potentiellement capables d'exécution sur le champ de bataille plus éthiquement que ne le sont des soldats humains, hypothèse soutenue par des avancées technologiques en cours et prévues et peut-être selon une évaluation de la capacité fondamentale des combattants de guerre humains dans l'espace de bataille d'aujourd'hui.

* Remarquons donc immédiatement que l’origine causale est l’avancée technologique pour Ronald C. Arkin[46]. A priori qui ne suscite pour lui aucune remise en cause, alors même que les chefs d’États – s’ils s’inquiètent du “grand écart à faire entre développement économique et développement technologique plus ou moins lié à ces robots autonomes” – auront émis un souhait de prudence conclusif, à l’instar du Saint Siège, en fin de conférence.

 

* Le deuxième a priori est l’allégation “plus éthiquement” : dans son discours, l’objet ne serait donc pas le respect de l’éthique et de la vie, en temps de guerre, mais il situe le débat insidieusement sur un “plus ou moins” d’éthique. Comme si les valeurs philosophiques (la vertu de Socrate) pouvaient désormais être quantifiées numériquement. On n’est plus dans l’idéalisme platonicien mais dans la religion technologique digitale réticulaire, considérée par ce monsieur, qui se titre de roboéthicien [47].

* Poursuivant son raisonnement, il bouscule à nouveau la logique :

évaluation de la capacité fondamentale des combattants de guerre humains

Ou “comment dissimuler la volonté industrielle de développement de la technologie qui génère des robots par la R & D de son laboratoire de recherche”, en mêlant l’argument précédent avec une évaluation des comportements des soldats sur le champ de bataille : il dira que « les tendances du comportement humain sur le champ de bataille quant aux exigences légales et éthiques afférentes sont au mieux douteuses », tout en paraissant être pondéré : « Ce n'est pas ma croyance qu'un système sans pilote autonome pourra être parfaitement éthique sur le champ de bataille ».

* Le flou de l’omnipuissance robotique est amplifié par le raisonnement parallèle facile, tel que la référence à Adams (qui est-ce ? je doute qu’il s’agisse de Serge Adam [48]) qui comparait en 2002 la capacité d’un ordinateur (dont la connectique fonctionne à la vitesse de la lumière) avec un humain. L’argument 5 le développe à l’envi.

 

* Les avancées difficiles de la robotique étant connues, il évite trop d’affirmations péremptoires qui pourraient desservir son dessein :

« En cas de réussite, il en résulterait une réduction des dommages collatéraux, c’est-à-dire des pertes humaines non-combattantes et des biens civils. »

 

* Le troisième argument me paraît être un raccourci du texte de La République, où Platon élimine les poètes, les artistes, etc. sépare le corps de l’âme “ailée” socle de l’idéalisme (que décrit abondamment Bernard Stiegler dans ses cours [49])

« Des systèmes robotisés sans pilote peuvent être conçus sans émotions qui embrument leur jugement. »

Or cette réunion au sommet a bien pour thème la capacité – ou non – pour les humains, de garder la main sur les actes de guerre.

En quoi une machine, par nature privée d’émotions, pourrait-elle être plus humaine (éthique, morale, en capacité de jugement dans des situations extrêmes) qu’un humain ?

* Ici, Arkin prêche la naïveté de l’humain : il laisse imaginer que des combattants sont laissés à eux-mêmes sur le champ de bataille, sans commandement unifié. Nous ne sommes plus au temps des Romains ni même au début du XX° siècle : la téléphonie et les informations numérisées ont pénétré les visières, les casques des combattants, reliés dans les trois milieux – terre, eau et ciel – à leur poste de commandement via les satellites.

Il persévère à l’argument 4 :

« L'évitement du problème psychologique humain de “l'accomplissement du scénario” est possible. »

 

* Quant à ses références à des auteurs, s’il faut bien entendu mentionner le caractère factice de leur contenu, ces derniers n’étant pas cités pour leurs écrits – domaine académique sociétal– mais pour des propos rapportés par d’autres, hypothèse prospective creuse dans le cas de Freud “… Il n'y a aucune probabilité pour notre capacité de supprimer les tendances agressives de l'humanité” de même que pour Einstein “aussi longtemps qu’il y aura des hommes, il y aura des guerres” ce dernier commérage étant de surcroît hors son champ de compétence illustre.

 

* Le discours laisse pourtant sidéré, atterré, car avec une réflexion sur l’éthique de l’humain, aussi pauvre et dénuée d’arguments philosophiques sinon technologiques et financiers – j’oublie le rôle de ces industriels dans la main mise du psycho-pouvoir sur les populations via la maîtrise de l’outil militaire le plus sophistiqué et meurtrier, dissuasion compétitive oblige – fondé sur une conception du défaut de l’humain (lequel « s’exerce en premier lieu sur le champ de bataille » -.

Défaut de n’être pas connecté, mais aussi, paradoxalement par sa « propension de l'Humanité à faire la guerre, défaut le plus gros de l'homme »…

Pour un militaire, il y aurait presque là une schizophrénie à laquelle la technologie servirait de thérapie à… très gros marché.

 

* S’agissant de Kant, n’y aurait-il pas à comprendre, éthiquement, que la capacité de l’Homme à comprendre l’Homme reste un sujet qui nourrit l’éthique, et que cette considération générale (non référencée et en outre introuvable) paraît bien en contradiction avec un écrit de Kant, bien authentique, lui :

Conflit des facultés, Ak VII 90 : « Qu’est-ce qu’un monarque absolu ? Celui sur l’ordre duquel quand il dit : « la guerre doit être », il y a aussitôt la guerre. Qu’est-ce en revanche qu’un monarque à pouvoir limité ? Celui qui doit auparavant demander au peuple si la guerre doit ou non être, et si le peuple dit « la guerre ne doit pas être », il n’y a pas de guerre. Car la guerre est une situation où toutes les forces de l’Etat doivent nécessairement être aux ordres du souverain. Or le monarque britannique a mené vraiment beaucoup de guerres sans pour cela chercher un tel consentement ». [50]

 

* Le pire est à mon sens que ce type de pensée courte prévale dans la robotique, et a fortiori dans la robotique militaire, dans l’économie aussi comme puissance de coercition et de développement sociétal.

La conséquence funeste risque bien d’être malheureusement l’assujettissement total de l’Humanité à cette “puissance de feu” “voulue comme autonome” c’est-à-dire à discrétion de quelques-uns, suffisamment puissants pour en disposer contre toute forme d’Humanité vivante défendant son droit à la vie.

 

 

Ingénierie militaire d’apocalypse

Paru dans « Géostratégie et armement au XXI° siècle » (dépôt légal : La Documentation Française, avril 2014, par l’Association des auditeurs et cadres des hautes études de l’armement), je viens faire état de ce chapitre, intitulé “ Le combat robotisé ” qui place leur réflexion à l’aube de 2040, soit dans 26 ans !

 

Ce n’est pas un synopsis de prochain film d’horreur, ni la pensée d’auteurs de science fiction, mais réellement la prospective que ces ingénieurs généraux de l’armement (2S) ou experts à l’IHEDN (Institut des Hautes Études de Défense Nationale) – François Ardant, Bernard Besson, Bruno Blachier, David Clech, Gérard Dugard et Mme Dominique Lévy -, viennent de publier, au Journal Officiel de la République Française du 28 mai 2014 :

http://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000028990860&dateTexte=&categorieLien=id

 

Je ne trouve pas de mots appropriés pour décrire la consternation et l’effarement profond que ces perspectives me laissent ressentir, tant l’horreur absolue que sous-tendent ces moyens colossaux pour la destruction de toute opposition (dont la dispersion de foules agressives – sic p. 250-).

« Les flottes de drones seront dispensées d’atterrir » (p. 246) et les MFP ( micro-ondes de forte puissance p. 250) pourraient avoir des applications civiles ou de sécurité, à moins de la conclusion d’accords internationaux : – je cite (p. 251) : « À terme, sous la pression de certaines ONG, les MFP pourraient-elles faire l’objet d’accords ou traités internationaux visant leur interdiction d’utilisation, comme cela l’a été pour d’autres armements blessants ou invalidants. »

Ici, dans le cas des MFP, ces personnes nous font remarquer que les MFP, si elles « sont considérées comme non létales, une meilleure connaissance de leurs effets, notamment athermiques, sur l’homme impose des recherches sur les phénomènes induits à l’échelle micrométrique, voire nanométrique, sur les cellules biologiques, comme l’électroporation (introduction dans les cellules, d’ADN présent dans l’espace extracellulaire par application d’un champ électrique sur les membranes des cellules) qui pourrait s’avérer rédhibitoire. »

Voici le détail de la description qu’ils font des combats envisagés dans une vingtaine d’années :

 

Le combat robotisé

 

Si l'on retient du robot la définition : automate mécatronique (alliant mécanique, électronique et informatique) disposant d'autonomie décisionnelle et pouvant accomplir des tâches selon un programme adaptable, cette définition laisse à penser que l'horizon 2040 verra des innovations et bouleversements forts.

Des « robots ménagers » des années 1960 aux aspirateurs et véhicules autonomes d'aujourd'hui, le monde civil voit se développer la population des robots, notamment pour la conquête spatiale (robots d'exploration de la Lune et de Mars).

Quant aux champs de bataille, plus de 3000 robots américains de différentes natures, certes téléopérés, étaient employés en Irak. A l'horizon 2050 certains s'émeuvent déjà de la possibilité pour les robots, qui construiraient eux-mêmes la génération suivante plus puissante, d'être en mesure de dominer l'Homme.

 

Les motivations initiales pour l'utilisation des robots - éviter au militaire les activités fastidieuses, dangereuses, ou sales (Dull, Dangerous, Dirty) - sont relayées par la perspective d'économies et de performances bien au-delà des capacités humaines,
mais parfois freinées par des considérations éthiques.

 

Les aspects possibles des acteurs du combat robotisé en 2040 seront extrêmement variés, changeants et adaptatifs :

-des engins se mouvant à chenilles, à roues, à pattes, à coussins d'air, à turbine, à hélice;

-des humanoïdes aux formes plus ou moins proches de l'homme;

-des engins s'inspirant du vivant (biomimétisme) serpent, chien, poisson, insecte, vision « œil d'insecte » (microcaméras en vision panoramique et avec une profondeur de champ infinie), etc.

- des robots à l'échelle micrométrique voire nanométrique.

 

Des capacités nouvelles et combinables seront portées par ces robots, leur permettant de remplacer l'homme, de réduire son exposition et plus encore

-l'autonomie décisionnelle complexe est sans doute une caractéristique majeure des robots futurs.

À cette ultime étape de l'évolution robot opéré, puis délégué,
puis supervisé, et enfin autonome, l'homme dans la boucle téléopérant le robot pourra n'être qu'une option;

-la capacité d'auto-apprentissage et de prise en compte autonome des situations non prévues;

- une capacité à durer, et à survivre aux milieux hostiles, tels quel le NRBC;

-une perception tout temps de l'environnement (obstacles...) et de l’adversaire (multicapteurs : radar, laser, ultrason...), lui donnant une autonomie de pilotage et de navigation, notamment en espace clos;

-une capacité d'agression (armement) et de discrimination;

-la permanence permise à la fois par les progrès de l'autonomie énergétique et la capacité de réaliser leurs tâches en réseau ou essaim. L'autoréparation, l'autoréplication intensifieront cette capacité (des drones volants ne se posant jamais, des drones sous-marins à demeure dans les océans)

 

-la très grande discrétion, incarnée parles robots pouvant ressembler à d'inoffensifs insectes et autres animaux. Sont aussi envisageables de vrais insectes bioniques, commandés par des circuits électroniques implantés

-l'invisibilité à l'œil, par des microrobots et nanorobots.

 

Les emplois et tâches remplies, en admettant que les freins actuels en termes d'autonomie énergétique et de mobilité auront été levés, seront de natures multiples :

-les missions traitables par des robots seront largement périphériques aux combats de contact lui-même : robot démineur, manutentionnaire, surveillant, transporteur, évacuation de blessés...

-après les tâches unitaires actuellement dévolues aux robots, ceux-ci seront en mesure d'effectuer des tâches complexes et le cas échéant de collaborer, qu'il s'agisse de collaboration homme-robot ou robot-robot, via des essaims homogènes ou des systèmes hétérogènes.

 

Mais ces tâches pourront-elles aller jusqu'au combat lui-même ? La question n'est pas d'ordre technologique : le combat robotisé, dans des missions de premier contact coercitif et de destruction, de tir de précision, de contrôle de foule, serait envisageable avec les technologies de 2040.

La question relève de l’éthique : si le combat vise à soumettre l'ennemi à sa propre volonté, le robot est-il à même de mener
cette mission ?

Sa « vision » binaire, au sens informatique, lui permettra-t-elle distinguer l'ennemi prêt à mourir pour défendre sa cause de l'ennemi prêt à se rendre car ayant perdu tout espoir de victoire ? On aboutira la convergence engagée rendre le robot et l'homme : fusion en une seule entité, avatar, robot humanoïde ou humain augmenté ?

 

 

in Géostratégie et armement au XXI° siècle – Prospective 2040 – Rêves de concepts militaires en rupture.  pages 252 – 253. Dépôt légal : avril 2014

Auteurs : association des auditeurs et cadres des hautes études de l’armement

aachear@free.fr 21 place Joffre 75007 Paris

 

Diffusion :

Direction de l’information légale et administrative, La Documentation Française

www.ladocumentationfrancaise.fr 29-31 quai Voltaire 75344 Paris Cedex 07

 

 

 

CONCLUSION

À l’heure actuelle, en notre instant de gravité ultime où, face à ce déchaînement potentiel de puissances destructrices en tous genres, sur le point de devenir autonomes face à l’Humanité entière, le Saint Siège crie « Au Feu ! », il semblerait que les plus hauts responsables militaires français crient à mi-voix « Au Secours ! », réclamant que la société civile, par l’entremise des ONG, vienne à la rescousse en déclenchant, avant l’extinction des possibilités de recours vital et crée LE SURSAUT SALUTAIRE, alors qu’eux-mêmes se sentent potentiellement dépassés et embarqués par la fuite en avant du développement incontrôlé des armes :

« Les MFP pourraient-elles faire l’objet d’accords ou traités internationaux visant leur interdiction d’utilisation, comme cela l’a été pour d’autres armements blessants ou invalidants ? » écrivent-ils.[51]

La colère de la chrétienté gronde, défenseuse de la vie d’ici-bas avant même l’au-delà promis, tel l’Archange de l’Apocalypse :

Saint Grégoire le Grand ne déclarait-il pas, au sujet de l’Archange Michel : « Chaque fois qu'il s'agit de choses extraordinaires, c'est Saint Michel qui est envoyé, afin de laisser comprendre par ses actions comme par son nom que nul ne saurait faire ce que Dieu se réserve d'accomplir. C'est lui qui lutte contre les mauvais anges et les chasse du ciel (Apocalypse 12,7). C'est lui qui arrache au Diable le corps de Moïse (Jude 9)»

« Les machines ne peuvent pas remplacer l’homme  dans les décisions de vie et de mort » tance Mgr Tomasi.

« Cette technologie« rend la guerre trop facile »en éliminant sa dépendance aux soldats. » clame le Vatican.

 

D’autres militaireségalement de haut grade, dont un général de corps d’armée (2S), François Bresson, ainsi qu’un administrateur civil hors classe du Ministère de l’Économie et des Finances (DGCCRF), un aumonier général israélite des armées, Haïm Korsia, un philosophe, Jean-Paul Charnay et un économiste, Jean-Paul Karsenty, ne se résignent-ils pas à énoncer ( p. 541 sqq.) que :

« Des développements récents et prochains de l’informatique et du cyberespace font craindre davantage de vulnérabilité dans le futur »

citant

• l’intrusion dont fut victime le Ministère de l’Économie et des Finances lors du G20 en 2011,

• la problématique du virus Stuxnet américain, retrouvé un peu partout sur la planète à sa sortie des centrifugeuses iraniennes,

• L’attaque récente (2012) contre les ordinateurs de la compagnie saoudienne Saudi Aramco

• et les fragilités nouvelles en matière de sûreté informatique du fait du très prochain internet des objets, et de l’asymétrie des cyberarmes,

« utilisées par des hackers puis des groupes criminels – terme utilisé dans l’acception de plus en plus répandue en France, par analogie avec les catégories des droits anglo-saxons, à la place du terme de droit français délictuel” – et appartenant à la panoplie des grandes nations, tant au niveau des services secrets que des armées. »

• affirmant également (p.554) que dans le cadre d’une

« intervention dans le cyberespace personne n’a les moyens d’évaluer totalement les conséquences de ses actes surtout dans un domaine aussi complexe. » 

« L’utilisation d’une cyberarme par un État dans une situation de guerre, si elle peut être justifiée en tant qu’arme servant à la défense nationale, l’est beaucoup moins tant qu’elle peut apparaître, ainsi qu’explicité dans le chapitre précédent, comme une arme imprévisible et potentiellement incontrôlable. »(p.557)

Et s’inquiétant de leur usage :

« Compte tenu des effets que leur implantation dans le cyberespace peut provoquer, effets pouvant être comparables à ceux d’armements classiques et même comparables à ceux d’armes nucléaires en cas d’attaque sur des sites nucléaires, la question du caractère éthique ou non de cette réalisation se pose ou peut se poser. »

« Il ne serait (…) pas absolument impossible de déclencher par cyber attaque l’explosion de l’une des dizaines de milliers d’armes nucléaires dont disposent les neuf puissances nucléaires actuellement reconnues. » (p.563)

 

 

D’autant, poursuivent-ils que :

« Le fait que des travaux correspondants se déroulent dans des enceintes relevant de ministères de la défense ou de services secrets suggère que leur utilisation est envisagée dans le cadre de conflits interétatiques. »

 

Cherchant à se montrer pressants envers les politiques, ils insistent dès lors (p.560) en proposant de nouvelles idées prospectives, à visée éthique :

« Des listes noires d’États ne respectant pas les codes de bonne conduite [puissent] être établies. »

 

Le torchon brûle, d’ailleurs, non seulement chez les militaires, mais aussi chez certains chefs d’États :

Bien qu’il soit ici énoncé que « la Fédération de Russie était l’instigatrice des attaques contre l’Estonie et la Géorgie (p.548 §1),  cette dernière, “partisane d’un traité de « désarmement multilatéral dans le cyberespace”,a introduit dès l’an 2000 dans le cadre de l’UIT (Union Internationale des Communications) un projet de résolution visant à interdire les cyberarmes» ou “ toute interférence non autorisée dans les systèmes d’information et de télécommunications comme dans les ressources informationnelles, auquel se sont opposés les États-Unis.

En novembre 2011, la Russie a repris les discussions sur ce thème avec les États-Unis dans un format bilatéral et au sein du comité sur le désarmement et la sécurité internationale de l’ONU » ”

« En 2011, la Russie, la Chine, le Tadjikistan et l’Ouzbékistan (membres de l’Organisation de coopération de Shanghai) ont défendu devant l’ONU le principe d’un code de bonne conduite sur l’internet, proposition aussitôt critiquée par les États-Unis. » (p.560)

 

Mais rappelons-nous également le positionnement impossible de différents états :

« 18. A number of delegations stressed the necessity of recognizing the significance of the peaceful uses of autonomous technologies in the civilian field, and the importance to not undermine the current technological development efforts in this area. »

 

Le paradoxe est tel que les politiques ne savent plus quoi choisir entre la poursuite de leur équipement militaire apocalyptique et la non-prise en compte des efforts en cours de développement technologique.

 

Il est temps, donc, que cette demande rare d’éthique soit clarifiée, par des philosophes et les sociétés civiles, dans un débat ouvert et multipartite – même s’il y va aussi, paradoxalement et de façon obligatoirement intriquée, et sans se laisser noyer dans des simulacres de réflexion éthique ou il n’y aurait que stratégie de domination de l’autre, de volonté, tant de puissance que de nuisance :

 

Page 562, on peut encore lire l’urgence dénoncée par les militaires :

« Pour ce qui est du temps de paix, nous pensons que la communauté des nations sera amenée, aussi difficile que cela apparaisse, à réglementer le cyberespace comme elle a réglementé dans le passé les espaces où pouvaient se développer les conflits : terrestre, naval, aérien et enfin extra atmosphérique. Tout simplement parce que ces nations finiront par y voir leur intérêt et que lorsque éthique et intérêt se rejoignent, on trouve des solutions aux difficultés apparemment les plus inextricables.»

 

Les sociétés civiles devront toutefois, à nouveau, se méfier de la réglementation qu’ils envisagent :

À la page 553, les auteurs argumentent en effet avec un regard liberticide :

« Les autorités ne peuvent éviter la mise en place des moyens tant de surveillance que de contrôle actif des réseaux d’information. (…) Une réglementation appropriée est à définir, à expliquer à la population et à mettre en œuvre, éventuellement de manière coercitive pour des points de vulnérabilité particulière ou dans des périodes de menaces élevées.»

 

Le Patriot Act n’avait-il pas déjà formé prétexte à l’ingérence militaire ubiquitaire ?

Il est donc temps, plus sagement c’est-à-dire pour être à même d’envisager une prospective pérenne, de se tourner vers le regard poétique et méditatif, tracé entre deux pensées, orientale traditionnelle et occidentale, de François Cheng, cet Académicien Français, tant érudit que visionnaire, philosophe et magicien du verbe, qui présente la réflexion de toute sa vie dans son dernier ouvrage paru :

"Cinq méditations sur la mort, autrement dit sur la vie"

où il pense la vie à partir de la mort, inversant le cours de l'interprétation de façon vivifiante, en posant la limite comme justification du désir et de l'élan vital.

Cette leçon de pensée pourra utilement nous permettre de contourner l’abîme qui se dresse devant nos yeux, focalisés sur la fin.

Suivant pour terminer les constatations du Dalaï-Lama, à l’instar du Pape, nous pouvons faire confiance aux populations :

« Chaque jour, les médias rapportent des actions terroristes, des crimes et des agressions. Jamais je n’ai été dans un pays où de tragiques histoires de sang et de mort ne fassent la une des journaux ou des émissions de radiotélévision. Pareils incidents sont quasiment devenus une manie des journalistes et de leur public.

Pourtant, l’écrasante majorité de la race humaine ne se comporte pas de façon destructrice ; en fait, très peu parmi les cinq milliards d’individus sur cette planète commettent des actes de violence. La plupart d’entre nous préfèrent être aussi tranquilles que possible. » écrivait-il en 1999.[52] »

 

Même étant devenus aujourd’hui près de neuf milliards, la statistique ne s’est guère modifiée…

************




[1]
L’exemple des chauffeurs de taxi en Corée et au Japon présenté sur cette vidéo est explicite : 1 mn 40 http://www.dailymotion.com/video/xffbwg_viva-la-robolution-par-bruno-bonnell_tech&start=2838

La Corée veut dynamiser la consommation et détruit toute perspective de savoir scolaire : 1 mn 30

http://www.dailymotion.com/video/xffbwg_viva-la-robolution-par-bruno-bonnell_tech&start=2227

Extraits de l’Intervention du 29/09/2010, à la Cité du Design de St Etienne, de Bruno BONNELL, dirigeant de Robopolis (entreprise de Villeurbanne), et président du Syndicat de la Robotique de Services, pour présenter sa vision de l'avenir de la robotique et ses liens évidents avec le logiciel.

[2] Des chercheurs de l'université de Bristol et de l'école de journalisme de l'université de Cardiff ont utilisé des algorithmes basés sur l'intelligence artificielle afin d'analyser 2,5 millions d'articles tirés de 498 médias en ligne en anglais pendant 10 mois. (…) Comme attendu, les mesures de lisibilité montrent que les tabloïds en ligne sont plus lisibles que les journaux sérieux, et utilisent un langage plus sentimental et affecté.

http://owni.fr/revue-du-web/du-big-data-et-de-linfo-sont-dans-un-bateau/

Dommage que les articles manquent depuis décembre 2012.

[11] Europe : Humain Brain Project « Leurs investissements leur donnent des compétences exclusives que l'on retrouve déjà non seulement dans le domaine militaire mais aussi dans le domaine civil, avec l'objet de faire face à certains troubles mentaux, développer divers types de robots autonomes susceptibles de compléter ou remplacer les humains, mieux comprendre (pour mieux les piloter) les réactions des individus ou des groupes face aux campagnes publicitaires et politiques... » http://www.automatesintelligents.com/edito/2013/fev/humanbrain.html

[13] ACRIMED : Edward Snowden privé du droit d’asile, Mediapart et Le Point censurés : vive le droit d’informer !

http://www.millebabords.org/spip.php?article24039

[20] http://www.automatesintelligents.com/equipe.html Biographies des rédacteurs en chef

[26] “nid de formules mathématiques qui sous-tendent le fonctionnement du moteur de recherche” http://www.outil-referencement.com/blog/index.php/386-algorithme-google

[37] La Recherche, n° 486 avril 2014

[41]« Pour mettre en place cette loi, l'État devrait embaucher un nombre important d'experts informatiques et d'ingénieurs. L'avocat général chargé de la vie privée devrait provisionner des millions de dollars pour préparer la défense du texte lors des inévitables contestations. » Un argument loin d'être anodin dans un État au bord de la faillite. http://www.lemonde.fr/technologies/article/2011/05/09/facebook-et-google-s-opposent-a-une-proposition-de-loi-californienne-sur-la-vie-privee_1519254_651865.html

[42] Google possède un ordinateur quantique. La société américaine Lockheed Martin, spécialisée dans l'aérospatiale et les technologies avancées, en possède un aussi. 01/03/2014 http://www.larecherche.fr/savoirs/dossier/1-mysterieuse-boite-noire-wave-01-03-2014-171475

[45] STINT : Swedish Foundation for Cooperation

[47] https://fr.wikipedia.org/wiki/Robo%C3%A9thique  NB Même Wikipedia reste prudent sur le sujet en mentionnant « Cet article est une ébauche concernant la robotique. »

[48] http://www.sergeadam.net/ Le “contrôle des dépenses militaires” : Ce que nous coûte l’OTAN

[50] http://www.raison-publique.fr/article448.html#nh15 François Calori est maître de conférences à l’UFR de philosophie de l’Université Rennes 1 et membre de l’E.A. 1240 «  Philosophie des normes ».

[51] Idem : “Géostratégie et armement au XXI° siècle”, avril 2014 page 251 §1