Ecoutez Radio Sputnik
    Atlas from boston dynamics

    Robots-tueurs, de la science-fiction aux prochains champs de bataille

    CC BY-SA 4.0 / kansascity / Robot Atlas
    Défense
    URL courte
    Mikaël Doulson
    9325

    Le «plus grand exercice de robots militaires de l’histoire britannique» est en cours au Royaume-Uni avec la collaboration des États-Unis. Arme autonome, drone de combat, robot-mule, soldat augmenté, la technologie militaire ne semble connaître aucune limite. Pourtant, ces inventions posent des questions légales et éthiques majeures. Reportage.

    «Les robots se sont multipliés depuis ces dernières années, d'abord pour le déminage, puis la surveillance, de manière offensive ensuite avec des drones télécommandés, et maintenant avec des programmes de machines autonomes et des "SALA": système d'armes létales autonomes. Comme leur acronyme l'indique, ces systèmes sont faits pour tuer. Mais il s'agit également de démultiplier les facultés des combattants humains, qui seront munis d'exosquelettes pour en faire des soldats augmentés» dévoile à Sputnik Thierry Vallat, avocat au Barreau de Paris et spécialiste du droit numérique et des robots.

    Le Royaume-Uni effectue en ce moment des essais militaires inédits. Malencontreux hasard (?) du calendrier, ces exercices ont débuté le 12 novembre, au lendemain du Centenaire de l'armistice de 1918 célébré en grande pompe à Paris par environ 70 chefs d'État et de gouvernement (mais en l'absence de Theresa May).

    Ces essais militaires sont le «plus grand exercice de robots militaires de l'histoire britannique», selon les termes de Gavin Williamson, secrétaire d'État à la Défense du Royaume-Uni. Ces exercices, qui vont durer un mois, visent à tester plus de 70 outils technologiques, allant des drones de surveillance aux véhicules sans pilote.

    «Cet équipement pourrait révolutionner nos forces armées, les maintenir en sécurité et leur donner l'avantage dans un monde de plus en plus instable», se réjouit Gavin Williamson.

    Ces exercices mobilisent plus de 200 personnes, qui seront coordonnées par le Groupe de combat du régiment royal de chars d'assaut («Royal Tank Regiment Battle Group», en anglais).

    Outre ce groupe, plusieurs troupes britanniques participeront aux opérations: les Marines royaux (servant dans la Royal Navy), la Royal Air Force (force aérienne de l'armée britannique), ainsi que le «Defence Science and Technology Laboratory» (une agence du Ministère de la Défense britannique). Mais les Britanniques ne sont pas les seuls à participer: l'armée des États-Unis est aussi de la partie.

    Cependant, les exercices lancés par le Royaume-Uni mi-novembre ne sont pas exceptionnels. Ils s'inscrivent dans un développement important de technologies issues de la robotique et de l'intelligence artificielle à destination militaire. Pourquoi un tel engouement? Thierry Vallat détaille les usages de ces machines:

    «Ils sont d'abord développés pour limiter les pertes humaines: on cherche à minimiser l'impact des combats sur les humains. On va les utiliser aussi pour aider les combattants humains, comme "robot-mule" pour évacuer des blessés ou porter des équipements. Les machines n'ont par ailleurs pas de problèmes de fatigue ou de douleur, peuvent opérer en milieu hostile sans craindre la radioactivité, la chaleur ou la soif. Enfin, et c'est l'un des sujets éthiques qui se pose: les robots neutralisent leur objectif sans état d'âme.»

    Jean-Jacques Bridey, président de la commission de la Défense et des Forces armées à l'Assemblée nationale, contacté par Sputnik, décrit pour sa part les différents dispositifs technologiques qui sont aujourd'hui à la disposition des militaires:

    «Il ne faut pas confondre robot et drone, IA et SALA. Comme son étymologie russe le suggère, le robot est une machine automatique destinée à aider l'être humain dans son travail ou à s'y substituer. Il est utilisé en priorité pour les travaux sales, répétitifs ou dangereux. Le drone […] est à l'origine un aéronef non habité piloté à distance; par extension, le terme de drone s'applique aussi de nos jours à tout véhicule terrestre, sous-marin ou de surface télécommandé. On parle d'intelligence artificielle (IA) à propos de logiciels auto-apprenant de ses propres erreurs. Les robots, drones et IA sont de simples évolutions technologiques destinées à faciliter l'activité humaine en général (et celle des combattants en particulier) et qui s'inscrivent dans un cadre éthico-juridique bien établi, sans le bouleverser.»

    Pour Jean-Jacques Bridey, la rupture se situe entre les machines non létales et les robots destinés à «neutraliser des cibles» (c'est-à-dire à tuer des humains). Si des robots démineurs et autres dispositifs télécommandés ne viennent pas bouleverser les fondements du droit de la guerre, ce n'est pas le cas des robots-tueurs:

    «Les systèmes d'armes létales autonomes (SALA) sont la dénomination officielle des "robots tueurs" chers à la science-fiction. Ils n'existent pas (encore), sinon à l'état de prototypes chez certains industriels comme Kalashnikov. Un drone armé n'est pas un SALA, car il est contrôlé à distance et le ciblage comme l'ordre de tir résultent d'une intervention humaine. […] La véritable révolution serait l'autonomie et l'apparition de SALA sur le champ de bataille, ce qui n'est pas encore le cas. Les seuls SALA déployés aujourd'hui sont dans des zones interdites d'accès entre deux frontières et jouent un rôle comparable aux champs de mines; leur intervention est en effet activée par la présence de la victime dans la zone interdite; le déclenchement de l'effet militaire n'est donc pas à proprement parler autonome», détaille-t-il.

    Le 17 novembre, le journal allemand Deutsche Wirtschafts Nachrichten titrait l'un de ses articles: «Troisième guerre mondiale: des machines vont tuer des gens». L'article s'aventure à prédire que la prochaine guerre produira «une grande dévastation» du fait de la sophistication des armes déployées, notamment par les superpuissances chinoise et étatsunienne.

    Le développement des robots a fait un véritable bond ces dernières années, à l'initiative d'entreprises comme Boston Dynamics (issue d'un projet du Massachusetts Institute of Technology, ou MIT) qui collabore avec l'armée étatsunienne.

    Après plusieurs années d'amélioration, les chiens-robots de Boston Dynamics peuvent désormais ouvrir des portes et faire preuve de galanterie, descendre les escaliers, et même danser le Moonwalk:

    Si ce toutou futuriste peut sembler sympathique, ne vous y trompez pas, les applications de ce type de recherches sont avant tout sur le champ de bataille. La preuve avec AlphaDog, son pendant militaire, développé par Boston Dynamics pour la DARPA (l'agence responsable du développement des nouvelles technologies au département de la Défense des États-Unis). AlphaDog est nettement plus belliqueux, même s'il n'est pour l'instant destiné qu'à transporter du matériel militaire:

    Surmonté d'une mitrailleuse, on imagine quels dégâts pourraient causer ce BigDog, dont le développement a été financé par la DARPA:

    Même chose avec Atlas, un robot humanoïde capable de faire des sauts périlleux arrière, de marcher dans la neige et de porter des charges, et de rivaliser avec les Yamakasi sur un terrain de parkour:

    La Russie n'est pas en reste en termes de robotique militaire, elle qui ambitionne d'employer plus de 30% de systèmes d'armes autonomes et semi-autonomes à l'horizon 2025.

    Quant à la Corée du Sud, elle utilise déjà un robot tueur développé par Samsung pour surveiller sa frontière avec la Corée du Nord.

    Selon Amnesty International, qui milite pour l'interdiction des «robots tueurs», ces systèmes d'armes seraient déployés pour surveiller la zone démilitarisée qui sépare les deux Corée depuis 2010.

    Et dans l'armée française? Les robots militaires sont prévus pour 2021, en vue d'intégrer l'armée de Terre dans le cadre du programme terrestre Scorpion. Il s'agirait de «grands robots, de l'ordre d'une tonne, qui puissent être employés en opération» a révélé le général Charles Beaudouin, sous-chef d'État-major chargé des plans et des programmes de l'État-major de l'armée de Terre.

    La ministre des Armées française Florence Parly a concédé le 4 avril dernier que l'intelligence artificielle était déjà «intégrée dans la vie quotidienne et dans nos armées» et qu'elle prenait une place de plus en plus importante sur le terrain. Cependant, elle s'est défendue de vouloir fabriquer des robots tueurs.

    «Il existe de nombreux domaines dans lesquels l'intelligence artificielle pourrait avoir toute sa place au sein d'un environnement de défense. […] L'homme restera dans la boucle pour décider ou pas d'enclencher le système d'arme. Ce n'est pas l'intelligence artificielle qui va appuyer sur le bouton pour enclencher un tir», affirme-t-elle.

    Mais face à cet engouement général, des voix s'élèvent pour contester le développement des armes autonomes. Et les critiques fusent même depuis l'intérieur de la sphère technophile, puisque l'entrepreneur multimilliardaire Elon Musk a prédit que «la compétition internationale pour la suprématie en termes d'intelligence artificielle sera sans doute la cause de la 3e Guerre mondiale».

    ​Dans une lettre ouverte adressée aux Nations unies en août 2017, 116 experts en intelligence artificielle et en robotique parmi lesquels Elon Musk, le physicien Stephen Hawking, le philosophe Noam Chomsky, ou encore le cofondateur d'Apple Steve Wozniak, ont alerté les dirigeants nationaux sur les dangers des armes létales autonomes et les ont enjoints d'en réglementer au plus vite l'utilisation sur le champ de bataille.

    Il semblerait que cet appel ait porté ses fruits, car l'Onu a lancé en avril dernier une série de discussions officielles sur les Systèmes d'Armes Létales Autonomes (SALA). Ces systèmes, pouvant identifier et éliminer des cibles sans intervention humaine, posent évidemment la question de la responsabilité légale et morale des morts qu'ils engendrent. Pourtant, l'Onu a déclaré que la perspective d'un traité régulant leur utilisation n'était pas à l'ordre du jour.

    Jean-Jacques Bridey, président de la commission de la défense et des forces armées à l'Assemblée nationale, a confié à Sputnik que la diplomatie française militait activement à l'Onu pour une réglementation des SALA.

    «Les SALA étant incapables de discriminer entre civils et combattants, ils sont par nature contraires au droit des conflits armés et au droit humanitaire; les armées françaises n'ont donc pas vocation à s'en doter. La doctrine française prévoit toujours la présence d'un "homme dans la boucle" dès lors qu'il existe un risque de dommages collatéraux. La France est très active à l'Onu en vue d'interdire les SALA. Le Parlement français, toutes tendances confondues, soutient bien évidemment notre diplomatie sur ce sujet.»

    Robots-tueurs ou non, leur emploi soulève des questions pratiques fondamentales: que se passerait-il si ces machines tombaient entre de «mauvaises mains», terroristes par exemple?

    «On l'a vu avec l'utilisation de drones par Isis [acronyme anglo-saxon de l'État islamique* ndlr], à des fins terroristes. Mais c'est malheureusement les cas de toutes les armes, pas seulement des robots. Sauf que ceux-ci sont particulièrement performants», détaille Thierry Vallat.

    Mais ce n'est pas le seul risque. De telles machines pourraient aussi être détournées par des hackers. Dans ces conditions, comment garantir le contrôle des robots militaires qui se multiplient ces dernières années?

    «C'est l'une des sources d'inquiétude les plus grandes. La sécurité des systèmes d'information en général. La cyberguerre sera d'ailleurs certainement l'une des clés des prochains conflits. Et les robots font partie intégrante de ces préoccupations», poursuit l'avocat spécialiste du droit numérique et des robots.

    Me Vallat rappelle que «les humains constitueront toujours une cible», et il insiste sur la question de responsabilité liée à ces robots autonomes:

    «Qui va-t-on décider de neutraliser et en fonction de quels critères nourrira-t-on la machine? […] En arrivera-t-on à une machine qui décidera seule quelle est sa cible en fonction des paramètres qu'elle aura intégrés, ou y aura-t-il encore un humain qui appuiera sur le bouton?»

    Bref, un robot pourrait-il un jour être reconnu coupable de crimes de guerre ou de crime contre l'Humanité? Assistera-t-on à la création d'un tribunal spécial pour juger ces robots-tueurs?
    Ces questions sont encore un précoces, mais présagent d'une réalité sans doute plus proche qu'on ne le croit, comme le rappelle l'avocat:

    «La non-prolifération des SALA demeure un enjeu majeur qui est loin de faire consensus. Le Parlement européen a pris une résolution en septembre 2018 pour les interdire. Mais jamais on ne les a autant financés et développés!»

    Lire aussi:

    «L'Attaque des clones» est-elle inévitable?
    Les armées sont-elles prêtes à accueillir des robots-tueurs dans leurs rangs?
    Les robots-tueurs ont-ils un avenir?
    Tags:
    robots-tueurs, système d'armes létales autonomes, droits des robots, guerre du futur, guerre des robots, robots humanoïdes, armements autonomes dotées d’IA, IA, robot de combat, drone, Kalashnikov, Defence Science and Technology Laboratory, Samsung, Boston Dynamics, DARPA, Massachusetts Institute of Technology (MIT), Royal Air Force (RAF) britannique, Amnesty International, Etat islamique, Charles Beaudouin, Jean-Jacques Bridey, Gavin Williamson, Florence Parly, Thierry Vallat, Steve Wozniak, Elon Musk, Theresa May, Stephen Hawking, Noam Chomsky, Royaume-Uni, Corée du Sud, France, États-Unis, Russie
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik