Ecoutez Radio Sputnik
    Intelligence artificielle

    D’ici 2040, l’intelligence artificielle pourrait miner la stabilité nucléaire

    CC0 / Pixabay
    International
    URL courte
    308

    L'intelligence artificielle possède un potentiel capable de renverser les bases de la dissuasion nucléaire d'ici 2040, selon un récent document de la société de conseil américaine RAND Corporation.

    Les spécialistes en intelligence artificielle et en sécurité nucléaire interrogés par les chercheurs de la société de conseil RAND Corporation en sont venus à la conclusion que d'ici 2040 l'intelligence artificielle pourrait torpiller les bases de la dissuasion nucléaire et miner la stabilité stratégique. Selon certains experts, pour perturber l'équilibre il ne sera même pas nécessaire d'incorporer l'intelligence artificielle aux armes nucléaires. Sa seule existence pourrait pousser tel ou tel membre du club nucléaire à porter la première frappe.

    Les autorités des pays nucléaires estiment que posséder des armes nucléaires est déjà une garantie de sécurité. Elles pensent que la présence de telles armes protège contre une attaque d'un autre pays qui pourrait redouter une frappe nucléaire contre son territoire. C'est un postulat de la stratégie de dissuasion nucléaire. Il y a, en outre, la notion de parité nucléaire (ou de stabilité nucléaire) selon laquelle les puissances nucléaires ne devraient pas porter une frappe l'une contre l'autre, craignant une destruction mutuelle.

    Pourtant, les notions de stabilité nucléaire et de dissuasion nucléaire sont plus compliquées et revêtent plutôt un caractère théorique, car le monde n'a pas encore connu de conflits avec l'utilisation d'armes nucléaires depuis les bombardements des villes japonaises de Hiroshima et de Nagasaki. Plus encore, la guerre hybride, le développement des armes nucléaires de haute précision, la mise sur pied de la triade nucléaire (missiles balistiques, sous-marins embarquant des missiles balistiques et bombardiers) ainsi que le développement de nouveaux systèmes de défense antimissile compliquent ces notions.

    Les experts interrogés par les chercheurs de la RAND Corporation se sont partagés en plusieurs groupes. Le camp modéré estime que l'intelligence artificielle permettra de perfectionner les systèmes d'armes nucléaires sans influer sur la stratégie de dissuasion nucléaire et la parité nucléaire. Selon eux, d'ici 2040, la collecte et le traitement des données de renseignement sur la préparation de l'adversaire à l'utilisation des armes nucléaires, ainsi que le choix des cibles prioritaires, constitueront un grave problème pour l'intelligence artificielle.

    Par contre, les alarmistes affirment qu'en tout état de cause, l'intelligence artificielle représente un danger pour la stabilité nucléaire. Ils estiment qu'il suffit qu'une puissance nucléaire décide que l'intelligence artificielle des systèmes de défense ennemis pourrait neutraliser ses représailles en cas de conflit nucléaire pour qu'elle renonce à la tactique de frappe de rétorsion et opte pour la stratégie de frappe préventive, se lançant en même temps dans l'accroissement de son arsenal nucléaire.

    Un autre groupe d'experts déclare que l'intelligence artificielle peut être utilisée dans des systèmes d'armes nucléaires, ce qui est susceptible aussi bien de renforcer la stabilité nucléaire que de la détruire. D'une part, les pays possédant des armes nucléaires «intelligentes» et des systèmes de défense contre elles peuvent décider que l'utilisation de ces armes conduira à une extermination mutuelle garantie, ce qui pourrait servir de facteur de dissuasion. D'autre part, des systèmes «intelligents» pourraient donner aux gouvernements un sentiment de supériorité technologique garantissant la victoire dans une guerre éventuelle. Dans ce cas, une guerre nucléaire devient davantage réelle.

    Néanmoins, tous les experts interrogés par la RAND Corporation ont convenu que d'ici 2040, aucun pays nucléaire ne parviendrait à créer une arme de l'Apocalypse dotée de l'intelligence artificielle, c'est-à-dire une arme capable d'initier une réponse nucléaire même si tous les dirigeants du pays sont anéantis par une frappe nucléaire ennemie.

    En juillet 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak et de nombreux autres scientifiques, hommes d'affaires, célébrités, chercheurs et spécialistes en robotique et intelligence artificielle ont signé une lettre ouverte mettant en garde les producteurs d'armes contre le développement de systèmes de combat dotés de l'intelligence artificielle. Les auteurs de cette tribune ont indiqué que peu d'années nous séparaient du développement de systèmes de combats autonomes capables de prendre la décision d'ouvrir le feu en toute indépendance.

    «Quand de tels systèmes feront leur apparition sur le marché noir, et ce n'est qu'une question de temps, ils tomberont entre les mains de terroristes, de dictateurs souhaitant mieux contrôler leur peuple, ou de chefs militaires qui les utiliseront à des fins de purges ethniques. Les armes autonomes sont idéales pour des meurtres commandités, la destruction de nations, la répression d'insurrections et les purges ethniques», mettent en garde les auteurs du document.

    Lire aussi:

    Faut-il redouter une frappe nucléaire russe?
    Le monde est-il au bord d'une nouvelle «guerre froide» avec les robots-tueurs?
    Perspective alarmiste: le démon de l'IA fera tomber l'empire humain d'ici 2050
    Tags:
    armes nucléaires, dissuasion, intelligence artificielle
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik