Le monde est-il au bord d'une nouvelle «guerre froide» avec les robots-tueurs?

CC0 / Pixabay / Robotics
Robotics - Sputnik Afrique
S'abonner
Une interdiction de développer des technologies basées sur les principes de l’intelligence artificielle (IA) doit être mise en œuvre, supposent des PDG d’entreprises, dont Google et Skype. Ils s’engagent à ne jamais développer ce type d’armes en signant un texte collectif lors d’une conférence sur l’IA tenue à Stockholm.

Intelligence artificielle - Sputnik Afrique
D’ici 2040, l’intelligence artificielle pourrait miner la stabilité nucléaire
Lors d'une grande conférence sur l'intelligence artificielle intitulée International Joint Conference on Artificial Intelligence (IJCAI), qui vient de se terminer à Stockholm, les grands leaders mondiaux des hautes technologies se sont dressés contre des problèmes engendrés par l'intelligence artificielle à la suite d'une initiative du Future of Life Institute. 160 entreprises et 2.400 scientifiques se sont engagés à ne jamais créer et développer des armes létales autonomes, relate le site The Verge. Parmi les signataires de ce document figurent les dirigeants de Google, Deep Mind, Tesla et Skype.

«Nous ne pouvons pas remettre la décision quant à savoir qui vit et qui meurt aux machines. Elles n'ont pas l'éthique pour le faire. Je vous encourage, vous et vos organisations, à vous engager à faire en sorte que la guerre ne devienne pas plus terrible de cette manière», a souligné l'un des auteurs de l'accord, Toby Walsh, professeur en intelligence artificielle à l'université de Nouvelle-Galles du Sud à Sydney, relate le site du Future of Life Institute.

Robot Vera - Sputnik Afrique
Robot-recruteur Vera: intelligence artificielle, ennemi ou ami au boulot?

Les participants à la conférence appellent les gouvernements ainsi que l'Onu à harmoniser les lois et les règles internationales afin d'empêcher la création de robot-tueurs basés sur les principes de l'intelligence artificielle. Les experts soulignent qu'il faut bâtir un avenir où il sera impossible de développer des armes létales autonomes, car la décision de tuer un humain ne doit jamais être déléguée à la machine.

L'initiative d'un tel accord a été lancée par Future of Life Institute, une association américaine à but non lucratif. Cet organisme s'occupait pendant la conférence à Stockholm de mettre en garde sur les problématiques de l'intelligence artificielle.

«Étant une personne qui étudie la cybersécurité et l'utilisation de l'intelligence artificielle dans les drones, je suis inquiet par le fait que le monde puisse entrer, ou peut-être est même déjà entré, dans une nouvelle guerre froide, nourrie par l'IA», partage ses craintes dans l'un de ses articles le scientifique et directeur adjoint de l'Institut de recherche dans le domaine de la cybersécurité, Jeremy Straub.

En juillet 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak et de nombreux autres scientifiques, hommes d'affaires, célébrités, chercheurs et spécialistes en robotique et intelligence artificielle ont signé une lettre ouverte mettant en garde les producteurs d'armes contre le développement de systèmes de combat dotés de l'intelligence artificielle. Les auteurs de cette tribune avaient indiqué que peu d'années nous séparaient du développement de systèmes de combat autonomes capables de prendre la décision d'ouvrir le feu en toute indépendance.

Fil d’actu
0
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала