Sci-tech
URL courte
391
S'abonner

Une interdiction de développer des technologies basées sur les principes de l’intelligence artificielle (IA) doit être mise en œuvre, supposent des PDG d’entreprises, dont Google et Skype. Ils s’engagent à ne jamais développer ce type d’armes en signant un texte collectif lors d’une conférence sur l’IA tenue à Stockholm.

Lors d'une grande conférence sur l'intelligence artificielle intitulée International Joint Conference on Artificial Intelligence (IJCAI), qui vient de se terminer à Stockholm, les grands leaders mondiaux des hautes technologies se sont dressés contre des problèmes engendrés par l'intelligence artificielle à la suite d'une initiative du Future of Life Institute. 160 entreprises et 2.400 scientifiques se sont engagés à ne jamais créer et développer des armes létales autonomes, relate le site The Verge. Parmi les signataires de ce document figurent les dirigeants de Google, Deep Mind, Tesla et Skype.

«Nous ne pouvons pas remettre la décision quant à savoir qui vit et qui meurt aux machines. Elles n'ont pas l'éthique pour le faire. Je vous encourage, vous et vos organisations, à vous engager à faire en sorte que la guerre ne devienne pas plus terrible de cette manière», a souligné l'un des auteurs de l'accord, Toby Walsh, professeur en intelligence artificielle à l'université de Nouvelle-Galles du Sud à Sydney, relate le site du Future of Life Institute.

Les participants à la conférence appellent les gouvernements ainsi que l'Onu à harmoniser les lois et les règles internationales afin d'empêcher la création de robot-tueurs basés sur les principes de l'intelligence artificielle. Les experts soulignent qu'il faut bâtir un avenir où il sera impossible de développer des armes létales autonomes, car la décision de tuer un humain ne doit jamais être déléguée à la machine.

L'initiative d'un tel accord a été lancée par Future of Life Institute, une association américaine à but non lucratif. Cet organisme s'occupait pendant la conférence à Stockholm de mettre en garde sur les problématiques de l'intelligence artificielle.

«Étant une personne qui étudie la cybersécurité et l'utilisation de l'intelligence artificielle dans les drones, je suis inquiet par le fait que le monde puisse entrer, ou peut-être est même déjà entré, dans une nouvelle guerre froide, nourrie par l'IA», partage ses craintes dans l'un de ses articles le scientifique et directeur adjoint de l'Institut de recherche dans le domaine de la cybersécurité, Jeremy Straub.

En juillet 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak et de nombreux autres scientifiques, hommes d'affaires, célébrités, chercheurs et spécialistes en robotique et intelligence artificielle ont signé une lettre ouverte mettant en garde les producteurs d'armes contre le développement de systèmes de combat dotés de l'intelligence artificielle. Les auteurs de cette tribune avaient indiqué que peu d'années nous séparaient du développement de systèmes de combat autonomes capables de prendre la décision d'ouvrir le feu en toute indépendance.

Lire aussi:

Macron: quand «votre famille parle l'arabe, c'est une chance pour la France»
L’hiver arrive: la France est-elle dans une situation «prérévolutionnaire»?
Caricatures de Mahomet: Daech «prépare des attentats en Europe à Noël», selon un ex-agent du MI6
Une «méga-catastrophe» menace les États-Unis, selon des experts
Tags:
armements, cybermenaces, conférence, robot, intelligence artificielle, Internet Skype Technologies, Tesla Inc., Google, Elon Musk, Suède, Stockholm
Règles de conduiteDiscussion
Commenter via SputnikCommenter via Facebook