Votre inscription a été enregistrée avec succès!
Merci de cliquer sur le lien envoyé par courriel sur

Experts: "les robots militaires peuvent devenir la kalachnikov de demain"

S'abonner
Plus d’un millier de spécialistes en intelligence artificielle et en robotique ont lancé un appel sous forme de lettre ouverte pour avertir sur les dangers de "la course aux armements autonomes dotées d’IA".

Cette lettre a été présentée lors d'une Conférence internationale sur l'intelligence artificielle à Buenos-Aires, en Argentine. Elle a été signée par le dirigeant de la société Tesla Motors, Elon Musk, le cofondateur de la société Apple, Steve Wozniak, le développeur et le concepteur de jeux vidéo, Demis Hassabis, le professeur de mathématiques à l'université de Cambridge, Stephen Hawking, ainsi que plus de mille autres chercheurs spécialisés dans l'intelligence artificielle et en robotique.

"Le développement d'armements autonomes dotées d'IA a atteint un point où leur déploiement est possible d'ici quelques années, moins d'une décennie. Actuellement, les armes létales autonomes peuvent être considérées comme étant la troisième révolution dans les technologies militaires après la poudre à canon et les armements nucléaires", ont-ils déclaré.

Dwarf galaxy NGC 4214 - Sputnik France
Stephen Hawking va rechercher une intelligence extraterrestre
Les auteurs de la lettre sont persuadés que si un des pays décide de développer des systèmes capables de choisir une cible et faire la guerre sans intervention humaine, une nouvelle course aux armements, identique à la course aux armes nucléaires verra le jour. Mais "comme la création d'armes autonomes ne demande pas de matière première spécifique, à la différence de la production d'une bombe nucléaire, il est plus difficile de la contrôler", font-ils remarquer.

Ainsi, "les armes autonomes peuvent devenir la kalachnikov de demain. La question clé qui se pose actuellement devant l'humanité est la suivante, faut-il commencer la course aux armements autonomes dotées d'IA ou faut-il conjurer cette menace", ont-ils souligné.

Fil d’actu
0
Les plus récents d'abordLes plus anciens d'abord
loader
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала