Ecoutez Radio Sputnik
    Un robot

    Le monde est-il au bord d'une nouvelle «guerre froide» avec les robots-tueurs?

    CC0 / Pixabay
    Sci-tech
    URL courte
    391

    Une interdiction de développer des technologies basées sur les principes de l’intelligence artificielle (IA) doit être mise en œuvre, supposent des PDG d’entreprises, dont Google et Skype. Ils s’engagent à ne jamais développer ce type d’armes en signant un texte collectif lors d’une conférence sur l’IA tenue à Stockholm.

    Lors d'une grande conférence sur l'intelligence artificielle intitulée International Joint Conference on Artificial Intelligence (IJCAI), qui vient de se terminer à Stockholm, les grands leaders mondiaux des hautes technologies se sont dressés contre des problèmes engendrés par l'intelligence artificielle à la suite d'une initiative du Future of Life Institute. 160 entreprises et 2.400 scientifiques se sont engagés à ne jamais créer et développer des armes létales autonomes, relate le site The Verge. Parmi les signataires de ce document figurent les dirigeants de Google, Deep Mind, Tesla et Skype.

    «Nous ne pouvons pas remettre la décision quant à savoir qui vit et qui meurt aux machines. Elles n'ont pas l'éthique pour le faire. Je vous encourage, vous et vos organisations, à vous engager à faire en sorte que la guerre ne devienne pas plus terrible de cette manière», a souligné l'un des auteurs de l'accord, Toby Walsh, professeur en intelligence artificielle à l'université de Nouvelle-Galles du Sud à Sydney, relate le site du Future of Life Institute.

    Les participants à la conférence appellent les gouvernements ainsi que l'Onu à harmoniser les lois et les règles internationales afin d'empêcher la création de robot-tueurs basés sur les principes de l'intelligence artificielle. Les experts soulignent qu'il faut bâtir un avenir où il sera impossible de développer des armes létales autonomes, car la décision de tuer un humain ne doit jamais être déléguée à la machine.

    L'initiative d'un tel accord a été lancée par Future of Life Institute, une association américaine à but non lucratif. Cet organisme s'occupait pendant la conférence à Stockholm de mettre en garde sur les problématiques de l'intelligence artificielle.

    «Étant une personne qui étudie la cybersécurité et l'utilisation de l'intelligence artificielle dans les drones, je suis inquiet par le fait que le monde puisse entrer, ou peut-être est même déjà entré, dans une nouvelle guerre froide, nourrie par l'IA», partage ses craintes dans l'un de ses articles le scientifique et directeur adjoint de l'Institut de recherche dans le domaine de la cybersécurité, Jeremy Straub.

    En juillet 2015, Elon Musk, Stephen Hawking, Noam Chomsky, Steve Wozniak et de nombreux autres scientifiques, hommes d'affaires, célébrités, chercheurs et spécialistes en robotique et intelligence artificielle ont signé une lettre ouverte mettant en garde les producteurs d'armes contre le développement de systèmes de combat dotés de l'intelligence artificielle. Les auteurs de cette tribune avaient indiqué que peu d'années nous séparaient du développement de systèmes de combat autonomes capables de prendre la décision d'ouvrir le feu en toute indépendance.

    Lire aussi:

    Perspective alarmiste: le démon de l'IA fera tomber l'empire humain d'ici 2050
    La Chine réussira-t-elle à créer l’intelligence artificielle «la plus intelligente»?
    Intelligence artificielle: Moscou et Pékin «en passe de devancer les systèmes américains»
    Tags:
    armements, cybermenaces, conférence, robot, intelligence artificielle, Internet Skype Technologies, Tesla Motors, Google, Elon Musk, Suède, Stockholm
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik