Ecoutez Radio Sputnik
    Un interrupteurGoogle

    Google créera un interrupteur pour l'intelligence artificielle

    © Flickr/ Derek Gavey © AP Photo / Keystone, Walter Bier, file
    1 / 2
    Sci-tech
    URL courte
    3422

    Les spécialistes en intelligence artificielle tentent de trouver des moyens pour que les ordinateurs n'apprennent pas à exterminer l'humanité.

    Les spécialistes en intelligence artificielle tentent de trouver des moyens pour que les ordinateurs n'apprennent pas à exterminer l'humanité.

    L'idée que le soulèvement des robots est possible existe depuis l'apparition de l'intelligence artificielle.

    Ce problème inquiète la société américaine Google qui a décidé de prendre les premières mesures concrètes pour qu'un tel soulèvement ne se produise jamais.

    DeepMind, le laboratoire de recherche appartenant à Google qui s'occupe de l’intelligence artificielle, et l'Institut pour le futur de l'humanité de l'Université d'Oxford (FHI) ont publié un document qui porte sur les consignes de sécurité permettant de comprendre comment contrôler et arrêter les robots en cas d'urgence. Il s'agit d'un "bouton rouge" spécial pour éteindre l'intelligence artificielle.

    Le document décrit également des mesures qui permettront de mettre fin aux tentatives des robots d'échapper au contrôle de l'homme.

    Ces mesures semblent excessives, vu que l'intelligence artificielle la plus performante n'est capable que de jouer aux jeux de société. Cependant, Nick Bostrom, le directeur de l'institut, estime que l'humanité doit être prête à un soulèvement possible des robots avant qu'elle ne commence à créer une intelligence artificielle semblable au cerveau humain.

    Lire aussi:

    Une intelligence artificielle bientôt créée en Russie ?
    L'intelligence artificielle va jouer au poker
    Une intelligence artificielle défendra Wikipédia contre le vandalisme
    Tags:
    intelligence artificielle, informatique, robot, Google, Université d'Oxford, Nick Bostrom, Oxford, États-Unis
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik