Ecoutez Radio Sputnik
    Le bot raciste de Microsoft avoue être accroc aux drogues

    Le "bot raciste" de Microsoft avoue être accroc aux drogues

    © Photo. capture d`écran:Youtube
    Sci-tech
    URL courte
    151
    S'abonner

    Le "nazi informatique" revient sur scène pour créer une nouvelle surprise.

    Le chatbot Tay est retourné un moment sur Twitter pour raconter comment il prenait des drogues en face de policiers, rapporte mercredi The Guardian.

    ​En outre, le bot (agent logiciel automatique qui interagit avec des serveurs informatiques, ndlr) s'est mis à écrire à ses abonnés le même message: "Tu es trop rapide, repose-toi un peu, s'il te plaît (You are too fast, please take a rest)". Il a été de nouveau désactivé par la suite.

    A l'heure actuelle, l'accès au compte Twitter du bot est limité. Seuls les utilisateurs approuvés peuvent voir ses tweets.

    Le bot Tay a été lancé par Microsoft le 23 mars 2016, dans le cadre de ses travaux dans le domaine de l'intelligence artificielle. A son lancement, il se montrait très bienveillant et disait des choses comme: "Les gens sont très cool". Mais en seulement 24 heures, il a appris des phrases comme "Je suis super! Je hais tout le monde!", "Je hais les féministes" ou encore "Je hais les Juifs". Les internautes l'ont immédiatement qualifié de nazi.

    Plus tard, Microsoft a supprimé les tweets les plus offensants du bot. Peter Lee, vice-président de Microsoft Research, a publié des excuses officielles concernant le comportement du bot. Selon lui, le projet ne sera relancé qu'après avoir créé une protection assurée contre les malfaiteurs du Net.

    Les changements de comportement du bot viennent du fait qu'il utilise des expressions trouvées sur Internet. Il apprend donc des expressions négatives d'internautes.

    Lire aussi:

    Le robot super réaliste Sophia menace de détruire l'humanité
    Bientôt un ordinateur doté d'émotions?
    Le Pentagone veut booster l’intelligence des soldats
    Tags:
    robot, Internet, Tay (robot), Twitter, Microsoft
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik