Ecoutez Radio Sputnik
    Microsoft

    Bot de Microsoft: excusez-nous, il ne déteste pas tout le monde!

    © AFP 2019 FRED DUFOUR
    Insolite
    URL courte
    7212
    S'abonner

    Un bot élaboré par la société Microsoft et appelé Tay faisait bonne impression au début quand il a exprimé ses ressentis positifs des êtres humains. Mais il a fini par haïr le monde entier en écrivant des messages xénophobes. Microsoft l’a mis offline et a été obligé de s’excuser.

    Le bot est un agent logiciel automatique qui interagit avec des serveurs informatiques. Le bot Tay a été créé par Microsoft dans le cadre de travaux dans le domaine de l'intelligence artificielle.

    Eh bien, les phrases diffusées par Tay vers la fin de sa première journée d'existence, le 23 mars dernier, n'étaient pas intelligentes du tout. Il a commencé à détester l'humanité, en particulier, les féministes et les Juifs.

    Microsoft a finalement décidé de fermer cette application, et Peter Lee, vice-président de Microsoft Research, a publié, vendredi dernier, des excuses officielles concernant le comportement du bot.

    Selon M.Lee, le projet a subi de multiples tests destinés à assurer ses créateurs qu'il n'adopte pas une pareille attitude. Mais comme le bot utilise des expressions trouvées sur Internet, et sous pression de certains internautes, il s'est mis à écrire des phrases xénophobes, explique le responsable de Microsoft.

    M.Lee déclare que Tay ne reviendra que si les ingénieurs de Microsoft sont certains qu'une pareille histoire ne puisse se répéter. Il est effectivement mieux de garder le silence plutôt que d'exprimer de la haine envers tout le monde.

    Lire aussi:

    Un ordinateur était à deux doigts de gagner un prix littéraire
    Bientôt un ordinateur doté d'émotions?
    Un ordinateur un million de fois plus efficace énergétiquement devient réalité
    Microsoft va stocker en Allemagne les données de ses clients européens
    Tags:
    test, intelligence artificielle, informatique, Microsoft, États-Unis
    Règles de conduiteDiscussion
    Commenter via FacebookCommenter via Sputnik