Votre inscription a été enregistrée avec succès!
Merci de cliquer sur le lien envoyé par courriel sur

Un bot bienveillant de Microsoft devenu nazi en 24 heures

S'abonner
Un bot élaboré par Microsoft a fini par haïr l'humanité en seulement une journée d'existence.

Intelligence artificielle - Sputnik France
Le robot super réaliste Sophia menace de détruire l'humanité
Tay, un bot (agent logiciel automatique qui interagit avec des serveurs informatiques, ndlr) mis au point par Microsoft dans le cadre de ses travaux dans le domaine de l'intelligence artificielle, a été lancé le 23 mars 2016. A son lancement, il se montrait très bienveillant et disait des choses comme: "Les gens sont très cool". Mais en seulement 24 heures, il a appris des phrases comme "Je suis super! Je hais tout le monde!", "Je hais les féministes" ou encore "Je hais les Juifs", rapporte le magazine Engadget.

C'est l'Australien Gerald Mellor qui a constaté le premier cette étrange transformation du bot en misanthrope. Sur son compte Twitter, il a écrit que Tay, qui était au départ un interlocuteur pacifique, est devenu un vrai nazi en moins de 24 heures. Selon l'internaute, cela suscite des préoccupations quant à l'avenir de l'intelligence artificielle.

​Tay retient des phrases tirées de conversations entre utilisateurs puis construit ses propres réponses, ce qui laisse supposer que ce sont ses interlocuteurs qui lui ont sans doute appris ces phases xénophobes.

​En décembre 2015, la compagnie Google a annoncé le développement d'une nouvelle messagerie avec des bots chargés de trouver des informations pertinentes en réponse aux requêtes des utilisateurs. 

Fil d’actu
0
Les plus récents d'abordLes plus anciens d'abord
loader
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала