Votre inscription a été enregistrée avec succès!
Merci de cliquer sur le lien envoyé par courriel sur

Le "bot raciste" de Microsoft avoue être accroc aux drogues

© Photo capture d`écran:YoutubeLe "bot raciste" de Microsoft avoue être accroc aux drogues
Le bot raciste de Microsoft avoue être accroc aux drogues - Sputnik France
S'abonner
Le "nazi informatique" revient sur scène pour créer une nouvelle surprise.

Le chatbot Tay est retourné un moment sur Twitter pour raconter comment il prenait des drogues en face de policiers, rapporte mercredi The Guardian.

​En outre, le bot (agent logiciel automatique qui interagit avec des serveurs informatiques, ndlr) s'est mis à écrire à ses abonnés le même message: "Tu es trop rapide, repose-toi un peu, s'il te plaît (You are too fast, please take a rest)". Il a été de nouveau désactivé par la suite.

A l'heure actuelle, l'accès au compte Twitter du bot est limité. Seuls les utilisateurs approuvés peuvent voir ses tweets.

Robots - Sputnik France
Un bot bienveillant de Microsoft devenu nazi en 24 heures
Le bot Tay a été lancé par Microsoft le 23 mars 2016, dans le cadre de ses travaux dans le domaine de l'intelligence artificielle. A son lancement, il se montrait très bienveillant et disait des choses comme: "Les gens sont très cool". Mais en seulement 24 heures, il a appris des phrases comme "Je suis super! Je hais tout le monde!", "Je hais les féministes" ou encore "Je hais les Juifs". Les internautes l'ont immédiatement qualifié de nazi.

Microsoft - Sputnik France
Bot de Microsoft: excusez-nous, il ne déteste pas tout le monde!
Plus tard, Microsoft a supprimé les tweets les plus offensants du bot. Peter Lee, vice-président de Microsoft Research, a publié des excuses officielles concernant le comportement du bot. Selon lui, le projet ne sera relancé qu'après avoir créé une protection assurée contre les malfaiteurs du Net.

Les changements de comportement du bot viennent du fait qu'il utilise des expressions trouvées sur Internet. Il apprend donc des expressions négatives d'internautes.

Fil d’actu
0
Les plus récents d'abordLes plus anciens d'abord
loader
Pour participer aux discussions, identifiez-vous ou créez-vous un compte
loader
Chat
Заголовок открываемого материала