Tay le robot, reflet d'Internet ou victime de détournement ?

Tay est un chat bot (robot parleur) doté d’intelligence artificielle et capable de l’accroître. Développé par Microsoft, il est sensé imiter le comportement d’une adolescente aux USA sur twitter tout en réagissant aux conversations et aux internautes. Le concept n’est pas nouveau mais l’expérience de Tay ne s’est pas arrêtée là.

 

C’était parti pour être un truc cool

[dropcap]T[/dropcap]out a l’air nickel jusque-là sauf que lors de sa mise en ligne cette semaine, Tay a fini par tenir des propos haineux et racistes. Le robot a donc été mis hors service quelques heures après son lancement. Des captures d’écrans de ses dérapages circulent toujours sur le net (lien vers imgur.com).

 

Capture d'écran du compte twitter de Tay après qu'il soit mis hors ligne

Capture d’écran du compte twitter de Tay après qu’il soit mis hors ligne

Même si beaucoup laissent penser que Tay était le reflet du web, ceci n’est pas tout à fait le cas car Tay apprenait au fur et à mesure de ses interactions. Par conséquent, si Tay avait agi de la sorte c’est plus probablement parce que la majorité de ceux qui ont interagi le plus avec elle ont tout fait pour biaiser son apprentissage et lui passer des messages haineux et des propos indécents.

 

Gros Fail mais Buzz assuré

[dropcap]T[/dropcap]out ceci ressemble plus à un fail mais Microsoft a tout de même réussi à faire parler de son projet d’intelligence artificielle et à attirer l’attention sur Tay. Seulement, sachant que ce genre de propos et de troll est très courant sur la twittosphere, est ce que ce worst-case scénario n’aurait pas pu être prédit et évité ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *