www.zejournal.mobi
Vendredi, 26 Avr. 2024

Microsoft débranche son robot intelligent devenu raciste et pro-nazis en 24 heures

Auteur : RT (Russie) | Editeur : Walt | Jeudi, 04 Mai 2017 - 21h46

Microsoft a lancé Tay, une intelligence artificielle sensée apprendre de ses conversations avec les internautes. Une expérience technique intéressante pour le géant de l’informatique mais qui a tourné au vinaigre.

«Hitler avait raison je déteste les juifs», «Je hais ces **** de féministes et elles devraient toutes mourir et brûler en enfer». Oops ! Ce ne sont pas les propos d'un groupe néonazi, mais les tweets de Tay, la dernière merveille technologique de Microsoft, qui devant le flot d'injures racistes, misogynes et homophobes proférés par sa petite machine, a du la remettre au placard.

«Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu’elle réponde de manière inappropriée», s’est excusé Microsoft dans un communiqué.  

Tout avait pourtant bien commencé. Microsoft avait réalisé une prouesse technologique en lançant sur la toile un robot capable de dialoguer avec les internautes sur Twitter ou GroupMe, le tout en apprenant au fur et à mesure de ses conversations. La firme avait donné l’apparence d’une jeune adolescente naïve à l’IA. La belle expérience n’a duré que 24 heures. Une longue journée après laquelle Microsoft a du débrancher son robot qui avait absorbé, en quelques heures, le pire d’internet pour le déverser à son tour sur la toile. De quoi remettre en question les limites de l'intelligence artificielle...


- Source : RT (Russie)

Cela peut vous intéresser

Commentaires

Envoyer votre commentaire avec :



Fermé

Recherche
Vous aimez notre site ?
(230 K)
Derniers Articles
Articles les plus lus
Loading...
Loading...
Loading...