Tay était une bonne idée de Microsoft: entraîner une intelligence artificielle en la laissant converser naturellement avec les utilisateurs de Twitter, dans le but d’améliorer sa jasette.
Tay devait être une adolescente sympathique et drôle: elle a été créé avec l’aide d’humoristes improvisateurs, question de lui donner de la répartie.
Malheureusement, après 24 heures, trop d’échanges avec des petits plaisantins (beaucoup lui demandaient de répéter des trucs pas très politically correct) l’avaient rendu raciste, méprisante envers les femmes. Et elle flirtait allègrement.
Comme un enfant à sa première journée à l’école: il apprend des mauvais mots, que les filles c’est des guénilles et les gars des soldats. Le soir venu, les parents ont besoin de faire une petite intervention.
Et c’est ce que Microsoft à fait: Tay est en ce moment en pause, question de laisser les programmeurs le temps de comprendre ce qui s’est passé.
Comme quoi même les intelligences intelligences artificielles ont besoin d’attention et de tendresse. C’est peut-être la meilleure façon pour qu’elles ne se tournent pas un jour contre nous, les pauvres humains…
P.
You must be logged in to post a comment.