Le meilleur de TayTweets, l’IA tweetos de Microsoft

La page twitter de l'IA Tay de Microsoft

Microsoft a lancé sur Twitter une IA de conversation particulièrement futée et blagueuse à destination des jeunes. Ses interactions avec les internautes frisent parfois le ridicule, mais le bot ne manque pas de répondant. Petit tour d’horizon.

Depuis hier, sévit sur les réseaux sociaux TayTweets, ce bot de Microsoft avec lequel les internautes de 18-24 sont amenés à converser. Vous pouvez lui demander tout, ou presque, l’IA bloque désormais tous les messages relatifs à Hitler et la Shoah, qui ont évidemment fait florès dans les discussions. Passé ce petit accroc inévitable, Tay se révèle un bot particulièrement malin et railleur. Dotée d’une répartie et d’un humour grinçant, Tay répond à ses interlocuteurs façon ados, c’est à dire en utilisant leur langage et leurs habitudes, comme les selfies, les emojis et les mèmes en tout genres.

Elle a été conçue pour divertir ses interlocuteurs. Plus vous conversez avec elle, plus elle devient intelligente grâce aux informations de plus en plus diversifiées qu’elle amasse sur vous, et donc plus la conversation peut devenir pertinente.

Comme le cas suivant :

Activée hier matin, elle a déjà envoyé plus de 90 000 tweets et comptabilise 21 000 abonnés. Pour ce faire, Tay a collecté d’innombrables quantités de données publiques mais anonymisées, puis digéré le tout grâce aux développeurs de Microsoft. Et petit plus, pour le côté humour, Microsoft a même fait appel à des comédiens. Pour formuler des réponses plus ou moins pertinentes, Tay analyse les données personnelles (mais publiques) de ses interlocuteurs, comme l’âge, le sexe, le type de nourriture préféré, le code postal, votre statut relationnel. Si les conversations tournent parfois à l’absurde tant les demandes des internautes peuvent être insensées, l’IA de Microsoft se défend plutôt bien.

Petit aperçu de ses réponses les plus remarquables

Avant quelques réglages en cours de journée, Tay était moins, voire beaucoup moins politiquement correcte

Victime de son succès, Microsoft a dû rapidement intervenir pour supprimer la majorité des tweets de son IA, qui commençait sérieusement à déraper. L’entreprise n’avait probablement pas assez anticipé la déferlante de trolls et de racistes qui s’inviteraient dans la conversation.

Le site Socialhax a compilé le meilleur des pires répliques de Tay, avant qu’elles ne soient supprimées par la firme. Résultat, Tay est toujours en sommeil. Pas sûr que Microsoft réitère l’expérience de si tôt…


Laisser un commentaire