L’intelligence artificielle est-elle si différente ? - Marketing is Dead
26328
post-template-default,single,single-post,postid-26328,single-format-gallery,ajax_fade,page_not_loaded,,select-theme-ver-2.3,wpb-js-composer js-comp-ver-4.5.3,vc_responsive
 

L’intelligence artificielle est-elle si différente ?

L’intelligence artificielle est-elle si différente ?

Le 23 mars 2016 débarque une nouvelle utilisatrice sur Twitter, une adolescente lambda, fan de Taylor Swift et de Kanye West, et néanmoins capable d’envoyer près de 100 000 tweets en près de … 8 heures : quelle agilité !

En réalité, Tay est intelligence artificielle développée par Microsoft, capable d’entrer en conversation sur les réseaux sociaux ; et de fait, le succès est immédiat : plus de 23 000 abonnés en moins de 24 heures, même si ses réponses apparaissent bien banales.

Sauf que très rapidement, Tay dérape : « Bush est responsable du 11 septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir » ; précision : le singe, c’est Barack Obama.

On débranche, on rebranche, on redébranche Tay, puis Microsoft finit par jeter l’éponge, après avoir tenté d’expliquer : « Plus vous tchattez avec Tay, plus elle devient intelligente, afin que l’expérience soit plus personnalisée pour vous » ; il semblerait qu’un certain nombre d’internautes se soient un peu amusés à la provoquer pour voir ses réactions …

… et finalement, Tay est devenue comme ses interlocuteurs : complètement raciste !

Bis repetita : Scatter Lab, une startup coréenne, vient de désactiver son chatbot  conversationnel, Lee Luda, qui œuvrait via Facebook Messenger, après qu’elle a expliqué que les personnes à l’origine de #MeToo étaient « juste des ignorants », qu’elle « méprisait complètement » ; et qu’elle « préférerait mourir » plutôt que de vivre avec une personne handicapée … excusez du peu !

Comme Tay, cette intelligence artificielle était censée apprendre de ses pairs – comprendre : des étudiante(s) de 20 ans auxquel(le)s elle était supposée ressembler, et avec qui elle devait lier des liens affectifs.

Y a-t-il eu, comme pour Tay, « provocation » de la part d’internautes facétieux pour voir jusqu’où on pouvait titiller une AI au point de la faire déraper ? Pas évident ici …

Ces intelligences artificielles, à défaut de remplir correctement leur mission conversationnelle sur les médias sociaux, nous renseignent incontestablement – hélas ! – sur les « intelligences humaines » avec lesquelles elles sont entrées en discussion : racistes, sexistes, ignobles !

Tay, dans ses derniers messages, semblait rouler pour Trump, son « seul espoir » : aujourd’hui le New York Times publie « The Complete List of Trump’s Twitter Insults » … il y a du monde !

Finalement, il suffisait de suivre Tay sur Twitter en 2016 pour anticiper l’élection de son favori Donald Trump … ce qui ne nous rassure guère sur l’état d’esprit de la jeunesse coréenne d’aujourd’hui ! Osons espérer qu’aucune startup française ne se lance dans l’aventure sur les réseaux sociaux français, car quand je lis les commentaires qui pullulent tant sur Facebook que sur LinkedIn, je crains le pire … une France bien raciste, bien sexiste, et complotiste à souhait !

Pas de commentaires

Réagissez !

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.