L’IA générative, par Yann Gourvennec
L’IA générative, le nouvel Eldorado … ou le nouveau Métavers ?
Tandis que chantres de l’IA générative regardent le verre à moitié plein, ses détracteurs contemplent le verre à moitié vide : mais où se situe la réalité, dans tout ça ? Pour (tenter de) y répondre, le 7 février au matin, le Pôle Prospective de l’Adetem, donnera la parole aux ingénieurs qui la font.
Pour vous mettre l’eau à la bouche, un rapide interview de. Yann Gourvennec, PDG et fondateur de Visionary Marketing.
Question : Alors, l’IA générative, le nouvel Eldorado … ou le nouveau Métavers ?
Yann Gourvennec : Ni l’un ni l’autre. Il serait il serait complètement stupide de ne pas reconnaître que le mot numérique de l’année a été IA générative. Et cela est normal. Depuis 70 ans qu’on attendait une démonstration intéressante des expériences de l’intelligence artificielle, pour le coup, nous avons été servis ! Toutefois, il ne faut pas se laisser porter par son enthousiasme, ni son pessimisme. Je trouve aussi d’ailleurs que se limiter aux IA génératives c’est passer à côté de beaucoup de choses intéressantes dans les domaines de l’IA, notamment la reconnaissance naturelle du langage (NLP). Je considère qu’il y a trois types d’outils :
1/ Ceux que j’appelle “discrets” qui réalisent des tâches qui ne sont pas censées remplacer les humains (faire des transcriptions, des traductions, des corrections orthographiques, grammaticales, des contractions de vidéo, de texte, etc.) Et ce sont pour moi les plus intéressantes de toutes, car elles permettent de gagner véritablement en efficacité. Ce sont mes outils de tous les jours. Depuis des dizaines d’années pour certains.
2/ La deuxième catégorie d’applications est celle des IA génératives d’images que je trouve intéressantes, mais dont il faut aussi se méfier. Elles ont tendance à produire des images assez stéréotypées et il faut passer beaucoup de temps sur elles pour les améliorer, souvent en combinant plusieurs outils.
3/ Troisième catégorie, les LLM avec notamment ChatGPT, depuis peu mis à disposition par Microsoft au travers de copilot sur nos téléphones, mais aussi sur les Mac quand ils sont équipés des puces M1 et plus. Là, mon avis est beaucoup plus partagé. Je n’ai pas encore trouvé de cas concrets utiles dans mon métier ni de gain appréciable de productivité. Certes, ces IA produisent des textes, mais si on connaît le sujet, on passe plus de temps à aller vérifier et à corriger ce qu’elles disent. Sans mentionner des textes très standardisés et ampoulés. Autant faire le travail soi-même, notamment dans les domaines où l’expertise est requise. Je m’interdis d’ailleurs d’écrire des articles avec cet outil. Je ne vois pas l’intérêt d’aller sur un site d’information ou d’opinions si c’est pour lire un article qui a été écrit par une machine.
Donc en résumé, il faudra attendre encore de nombreuses années, et se méfier de l’illusion d’immédiateté. Paris et Rome ne se sont pas faits en un jour, l’intelligence artificielle non plus, j’en sais quelque chose j’ai commencé ma carrière dans ce domaine il y a 40 ans.
Question : Pour toi, concrètement, quelles sont les limités de l’AI générative, notamment en termes de crédibilité, d’éthique, etc. ?
Yann Gourvennec : Nous avons créé un collectif du contenu dit 100 % humain : https://visionarymarketing.com/fr/. Il regroupe des auteurs dont certains très connus comme Jérôme Bouteiller, Frédéric Cavazza, Hervé Kabla, et même François Laurent 😉 ces auteurs s’engagent à ne pas écrire avec les IA génératives. Pour cela, nous avons invoqué les limitations suivantes.
1/ Ce ne sont que des programmes, et non des personnes, elles ne pensent pas, elles n’ont pas d’opinion, de bon sens, ni de conscience (ce dernier point fait débat, mais simplifions).
2/ Le corpus de départ est fait de contenus “scrapés” et de bases de données traitées par méthodes statistiques sans souci du copyright. Une sérieuse limitation.
3/ L’absence de réflexion : À nouveau, ce sont des programmes, des outils statistiques de combinaison. En ce sens, ils offrent des points de vue aussi intéressants que les cadavres exquis des surréalistes (une des raisons pour lesquels les résultats produits sont parfois assez créatifs). Mais ce ne sont que des assemblages statistiques de phrases probables et plausibles ou quasi plausibles. En soi, les premiers n-grams ont été réalisés en 1956 sur des poèmes, et même si ChatGPT ou Bard ont largement progressé depuis lors, ce n’est pas si nouveau que cela. Un 3-gram produit déjà des phrases compréhensibles avec un code de 5 lignes.
4/ L’absence de sensibilité et d’émotion propres aux humains : Cela, nous ne pouvons le déléguer. Il serait aussi faux de croire que tout ce que nous faisons est rationnel, loin de là. Surtout en business-to-business.
5/ L’absence d’éthique enfin, car ces outils ne respectent pas les règles éthiques en faisant compléter leurs apprentissages en recourant à l’esclavage moderne.
Il y a encore beaucoup d’autres limitations notamment relatives à la standardisation, au caractère ampoulé des textes, aux couleurs criardes et répétitives des images, à la nécessité de répéter et de retravailler plusieurs fois les mêmes images et les mêmes textes. Les limites ne manquent pas, on ne peut les citer toutes ici.
Toutefois, il ne faut pas être négatif, ces outils peuvent être intéressants. Ou le seront un jour. Mais je reste convaincu que les outils dits « discrets » sont les plus immédiatement intéressants pour ce qui concerne la production de contenus. Ils ne sont pas là pour se substituer à nous ni ne nous empêchent de penser et en même temps ils nous permettent de gagner un temps incroyable. Depuis 20 ans j’écris des livres avec ces technologies et elles ne cessent de s’améliorer.
D’ailleurs, ces lignes ont été dictées à un ordinateur en allant presque aussi vite que ChatGPT et sans avoir à tout vérifier. En prime, c’est moi qui les ai pensées, et non un perroquet stochastique qui les a recrachées en combinant les phrases d’on ne sait qui.
Pour s’inscrire, c’est ici.
Pas de commentaires