90 % du contenu en ligne pourrait être « généré par l’IA d’ici 2025 », selon une conférencière en IA


« Les choses qui nous émerveillent début 2023 vont sembler pittoresques d’ici la fin de l’année. »

L’IA générative, comme le ChatGPT d’OpenAI, pourrait complètement réorganiser la façon dont le contenu numérique est développé, a déclaré Nina Schick, conseillère et conférencière en IA : « Je pense que nous pourrions atteindre 90*% du contenu en ligne généré par l’IA d’ici 2025, donc cette technologie est exponentielle. » « Je crois que la majorité du contenu numérique va commencer à être produite par l’IA. Vous voyez ChatGPT… mais il y a toute une pléthore d’autres plateformes et applications qui arrivent. »

Les technologies génératives basées sur l’apprentissage machine semblent rencontrent un véritable succès. Par exemple, ChatGPT a dépassé le cap du million d’utilisateurs en seulement cinq jours.

Dans le milieu des chercheurs

Il faut dire que ChatGPT a beaucoup fait parler de lui et pour plusieurs raisons. Par exemple, un groupe de chercheurs dirigés par Catherine Gao de la Northwestern University de Chicago, dans l’Illinois, a utilisé ChatGPT pour générer des résumés d’articles de recherche artificiels afin de tester si les scientifiques peuvent les repérer.

Les chercheurs ont demandé au chatbot de rédiger 50 résumés de recherche médicale basés sur une sélection publiée dans JAMA, The New England Journal of Medicine, The BMJ, The Lancet et Nature Medicine. Ils les ont ensuite comparés aux résumés originaux en les faisant passer à travers un détecteur de plagiat et un détecteur de sortie AI, et ils ont demandé à un groupe de chercheurs médicaux de repérer les résumés générés par IA.

Les résumés générés par ChatGPT sont passés par le vérificateur de plagiat : le score d’originalité médian était de 100 %, ce qui indique qu’aucun plagiat n’a été détecté. Le détecteur de sortie AI a repéré 66 % des résumés générés. Mais les relecteurs humains n’ont pas fait beaucoup mieux : ils n’ont identifié correctement que 68 % des résumés générés et 86 % des résumés authentiques. Ils ont incorrectement identifié 32 % des résumés générés comme étant réels et 14 % des résumés authentiques comme étant générés par l’IA.

« ChatGPT rédige des résumés scientifiques crédibles », déclarent Gao et ses collègues dans la prépublication. « Les limites de l’utilisation éthique et acceptable des grands modèles de langage pour aider l’écriture scientifique restent à déterminer. »

Le milieu scolaire

ChatGPT s’est aussi invité dans les écoles. À Lyon, un professeur a remarqué de curieuses similitudes dans les copies rendues par la moitié de ses étudiants; il leur avait donné une semaine pour rédiger leurs devoirs. Si les mots différaient, leurs structures démonstratives et leurs exemples sont restés constamment les mêmes. C’est en se renseignant auprès de ses élèves que l’un d’eux a fini par avouer l’utilisation de ChatGPT dans la rédaction. « Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière », a raconté Stéphane Bonvallet. « On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. »

Stéphane Bonvallet raconte au Progrès en avoir discuté directement avec une étudiante. Elle reconnaît alors que la moitié de la promotion de 14 élèves ont eu recours à ChatGPT.

Les étudiants n’ont pas reçu de blâme pour cet usage, puisque l’utilisation d’outil de la même trempe que ChatGPT n’est pas proscrit par le milieu scolaire : « n’ayant pas de cadre interdisant actuellement cette pratique, j’ai été contraint de les noter », explique-t-il au quotidien. Puisque les autres notes étaient comprises entre 10 et 12,5, le professeur a choisi d’attribuer la même note de 11,75 à tous ces travaux qui se sont appuyés sur ChatGPT.

En se renseignant auprès de ses collègues, il a fait le constat que ce cas était loin d’être isolé.

« Cette pratique m’inquiète. Elle pose un véritable problème d’intégration des savoirs, car les élèves n’ont plus besoin d’effectuer la moindre recherche pour composer », a regretté le professeur.

Les médias

CNET, un média d’information technologique populaire, a discrètement utilisé l’aide d’une technologie d’automatisation sur une nouvelle vague d’articles explicatifs financiers, apparemment à partir de novembre de l’année dernière. En l’absence de toute annonce ou couverture officielles, il semble que cela ait été repéré pour la première fois par le spécialiste du marketing en ligne Gael Breton dans un tweet mercredi.

Les articles sont publiés sous l’appellation sans prétention de « CNET Money Staff » et englobent des sujets tels que « Que sont les frais NSF et pourquoi les banques les facturent-elles ? », « Quelle est la différence entre une banque et une coopérative de crédit ? » ou « Qu’est-ce que Zelle et comment ça marche ? »

Ce trait commun (des questions en guise de titre) ne donne évidemment pas une image complète, et donc le lecteur visitant le site n’aura probablement aucune indication que ce qu’il lit est généré par l’IA. Ce n’est que lorsque vous cliquez sur « CNET Money Staff » que la véritable « paternité » est révélée. « Cet article a été généré à l’aide de la technologie d’automatisation », peut-on lire sur une description déroulante, « et soigneusement édité et vérifié par un éditeur de notre équipe éditoriale ».

Et même la cybercriminalité

Du rapport de CheckPoint, il ressort que ChatGPT peut générer le code d’un logiciel malveillant capable de voler des fichiers précis sur un PC, de les compresser et de les envoyer sur un ordinateur distant. Cette intelligence artificielle peut aussi produire du code pour un outil logiciel qui installe une porte dérobée sur un ordinateur et ensuite télécharge d’autres logiciels malveillants à partir de cette dernière. La firme rapporte en sus que les cybercriminels peuvent s’en servir pour la mise sur pied de logiciels capables de chiffrer les fichiers du PC d’une cible. CheckPoint rapporte que ChatGPT ouvre ces possibilités à des individus avec de très faibles connaissances techniques.

La publication de CheckPoint est en phase avec celle de Matt Welsh de la startup Fixie.ai qui prédit que l’utilisation de l’intelligence artificielle est de nature à ouvrir la filière à tous : « L’on n’aura plus besoin d’être un expert en programmation informatique pour obtenir quelque chose d’utile d’une intelligence artificielle. »

Matt Welsh dépeint un futur dans lequel la filière informatique va passer de l’approche d’écriture des programmes informatique par des humains à celle de la mise à contribution d’agents d’intelligence artificielle au préalable entraînés pour remplacer les humains dans des activités comme le développement d’applications informatique. Le tableau ravive ainsi des craintes sur la perspective de voir l’intelligence artificielle surpasser les humains.

Autant de choses qui suscitent l’intérêt des investisseurs

Face à la montée en popularité de ChatGPT, Microsoft a amorcé les discussions avec OpenAI, propriétaire de ChatGPT, pour investir pratiquement 10 milliards de dollars. L’opération en ferait l’une des startups d’IA les plus précieuses sur le papier, bien qu’elle génère peu de revenus. Les sociétés de capital-risque Thrive Capital et Founders Fund seraient aptes à investir dans l’opération, qui totaliserait au moins 300 millions de dollars en ventes d’actions. Semafor a rapporté que Microsoft devrait également participer à l’opération.

[…]

Lire la suite sur Developpez

Lire aussi : Internet horrifié par CNET publiant secrètement des articles écrits par une IA


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *