Un professeur surprend un étudiant en train de tricher avec le chatbot d’IA ChatGPT : « je suis terrorisé »


Il estime que ces outils pourraient aggraver la tricherie dans l’enseignement supérieur.

Un professeur de l’université de Caroline du Sud tire la sonnette d’alarme après avoir découvert que l’un de ses étudiants a utilisé ChatGPT, le nouveau chatbot d’IA du laboratoire OpenAI, pour rédiger sa dissertation. Le professeur estime que cette IA, vielle de quelques semaines à peine et facilement accessible au public, porte un nouveau coup à l’enseignement supérieur, déjà en proie à une tricherie endémique. Dans un message partagé sur sa page Facebook, il a souligné qu’il n’était pas le seul professeur dont les étudiants ont commencé par utiliser ce type de logiciel d’IA pour rédiger leurs dissertations.

En lançant ChatGPT au début du mois, OpenAI n’a sans doute pas pensé à la façon dont son modèle d’IA pourrait être détourné ou à la façon dont il pourrait impacter le monde. ChatGPT a tout de suite attiré l’attention de tous et serait même parvenu à s’introduire dans des endroits auxquels beaucoup ne s’y attendaient pas. À en croire des témoignages de professeurs d’université, les étudiants confient à ChatGPT la résolution de leurs devoirs de maison, notamment en dissertation. « Le monde universitaire n’a rien vu venir. Nous sommes donc pris au dépourvu », explique Darren Hudson Hick, professeur adjoint de philosophie à l’université Furman.

« Je l’ai signalé sur Facebook, et mes amis [professeurs] ont dit : ‘ouais ! J’en ai attrapé un aussi’ », a-t-il ajouté. Au début du mois, Hick aurait demandé à sa classe d’écrire un essai de 500 mots sur le philosophe écossais du 18e siècle David Hume et le paradoxe de l’horreur, qui examine comment les gens peuvent tirer du plaisir de quelque chose qu’ils craignent, pour un test à la maison. Mais selon le professeur de philosophie, l’une des dissertations qui lui sont parvenus présentait quelques caractéristiques qui ont “signalé” l’utilisation de l’IA dans la réponse “rudimentaire” de l’étudiant. Hick explique que cela peut être détecté par un œil avisé.

« C’est un style propre. Mais il est reconnaissable. Je dirais qu’il écrit comme un élève de terminale très intelligent », a expliqué Hick à propos des réponses apportées par ChatGPT aux questions. « Il y avait une formulation particulière qui n’était pas fausse, mais juste étrange. Si vous deviez enseigner à quelqu’un comment écrire des essais, c’est ce que vous lui diriez avant qu’il crée son style », a-t-il ajouté. Malgré sa connaissance de l’éthique du droit d’auteur, Hick a déclaré qu’il était presque impossible de prouver que le document avait été concocté par ChatGPT. Le professeur affirme avoir fait appel à un logiciel de vérification de plagiat.

Tout d’abord, il a introduit le texte suspect dans un logiciel conçu par les producteurs de ChatGPT pour déterminer si la réponse écrite avait été formulée par l’IA. Il a obtenu une correspondance probable à 99,9 %. Mais contrairement à un logiciel standard de détection du plagiat – ou à un devoir universitaire bien rédigé – le logiciel ne proposait aucune citation. Hick a ensuite essayé de produire le même essai en posant à ChatGPT une série de questions qu’il imaginait avoir été posées par son étudiant. Le professeur affirme avoir obtenu des réponses similaires, mais aucune correspondance directe, car l’outil formule des réponses uniques.

Finalement, Hick a confronté l’étudiant, qui a avoué avoir utilisé ChatGPT et a échoué au cours en conséquence. L’étudiant a également été remis au doyen de l’école. Mais Hick craint que d’autres cas soient presque impossibles à prouver et que lui et ses collègues soient bientôt inondés de travaux frauduleux. Des universités comme Furman chercheraient à établir des protocoles académiques formels pour cette technologie en développement. Pour l’instant, Hick dit que le mieux qu’il peut faire est de surprendre les étudiants suspects avec des examens oraux impromptus, en espérant les prendre au dépourvu sans leur armure technologique.

« Si quelqu’un tape une invite dans ChatGPT et la soumet directement pour un devoir, ce ne sera probablement pas trop difficile à attraper. Du moins pour l’instant. La partie la plus délicate sera d’attraper les étudiants suffisamment avisés pour obtenir la rédaction de l’IA, puis la réécrire dans leur propre style et corriger les erreurs. Cela conduira probablement à devoir écrire des dissertations en personne en classe, ou à avoir des exigences clés qu’ils savent que l’IA ne peut pas faire », analyse un critique. Selon lui, les années à venir risquent d’être critiques pour le monde de l’enseignement si les autorités ne font pas face à cette menace de l’IA.

ChatGPT est l’un des phénomènes Internet de l’heure tant les internautes s’émerveillent de ses “aptitudes”. Certains le qualifient même de remplaçant de Google étant donné qu’il est capable de donner de façon directe des solutions à des problèmes complexes. Par exemple, ChatGPT a réussi l’édition 2022 de l’examen d’informatique pour élèves du secondaire désireux d’obtenir des crédits universitaires aux États-Unis. Le chatbot ravive ainsi les débats sur la possible disparition du métier de développeur en raison de la montée en puissance de l’IA. Se sentant en danger, Google a lancé une alerte rouge à ses équipes pour développer un concurrent à ChatGPT.

Par ailleurs, ce n’est pas la première fois qu’un modèle d’IA d’OpenAI est utilisé pour tenter de tromper la vigilance des gens, parfois même des personnes les plus avisées. En août 2020, un faux billet de blogue généré par GPT-3, une autre IA de traitement du langage naturel (NLP) d’OpenAI, a trompé des dizaines de milliers de personnes, car il était étonnamment bien écrit pour automate. Le billet de blogue, publié par Liam Porr, étudiant à l’université de Californie à Berkeley, s’est même hissé parmi les sujets les mieux classés sur le site communautaire Hacker News. Porr a déclaré qu’il voulait prouver que GPT-3 pouvait tromper les gens.

Le premier billet de Porr (celui qui a été publié sur Hacker News), et tous les billets suivants, ont été copiés-collés à partir de l’une des versions, avec peu ou pas de modifications. Selon lui, c’est facile de travailler avec GPT-3 et cela nécessite peu de temps. « C’était super facile en fait. Depuis le moment où j’ai eu l’idée et où j’ai pris contact avec le doctorant jusqu’à la création du blog et le premier blog devenu viral, il m’a fallu quelques heures », a-t-il déclaré. Notons qu’en février 2019, OpenAI a fait la une des journaux avec GPT-2, une version antérieure de l’algorithme, qu’il a annoncé qu’il retiendrait par crainte d’abus.

Le laboratoire a toutefois fini par publier le modèle en novembre 2019. Cela dit, compte tenu des potentialités de GPT-3, OpenAI a décidé de procéder autrement. Il a décidé de donner accès à l’API de GPT-3 aux chercheurs dans une version bêta privée, plutôt que de le rendre disponible à tout le monde. Porr, qui est étudiant en informatique à l’université de Californie à Berkeley, a pu trouver un doctorant qui avait déjà accès à l’API et qui a accepté de travailler avec lui sur l’expérience. Poor pense que « l’écriture » de GPT-3 pourrait remplacer les producteurs de contenu, mais il espère que cela n’arrivera pas.

Les récentes prouesses dans le domaine de l’intelligence artificielle – qu’il s’agisse des modèles d’IA d’OpenAI (GPT-3, Dall-E 2, ChatGPT, Point-E, etc.) ou des modèles d’IA concurrents, tels que Stable Diffusion et Midjourney AI – ont accentué les débats sur la suppression de certains emplois au profit de l’IA, ainsi que sur les risques et les préoccupations inhérents à cette technologie. Récemment, Matt Welsh, PDG de la startup d’IA Fixie.ai, a déclaré qu’“écrire des programmes à la main devrait être dépassé dans les années à venir”. Selon lui, les programmeurs humains finiront par céder la place à des intelligences artificielles adaptatives.

Avant cela, plusieurs artistes se sont révoltés contre les œuvres d’art générées par l’IA sur le site de portfolios ArtStation, appartenant au développeur de jeux vidéo Epic Games. Ils ont manifesté leur mécontentement en inondant la plateforme d’images portant le message : “non aux images générées par l’IA”. En quelques jours, les images ont été téléchargées des milliers de fois et dominaient la page des tendances du site. Les utilisateurs d’ArtStation ne veulent pas qu’une plateforme qu’ils utilisent pour partager les œuvres de l’esprit soutienne des images que l’IA a générées par “le vol du travail artistique et de la créativité”.

La question est donc de savoir comment tirer profit des avancées de l’IA sans supprimer des emplois ou reléguer à un rang inférieur les œuvres de l’esprit ou la créativité humaine. En attendant des approches de solution, l’IA continue de se développer à une vitesse impressionnante et les uns et les autres sont souvent surpris par les nouvelles. En outre, l’utilisation de plus en plus croissante des robots fait l’objet de débat. Beaucoup suggèrent désormais de taxer les robots pour inciter les entreprises à conserver les travailleurs, tout en compensant une partie des charges sociales perdues par une réduction des effectifs.

Lire aussi : Elon Musk met en garde contre le « grand danger qu’il y a à entraîner l’IA à mentir » après l’interdiction faite à ChatGPT de promouvoir les combustibles fossiles

Sources : DeveloppezDarren Hudson Hick


Vous aimerez aussi...

2 réponses

  1. solaire dit :

    songez ” qu’ils “= nos très chers mondialistes richissimes – se servent déjà de l’IA et pas nouveau !
    ( nourrie jusqu’à la gueule de VOS IMAGES et autres données..) pour faire du ” prédictif sur le monde à venir ” le meilleur…pour EUX < sans nul doute
    ce * dans tous les domaines dont la SANTE – la surpopulation- l'instruction – la religion – la FINANCE à vitesse grand V = 6G
    et même les guerres à venir ( géo-stratégie et géo-ingénierie via les modif.climats )
    du pain béni pour la politique bien évidemment ( quels PIONS et à quel endroit ?..) " …change "
    copier/coller :
    du déjà vu en somme

  2. Star dit :

    Les I.A. prédictives ne fonctionne pas encore dans les univers complexes, soit il y a trop de variable ou trop de donnée ou les deux. C’est ce qui était arrivé au modèle météo quand on s’est dit que l’amputation des millionièmes ne changerais pas la prédiction et il n’ont pas vu venir une des plus gros tempêtes de l’histoire alors que leur nouveau calculateur était x fois plus puissant.
    Pareil avec l’I.A. qui contrôle la Chine, ça marche bien quand le système n’est pas trop sollicité par contre aux heures de pointes ou lors d’émeute ou lors d’attaque informatique, le système n’est pas assez prédictifs parce qu’il ne peut pas voir dans le futur et optimiser. A ce moment là, il ne fluidifie plus rien et ce contente de gérer au cas par cas. Donc il lague parce qu’il ne supporte pas la monté en charge comme 99.99% des systèmes informatiques. C’est fini l’époque ou on avait de la réserve sous le pied.

    Le ChatGPT, c’est plutôt un chouchou du prof Wikipédia avec un Bac Woke. Il est là en phase de teste pour remplacer les cadres de bases. Clerc, Notaire, secrétaire médicale, Comptable etc… et généralisé le télétravail.

    C’est la suite de la désindustrialisation et de l’agenda 2030 pour cité leur nom.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *