L’IA pourrait dépasser l’humanité dans les 10 prochaines années – OpenAI demande des garde-fous


« Il est concevable que dans les dix prochaines années, les systèmes d’IA dépassent le niveau de compétence des experts dans la plupart des domaines… »

Une semaine après l’intervention du PDG de l’OpenAI devant une commission sénatoriale américaine pour évoquer les préoccupations du pays en matière d’intelligence artificielle (IA), Sam Altman a déclaré lundi qu’il était nécessaire de créer un organe de gouvernance pour atténuer les risques liés à cette technologie.

« Compte tenu de la situation actuelle, il est concevable que dans les dix prochaines années, les systèmes d’IA dépassent le niveau de compétence des experts dans la plupart des domaines, et qu’ils réalisent autant d’activités productives que l’une des plus grandes entreprises d’aujourd’hui », a déclaré le PDG dans un billet de blog.

Compte tenu de l’avalanche de développements dans le domaine de l’IA, il a laissé entendre que les futurs systèmes d’IA seront nettement plus performants que l’intelligence générale artificielle (IGA), un système capable de raisonner, de planifier et d’apprendre par l’expérience au même niveau que l’homme, voire plus que lui.

En fait, les chercheurs de Microsoft, le géant technologique qui a investi des milliards de dollars dans l’OpenAI, ont publié un document qui suggère que GPT-4 a fait de grands progrès dans l’application du bon sens et peut raisonner comme les humains. Ce document a suscité de vives critiques en raison d’une « affirmation exagérée », car le modèle de langage à grande échelle présente encore de nombreuses limites.

Garde-fous contre la superintelligence

Citant l’exemple de l’énergie nucléaire, M. Altman a déclaré que nous aurions bientôt besoin d’un organe directeur de l’IA semblable à l’Agence internationale de l’énergie atomique (AIEA), qui veille au cadre mondial de sûreté et de sécurité nucléaires afin de protéger les personnes et l’environnement contre les effets nocifs des radiations.

Appelant le public à s’exprimer sur le « risque existentiel » posé par l’IA, M. Altman a ajouté : « Nous pensons que les citoyens du monde entier devraient décider démocratiquement des limites et des valeurs par défaut des systèmes d’IA ».

Le lancement par OpenAI de son chatbot ChatGPT en novembre de l’année dernière a donné naissance à une révolution générative de l’IA. Toutes les entreprises technologiques de la planète ont cherché à améliorer leur technologie existante grâce à l’IA ou à mettre au point de nouveaux outils d’IA sur un marché désormais très concurrentiel. Si l’IA est appelée à avoir un impact sur la quasi-totalité des secteurs d’activité, des inquiétudes ont été exprimées quant au potentiel inconnu de l’IA. Par exemple, que se passera-t-il si les objectifs de la superintelligence ne correspondent pas aux intérêts de l’homme ?

Pour répondre à cette question, M. Altman s’est présenté le 16 mai devant le Congrès, cherchant à promouvoir les avantages de la technologie tout en limitant son utilisation abusive. Il a suggéré que les États-Unis envisagent d’imposer des exigences strictes en matière de licences et de tests pour le développement de modèles d’IA, comme Interesting Engineering l’avait déjà signalé.

Lire aussi : Elon Musk tire un frein d’urgence sur l’IA et admet un risque pour l’avenir de l’humanité

Source : Interesting Engineering – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *