« Je suis un peu inquiet » : Warren Buffett compare l’IA à l’invention de la bombe atomique


Il affirme que « l’IA changera tout dans le monde, sauf la façon dont les hommes pensent et se comportent ».

Warren Buffett a confié ce week-end son inquiétude face aux avancées remarquables dans le domaine de l’IA. Le milliardaire américain a comparé l’IA à l’invention de la bombe atomique, se demandant si cette technologie serait bénéfique pour l’humanité dans les 200 prochaines années ou représenterait un danger. Selon Buffett, « l’IA devrait changer tout dans le monde, sauf la façon dont les hommes pensent et se comportent ». En outre, l’homme d’affaires nonagénaire, qui a précédemment déclaré avoir essayé ChatGPT récemment après que son ami Bill Gates lui a montré comment faire, a ajouté qu’il se méfiait des technologies qui tentent de tout faire.

L’IA générative est le mot à la mode actuellement et chaque PDG d’entreprise ou personnalité publique s’empresse de donner son avis ou de faire des prévisions sur la technologie au premier média qui lui temps le micro. Le week-end dernier, c’était au tour de Warren Buffett de dire ce qu’il pensait de cette technologie en plein essor lors de l’assemblé annuelle de Berkshire Hathaway, un conglomérat et une société d’investissement basé à Omaha dans le Nebraska aux États-Unis, dont il est le PDG. Durant la réunion annuelle de l’entreprise, Buffett a comparé la création de l’IA générative à l’invention de la bombe atomique durant la Second Guerre mondiale.

Buffett a déclaré avoir reçu une leçon sur la façon d’utiliser ChatGPT de la part de son ami Bill Gates, l’un des fondateurs de Microsoft. Mais ensuite, il a fait part de ses craintes quant à l’évolution rapide des programmes. Bien qu’il se soit dit impressionné par les vastes capacités de l’IA, il a déclaré qu’il préférait rester sur ses gardes : « lorsque quelque chose peut faire toutes sortes de choses, je suis un peu inquiet. Je sais que nous ne pourrons pas l’inventer et, vous savez, nous avons inventé, pour de très bonnes raisons, la bombe atomique pendant la Seconde Guerre mondiale », a déclaré le PDG de 92 ans lors de l’assemblée annuelle de l’entreprise.

« Il était extrêmement important que nous le fassions. Mais est-ce une bonne chose pour les 200 prochaines années du monde que la capacité de le faire aura été libérée ? », a poursuivi Buffett. Charlie Munger, vice-président de Berkshire Hathaway, qui a également assisté à la réunion, a également fait part de son scepticisme à l’égard de la technologie. « Je suis personnellement sceptique quant à l’engouement que suscite l’IA. Je pense que l’intelligence à l’ancienne fonctionne plutôt bien », a déclaré Munger, 99 ans. De son côté, Buffett a ajouté qu’il pense que « l’IA va changer tout dans le monde, sauf la façon dont les hommes pensent et se comportent ».

« Nous n’avions pas le choix, mais lorsque vous commencez quelque chose, Einstein a dit, après la bombe atomique, que cela avait tout changé dans le monde, sauf la façon dont les hommes pensent. Et je dirais la même chose, peut-être pas la même chose, ce n’est pas ce que je veux dire, mais je veux dire qu’avec l’IA, cela peut changer tout dans le monde, sauf la façon dont les hommes pensent et se comportent. Et c’est un grand pas à franchir », a déclaré Buffett. L’IA est sans doute le sujet technologique le plus brûlant depuis le boom de l’Internet et de plus en plus de personnalités influentes pourraient faire connaître leur point de vue à ce sujet.

Récemment, Geoffrey Hinton, largement connu comme l’un des « parrains de l’IA », a exprimé des préoccupations similaires en déclarant que l’IA pourrait constituer une menace « plus urgente » pour l’humanité que le changement climatique. Il a également déclaré que les chatbots pourraient bientôt dépasser le niveau d’information d’un cerveau humain. Hinton a quitté son poste chez Google pour être libre de parler des dangers de l’IA. Sa préoccupation immédiate : la désinformation. Sur le long terme, Hinton craint que l’IA, notamment l’IA générative, n’élimine les humains lorsqu’elle commencera à écrire et à exécuter son propre code informatique.

L’IA générative est devenue un mot à la mode cette année, avec des applications telles que ChatGPT qui ont attiré l’attention du public. Si les chatbots d’IA sont utilisés pour toute une série de tâches, on craint également qu’ils soient utilisés à mauvais escient. On craint également que l’IA ne supprime des dizaines de millions d’emplois. De nombreux entrepreneurs technologiques, dont Elon Musk, ont demandé un moratoire de 6 mois pour analyser en profondeur les risques liés à cette technologie et élaborer des règles strictes au tour de son développement, mais cet appel a été rejeté par le secteur en plein essor et hautement concurrentiel de l’IA.

« Il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde contenant tellement d’images et de textes truqués que plus personne ne serait en mesure de dire ce qui est vrai », prévient Hinton. Musk et ses pairs ont tenté de mettre en garde contre des risques existentiels pour l’humanité. « Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », peut-on lire dans la lettre. L’appel de Musk pour un moratoire a échoué et il investit maintenant des millions pour développer un rival de ChatGPT.

Musk pense notamment que ChatGPT est woke et défend les opinions de la gauche. Il veut créer une alternative qui respecte beaucoup plus l’éthique, soit impartial sur les questions d’ordres politiques et bien sûr, qui ne soit pas woke. Lors d’une interview le mois dernier, Musk a déclaré : « je vais lancer quelque chose que j’appellerai TruthGPT ou une IA qui recherche la vérité au maximum et qui essaie de comprendre la nature de l’univers. Je pense que c’est la meilleure voie vers la sécurité, dans le sens où une IA qui se soucie de comprendre l’univers ne risque pas d’anéantir les humains parce que nous sommes une partie intéressante de l’univers ».

Le natif de Pretoria a également réitéré ses mises en garde contre l’IA durant l’entretien, affirmant que « l’IA est plus dangereuse que, disons, une conception d’avion mal gérée ou une maintenance de production ou une mauvaise production de voitures ». Il a présenté TruthGPT comme une correction de trajectoire pour OpenAI, la société d’IA à but non lucratif qu’il a cofondée en 2015 et qui a depuis commencé à exploiter une filiale à but lucratif. Selon Musk, la recherche de profit pourrait potentiellement interférer avec l’éthique des modèles d’IA créés par OpenAI et a positionné TruthGPT comme une option plus transparente.

« Je ne comprends toujours pas comment une société à but non lucratif à laquelle j’ai fait un don de 100 millions de dollars est devenue une entreprise à but lucratif dont la capitalisation boursière s’élève à 30 milliards de dollars. Si c’est légal, pourquoi tout le monde ne le fait-il pas ? », a déclaré Musk dans l’une de ses récentes missives sur Twitter à l’encontre de la filiale à but lucratif du laboratoire, OpenAI Limited Partnership. Il affirme également que Microsoft tente de mettre la main sur la startup, la firme de Redmond a injecté plusieurs milliards de dollars dans OpenAI depuis 2019, ce qui lui confère un accès exclusif aux produits d’IA du laboratoire.

Dans une interview accordée à la BBC en 2014, Stephen Hawking a déclaré que le développement d’une IA complète pourrait « sonner le glas de l’espèce humaine ». Bien qu’il utilisait lui-même une forme élémentaire d’IA, il a averti que la création de systèmes intelligents qui rivalisent avec l’intelligence humaine ou la surpassent pourrait être désastreuse pour l’homme. Rappelons qu’il a utilisé son dispositif de communication de 1985 à sa mort le 14 mars 2018. « Les humains, qui sont limités par une évolution biologique lente, ne pourraient pas rivaliser et seraient supplantés », a déclaré le physicien théoricien et cosmologiste britannique.

Dans son dernier livre, « Brief Answers to the Big Questions », publié après sa mort en 2018, Hawking a affirmé que les ordinateurs « dépasseront probablement les humains en matière d’intelligence d’ici 100 ans. « Nous pourrions être confrontés à une explosion de l’intelligence qui aboutirait finalement à des machines dont l’intelligence dépasserait la nôtre de plus que la nôtre ne dépasse celle des escargots », a-t-il écrit. Il a appelé à former l’IA pour qu’elle s’aligne systématiquement sur les objectifs humains. En outre, il a averti que ne pas prendre au sérieux les risques associés à l’IA pourrait être « la pire erreur que l’humanité ait jamais faite .

Lire aussi : L’IA va accroître les inégalités et soulever des questions difficiles sur l’humanité, avertissent des économistes

Source : Developpez


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *