La programmation de la haine dans une IA sera controversée mais nécessaire


Depuis ces dernières années, le thème de l’intelligence artificielle (IA) a été poussé dans le courant dominant. Et pas seulement dans le domaine des fans de science-fiction, geeks ou des ingénieurs de Google, j’entends discuter IA lors des fêtes, des pauses cafés et même à table : Ma fille de cinq ans en a parlé l’autre soir pendant le repas. Quand je lui ai demandé si quelque chose d’intéressant était arrivé à l’école, elle a répondu que son professeur avait discuté des robots intelligents.

L’exploration de l’intelligence – qu’elle soit humaine ou artificielle – est finalement le domaine de l’épistémologie, l’étude de la connaissance. Depuis les premières réflexions au sujet de la création d’une IA, l’épistémologie semble avoir mené le débat sur la façon de le faire. La question que je entends le plus par le public dans ce domaine est : Comment les humains peuvent développer une autre conscience intelligente si nous ne pouvons même pas comprendre la nôtre ?

C’est une question avisée. Le cerveau humain, en dépit de faire seulement un peu plus d’un kilo, est l’organe dans le corps le moins bien compris. Et avec un milliard de neurones – 100 trillions de connexions – on peut clairement dire que ça va être une longue période avant que nous finissions par comprendre le cerveau.

Généralement, les scientifiques croient que la conscience humaine est une compilation de nombreux produits chimiques dans le cerveau qui produit une notion cognitive conçue pour qu’une entité soit consciente non seulement d’elle-même, mais aussi du monde extérieur.

Certaines personnes soutiennent que la clé essentielle à la conscience est la connaissance. Le philosophe et mathématicien français René Descartes a peut-être fait le premier pas en disant “je pense, donc je suis”. Mais la pensée ne définit pas suffisamment la conscience. La justification de la pensée est beaucoup plus proche de la signification qui est adéquate. Elle devrait être : Je crois que je suis conscient, donc je suis.

Mais même la connaissance ne sonne pas juste pour moi lors de la recherche d’une grande théorie de la conscience. Nous pouvons apprendre à un robot toute la journée à soutenir qu’il est conscient, mais nous ne pouvons pas lui apprendre à prouver que ce n’est pas un cerveau artificiel – chose que les gens ne peuvent toujours pas faire non plus.

Christof Koch, chef neuroscientifique à l’Institut Allen Brain Science, propose une version différente et holistique de la conscience. Il pense que la conscience peut se produire dans n’importe quel système de traitement complexe, y compris les animaux, les vers et peut-être même Internet.

Dans une interview, lorsqu’on lui a demandé ce qu’est la conscience, Koch a répondu : «Il y a une théorie, appelée la théorie de l’information intégrée, développé par Giulio Tononi à l’université du Wisconsin, qui assigne à n’importe quel cerveau, ou tout système complexe, un certain nombre – dénoté par le symbole grec Φ qui fournit différentes informations. Φ vous donne une mesure de l’information-théorique de la conscience. N’importe quel système avec des informations intégrées différentes du zéro a une conscience. N’importe quelle intégration ressemble à quelque chose”.

Si Koch et Tononi ont juste, alors ce serait une erreur de penser qu’une conscience ne pourrait jamais en égaler une autre. Ce serait des pommes et des oranges. Tout comme chaque flocon de neige est différent d’un autre, nous devons être sur nos gardes contre l’utilisation de préjugé anthropomorphe en pensant à la conscience.

De cette façon, la première super-intelligence autonome que nous créons via des machines peut penser et se comporter de manière radicalement différente à nous – à tel point qu’elle ne peut pas nous toucher, ou vice versa. Bien sûr une IA pourrait également mettre fin à son existence, en réalisant qu’elle est vivante et entourée par des humains curieux l’observant.

Quoi qu’il arrive, de la même manière qu’il y a le concept du relativisme culturel anthropologique, nous devons être prêts pour la relativisme moral – l’idée qu’une conscience puisse être totalement différente d’une autre, en dépit de l’espoir que les mathématiques, la logique et le codage seront des outils de communication évidents.

Cela fait même encore plus de sens lorsque vous considérez comment l’esprit étroit des humains et leur conscience peuvent actuellement être. Après tout, la quasi-totalité de notre perception provient de nos cinq sens, ce qui est la façon dont notre cerveau saisit la signification du monde. Et chacun de nos sens est assez pauvre en termes de capacité possible. L’œil, par exemple, ne voit environ que 1% du spectre lumineux de l’univers.

Pour cette raison, je suis réticent à soutenir que la conscience est une chose ou une autre, et penche vers la croyance que Koch et Tononi ont raison en disant que les variations de la conscience peuvent être observées dans de nombreuses formes à travers le spectre de l’existence.

Cela renforce aussi pourquoi je suis réticent à croire qu’une IA puisse être fondamentalement comme nous. Je présume qu’elle peut apprendre à répliquer notre comportement – peut-être même parfaitement – mais ce sera toujours quelque chose de différent. La reproduction est similaire au comportement d’une poupée mécanique. La plupart des humains espèrent beaucoup plus d’eux-mêmes et de leur conscience. Et, bien sûr, la plupart des ingénieurs en IA veulent beaucoup plus pour les machines auxquelles ils espèrent donner une conscience.

Malgré cela, nous allons toujours essayer de créer une IA avec nos propres valeurs et façons de penser, y compris en l’imprégnant des traits que nous possédons. Si je devais identifier un trait de comportement de la conscience que les humains ont tous et qui devrait également être inculqué à une IA, ce serait l’empathie. C’est l’empathie qui formera le type de conscience IA que le monde veut et à besoin – et c’est aussi ce que les gens peuvent comprendre et accepter.

D’autre part, si une conscience créée peut faire preuve d’empathie, alors elle doit également être en mesure d’apprécier ou ne pas apprécier – et même aimer ou détester quelque chose.

Là réside l’énigme. Une prise de conscience de porter des jugements sur la valeur, les fonctions d’amour et de haine doivent faire partie du système. Personne s’ennuie à penser qu’une IA puisse aimer – mais les machines super-intelligentes peuvent-elles haïr ? Ou se sentir triste ? Ou avoir un sentiment de culpabilité ? C’est beaucoup plus controversé – en particulier à l’âge des drones et où les machines contrôlent de façon autonome un armement.

Kevin LaGrandeur, professeur à l’Institut de technologie de New York, a récemment écrit : «Si une machine pourrait vraiment “ressentir” de la culpabilité à différents degrés, pourrions-nous alors avoir des problèmes de souffrance de la machine et des machines qui se “suicident” ?” Si nous développons une véritable intelligence artificielle forte, nous pourrions – et alors nous serions confrontés à un problème moral de la création d’un être souffrant.

Sujet épineux. Je n’envie pas les programmeurs qui s’efforcent d’apporter une super-intelligence dans notre monde, sachant que leurs créations peuvent aussi consciemment détester des choses – y compris ses créateurs. Cette programmation peut juste conduire à un monde où les robots et des intelligences artificielles connaissent les mêmes problèmes du monde moderne – l’angoisse, l’intolérance, la dépression, la solitude et la rage – qui affligent l’humanité.

Source : TechCrunch / Image : Oneinchpunch/Shuttershock


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *