Les robots tueurs existent déjà, et ils sont là depuis très longtemps

Les humains prendront toujours la décision finale de savoir si les robots armés peuvent tirer, selon une déclaration du ministère américain de la Défense.

Les robots tueurs

Leur clarification survient au milieu des craintes concernant un nouveau système de ciblage avancé, connu sous le nom d’ATLAS, qui utilisera l’intelligence artificielle dans les véhicules de combat pour cibler et exécuter les menaces. Alors que le public peut se sentir mal à l’aise avec ce que l’on appelle les “robots tueurs”, le concept n’est pas nouveau : des robots armés de mitrailleuses “SWORDS” ont déjà été déployés en Irak en 2007.

Notre relation avec les robots militaires remonte encore plus loin. En effet, lorsque l’on parle de “robot”, il peut s’agir de n’importe quelle technologie dotée d’une certaine forme d’élément “autonome” qui lui permet d’effectuer une tâche sans intervention humaine directe.

Ces technologies existent depuis très longtemps. Pendant la Seconde Guerre mondiale, la fusée de proximité a été mise au point pour faire exploser des obus d’artillerie à une distance prédéterminée de leur cible. Cela rendait les obus beaucoup plus efficaces qu’ils ne l’auraient été autrement en augmentant la prise de décision humaine et, dans certains cas, en retirant complètement l’humain de la boucle.

La question n’est donc pas tant de savoir si nous devons utiliser des systèmes d’armes autonomes au combat – nous les utilisons déjà et ils prennent de nombreuses formes. Nous devrions plutôt nous concentrer sur la manière dont nous les utilisons, pourquoi nous les utilisons et quelle forme, le cas échéant, l’intervention humaine devrait prendre.

Les robots tueurs

Les systèmes de visée autonomes ont vu le jour grâce à des innovations dans le domaine de l’armement antiaérien pendant la Seconde Guerre mondiale.

La naissance de la cybernétique

Mes recherches explorent la philosophie des relations homme-machine, avec un accent particulier sur l’éthique militaire et la façon dont nous distinguons les humains des machines. Pendant la Seconde Guerre mondiale, le mathématicien Norbert Wiener a jeté les bases de la cybernétique – l’étude de l’interface entre les humains, les animaux et les machines – dans ses travaux sur le contrôle du tir anti-aérien. En étudiant les écarts entre le mouvement prévu d’un avion et son mouvement réel, Wiener et son collègue Julian Bigelow ont mis au point le concept de la “boucle de rétroaction”, où les écarts pouvaient être renvoyés dans le système afin de corriger d’autres prédictions.

La théorie de Wiener allait donc bien au-delà de la simple augmentation, car la technologie cybernétique pouvait être utilisée pour devancer les décisions humaines – en retirant l’humain faillible de la boucle, afin de prendre des décisions meilleures et plus rapides et de rendre les armes plus efficaces.

Dans les années qui ont suivi la Seconde Guerre mondiale, l’ordinateur s’est imposé aux côtés de la théorie cybernétique pour former un pilier central de la pensée militaire, des “bombes intelligentes” guidées par laser de l’ère du Vietnam aux missiles de croisière et aux drones Reaper.

Il ne suffit plus d’augmenter le nombre de guerriers humains, comme c’était le cas dans les premiers temps. La phase suivante consiste à éliminer complètement l’humain – à “maximiser” les résultats militaires tout en minimisant le coût politique associé à la perte de vies alliées. Cela a conduit à l’utilisation généralisée des drones militaires par les États-Unis et leurs alliés. Bien que ces missions soient très controversées, en termes politiques, elles se sont avérées préférables, et de loin, au tollé général causé par les morts militaires.

Les robots tueurs

Un drone militaire moderne

La machine humaine

L’une des questions les plus controversées concernant la guerre des drones est le rôle du pilote ou de l’“opérateur” de drone. Comme tout le personnel, ces opérateurs sont tenus par leurs employeurs de “faire du bon travail”. Cependant, les conditions du succès sont loin d’être claires. Comme le philosophe et critique culturel Laurie Calhoun l’observe :

Le rôle des opérateurs de drones est de tuer.

De cette façon, leur tâche n’est pas tant de prendre une décision humaine, mais plutôt de faire le travail pour lequel ils sont employés. Si l’ordinateur leur dit de tuer, y a-t-il vraiment une raison pour qu’ils ne le fassent pas ?

Un argument similaire peut être avancé en ce qui concerne le soldat moderne. De la navigation GPS aux liaisons vidéo montantes, les soldats transportent de nombreux appareils qui les relient à un vaste réseau qui les surveille et les contrôle à chaque tournant.

Cela mène à un dilemme éthique. Si le but du soldat est de suivre les ordres à la lettre – avec des caméras utilisées pour assurer la conformité – alors pourquoi s’occuper des soldats humains ? Après tout, les machines sont beaucoup plus efficaces que les êtres humains et ne souffrent pas de fatigue et de stress de la même manière qu’un humain. Si l’on s’attend à ce que les soldats se comportent de toute façon d’une manière robotique et programmatique, à quoi bon verser du sang allié inutile ?

La réponse, ici, est que l’humain sert d’alibi ou de “couverture éthique” pour ce qui est en réalité, un acte presque entièrement mécanique, robotique. Tout comme l’opérateur de drone est chargé de superviser le drone contrôlé par ordinateur, le rôle de l’homme dans le nouveau système ATLAS du ministère de la Défense n’est que de servir de couverture éthique au cas où les choses tournent mal.

Si les drones Predator et Reaper sont à l’avant-garde de l’imagination du public en matière d’autonomie militaire et de “robots tueurs”, ces innovations ne sont en soi rien de nouveau. Ce ne sont que les derniers d’une longue série de développements qui remontent à plusieurs décennies.

Bien qu’il soit réconfortant pour certains lecteurs d’imaginer que l’autonomie de la machine sera toujours subordonnée à la prise de décision humaine, ce n’est vraiment pas la question. Les systèmes autonomes sont intégrés depuis longtemps dans l’armée et nous devons nous préparer à en subir les conséquences.

Lire aussi : Des milliers de scientifiques s’engagent à ne pas construire de robots tueurs

Source : The Conversation – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *