L’intelligence artificielle devient dangereusement bonne pour imiter les comportements humains

Lorsque les systèmes d’intelligence artificielle commencent à devenir créatifs, ils peuvent créer de grandes choses – et effrayantes.

ia-comportement-humain

Prenons, par exemple, un programme d’intelligence artificielle qui permet aux internautes de composer de la musique avec un Jean-Sébastien Bach virtuel en entrant des notes dans un programme qui génère des harmonies semblables à celles de Bach pour leur correspondre.

Exécutée par Google, l’application a été très appréciée pour son caractère novateur et le plaisir de jouer avec. Elle a également suscité des critiques et des inquiétudes quant aux dangers de l’IA.

Mon étude de l’impact des technologies émergentes sur la vie des gens m’a appris que les problèmes vont au-delà de la question, certes très importante, de savoir si les algorithmes peuvent réellement créer de la musique ou de l’art en général. Certaines plaintes semblaient mineures, mais ne l’étaient pas vraiment, comme les observations selon lesquelles l’IA de Google enfreignait les règles de base de la composition musicale.

En fait, les efforts pour que les ordinateurs imitent le comportement des gens peuvent être déroutants et potentiellement nuisibles.

Technologies d’usurpation d’identité

Le programme de Google a analysé les notes de 306 œuvres musicales de Bach, trouvant des relations entre la mélodie et les notes qui fournissent l’harmonie. Comme Bach suivait des règles strictes de composition, le programme apprenait effectivement ces règles, de sorte qu’il pouvait les appliquer lorsque les utilisateurs fournissaient leurs propres notes.

L’application Bach elle-même est nouvelle, mais la technologie sous-jacente ne l’est pas. Les algorithmes formés pour reconnaître les modèles et prendre des décisions probabilistes existent depuis longtemps. Certains de ces algorithmes sont si complexes que les gens ne comprennent pas toujours comment ils prennent des décisions ou produisent un résultat particulier.

Les systèmes d’IA ne sont pas parfaits – beaucoup d’entre eux reposent sur des données qui ne sont pas représentatives de l’ensemble de la population ou qui sont influencées par des biais humains. Il n’est pas tout à fait clair de qui pourrait être légalement responsable lorsqu’un système d’IA fait une erreur ou cause un problème.

Aujourd’hui, cependant, les technologies de l’intelligence artificielle sont suffisamment avancées pour pouvoir se rapprocher du style d’écriture ou d’expression des individus, et même des expressions faciales. Ce n’est pas toujours mauvais : Une IA assez simple a donné à Stephen Hawking la capacité de communiquer plus efficacement avec les autres en prédisant les mots qu’il utiliserait le plus.

Des émissions plus complexes qui imitent les voix humaines aident les personnes handicapées – mais peuvent aussi être utilisées pour tromper les auditeurs. Par exemple, les créateurs de Lyrebird, un programme d’imitation vocale, ont publié une conversation simulée entre Barack Obama, Donald Trump et Hillary Clinton. Cela peut sembler réel, mais cet échange n’a jamais eu lieu.

Du bien au mal

En février 2019, l’entreprise à but non lucratif OpenAI a créé un programme qui génère un texte qui est pratiquement impossible à distinguer du texte écrit par des personnes. Il peut “écrire” un discours dans le style de John F. Kennedy, J.R.R. Tolkien dans The Lord of the Rings ou un élève écrivant un devoir scolaire sur la guerre civile américaine.

Le texte généré par le logiciel OpenAI est tellement crédible que l’entreprise a choisi de ne pas publier le programme lui-même.

Des technologies similaires peuvent simuler des photos et des vidéos. Au début de 2018, par exemple, l’acteur et cinéaste Jordan Peele a créé une vidéo qui semblait montrer l’ancien président américain Barack Obama en train de dire des choses qu’Obama n’a jamais dites pour avertir le public des dangers que posent ces technologies.

Début 2019, une fausse photo nue de la représentante américaine Alexandria Ocasio-Cortez a circulé en ligne. On s’attend à ce que les vidéos fabriquées, souvent appelées deepfakes, soient de plus en plus utilisées dans les campagnes électorales.

Les membres du Congrès ont commencé à se pencher sur cette question avant les élections de 2020. Le département de la Défense des États-Unis enseigne au public comment repérer les vidéos et les enregistrements audio trafiqués. Des organismes de presse comme Reuters commencent à former des journalistes à la détection des deepfakes.

Mais, à mon avis, une préoccupation encore plus grande demeure : Les utilisateurs pourraient ne pas être en mesure d’apprendre assez rapidement pour distinguer les contenus contrefaits à mesure que la technologie de l’IA devient plus sophistiquée. Par exemple, alors que le public commence à prendre conscience de l’existence des deepfakes, l’IA est déjà utilisée pour des tromperies encore plus avancées. Il existe maintenant des programmes qui peuvent générer de faux visages et de fausses empreintes digitales numériques, créant ainsi l’information nécessaire pour fabriquer une personne entière – du moins dans les dossiers des entreprises ou du gouvernement.

Les machines continuent d’apprendre

À l’heure actuelle, il y a suffisamment d’erreurs potentielles dans ces technologies pour donner aux gens une chance de détecter les fabrications numériques. Le compositeur Bach de Google a fait des erreurs qu’un expert pourrait détecter. Par exemple, lorsque je l’ai essayé, le programme m’a permis d’entrer des quintes parallèles, un intervalle musical que Bach a soigneusement évité. L’application a également enfreint les règles musicales du contrepoint en harmonisant les mélodies dans la mauvaise tonalité. De même, le programme de génération de texte d’OpenAI a parfois écrit des phrases comme des incendies se produisant sous l’eau qui n’avaient aucun sens dans leur contexte.

Au fur et à mesure que les développeurs travaillent sur leurs créations, ces erreurs deviendront de plus en plus rares. En effet, les technologies d’IA vont évoluer et apprendre. L’amélioration du rendement a le potentiel d’apporter de nombreux avantages sociaux, y compris de meilleurs soins de santé, puisque les programmes d’IA aident à démocratiser l’exercice de la médecine.

Donner aux chercheurs et aux entreprises la liberté d’explorer, afin d’obtenir ces résultats positifs des systèmes d’IA, signifie ouvrir le risque de développer des moyens plus avancés de créer des tromperies et d’autres problèmes sociaux. Une recherche très limitée sur l’IA pourrait freiner ces progrès. Mais donner aux technologies bénéfiques la possibilité de se développer coûte cher – et le potentiel d’abus, que ce soit pour faire de la musique “Bach” imprécise ou pour tromper des millions de personnes, est susceptible de croître d’une manière que les gens ne peuvent pas encore prévoir.

Lire aussi :

Source : The Conversation – Traduit par Anguille sous roche

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *