The National Times - Si l'IA devait détruire l'humanité, comment s'y prendrait-elle ?

Si l'IA devait détruire l'humanité, comment s'y prendrait-elle ?


Si l'IA devait détruire l'humanité, comment s'y prendrait-elle ?
Si l'IA devait détruire l'humanité, comment s'y prendrait-elle ? / Photo: © AFP/Archives

L'intelligence artificielle menace l'humanité d'"extinction", préviennent des experts et entrepreneurs de ce secteur en plein essor, appelant à une prise de conscience. Mais ce scénario catastrophe encore lointain est-il crédible ?

Taille du texte:

- Trombones de la mort -

Le cauchemar, inspiré par d'innombrables films de science-fiction, débute lorsque les machines voient leurs capacités dépasser celles des humains et échappent à tout contrôle.

"A partir du moment où nous aurons des machines qui cherchent à survivre, nous aurons des problèmes", a récemment affirmé le chercheur canadien Yoshua Bengio, l'un des pères de l'apprentissage automatique.

Selon une variante imaginée par le philosophe suédois Nick Bostrom, le moment décisif surviendra lorsque les machines sauront fabriquer elles-mêmes d'autres machines, provoquant une "explosion de l'intelligence".

Selon sa "théorie du trombone", si une IA avait par exemple pour but ultime d'optimiser la production de cet accessoire de papeterie, elle finirait par couvrir "d'abord la Terre puis des morceaux de plus en plus importants de l'Univers avec des trombones", illustre-t-il.

Nick Bostrom est un personnage controversé, après avoir affirmé que l'humanité pouvait être une simulation informatique, ou soutenu des théories proches de l'eugénisme. Il a aussi dû s'excuser récemment pour un message raciste envoyé dans les années 90, qui avait refait surface.

Pourtant, ses idées sur les dangers de l'IA restent très influentes, et ont inspiré à la fois le milliardaire Elon Musk, patron de Tesla et SpaceX, et le physicien Stephen Hawking, décédé en 2018.

- Terminator -

L'image du cyborg aux yeux rouges de "Terminator", envoyé du futur par une IA pour mettre fin à toute résistance humaine, a particulièrement marqué l'inconscient collectif.

Mais selon les experts de la campagne "Stop Killer Robots" ("Non aux robots tueurs"), ce n'est pas sous cette forme que s'imposeront les armes autonomes dans les années à venir, écrivaient-ils dans un rapport en 2021.

"L'intelligence artificielle ne confèrera pas aux machines le désir de tuer des humains", rassure la spécialiste de la robotique Kerstin Dautenhahn, de l'université de Waterloo au Canada, interrogée par l'AFP.

"Les robots ne sont pas diaboliques", affirme-t-elle, tout en concédant que leurs développeurs pourraient les programmer pour faire du mal.

- Armes chimiques -

Un scénario moins évident prévoit que soit utilisée l'intelligence artificielle pour créer des toxines ou des nouveaux virus, dans le but de les répandre dans le monde.

Un groupe de scientifiques qui utilisait l'IA pour découvrir de nouveaux médicaments a ainsi mené une expérience au cours de laquelle ils l'ont modifiée pour qu'elle recherche plutôt des molécules nocives.

En moins de six heures, ils ont réussi à générer 40.000 agents potentiellement toxiques, d'après un article de la revue Nature Machine Intelligence.

Grâce à ces technologies, quelqu'un pourrait enfin trouver le moyen de répandre plus rapidement un poison tel que l'anthrax, a déclaré Joanna Bryson, experte en IA à la Hertie School de Berlin.

"Mais ce n'est pas une menace existentielle, juste une arme épouvantable", dit-elle à l'AFP.

- Une espèce dépassée -

Dans les films d'apocalypse, la catastrophe arrive soudainement et partout à la fois. Mais quid si l'humanité disparaissait progressivement, remplacée par des machines ?

"Dans le pire des cas, notre espèce pourrait s'éteindre sans successeur", anticipe le philosophe Huw Price dans une vidéo de promotion du centre pour l'étude des risques existentiels de l'université de Cambridge.

Il existe cependant des "possibilités moins sombres", où des humains augmentés par une technologie avancée pourraient survivre. "L'espèce purement biologique finit alors par s'éteindre", poursuit-il.

En 2014, Stephen Hawking avait argumenté que notre espèce ne serait plus un jour en capacité de rivaliser avec les machines, déclarant à la BBC que cela "sonnerait le glas de la race humaine".

Geoffrey Hinton, un chercheur qui tente de créer des machines ressemblant au cerveau humain, dernièrement pour Google, a évoqué en des termes similaires des "superintelligences" supérieures aux humains.

A la chaîne américaine PBS, il a affirmé récemment qu'il était possible que l'"humanité ne soit qu'une phase passagère dans l'évolution de l'intelligence".

F.Adams--TNT