Les robots vont tous nous tuer, et ce sera de notre faute

L'actualité numérique Mardi 22 avril 2014

Réécoute
Les robots vont tous nous tuer, et ce sera de notre faute
Pour certains chercheurs en intelligence artificielle, l’avènement de programmes informatiques "antisociaux" est probable: pour accomplir leur fonction, ces derniers risquent fort de tous nous exterminer. Pas de quoi s'en soucier aujourd'hui avec Microsoft Excel ou un thermostat... mais demain?

 

Voilà de quoi regarder votre thermostat de travers. Ou votre traitement de texte. Car si l'on suit la logique de certains experts de l'intelligence artificielle (AI), ces programmes et leurs petits copains du même genre pourraient bien finir par tous nous exterminer dans le futur.

C'est en tout cas le postulat du chercheur en informatique américain, Steve Omohundro, qui estime que l'avénement d'une intelligence artificielle "anti-sociale" est "non seulement possible, mais probable, à moins que nous commencions à façonner des systèmes d'intelligence artificielle d'une façon radicalement différente qu'aujourd'hui", écrit le site The Atlantic qui relaie les travaux du scientifique.

L'avenir ne sera pas aussi sympa et chantant que Nono le gentil robot

Un objectif unique : réaliser leur tâche

Steve Omohundro explique que nous faisons notamment l'erreur de projeter une certaine humanité sur les programmes informatiques alors que ces derniers"perçoivent le monde à travers un prisme très étroit: le boulot pour lequel ils ont été conçus". Leur seul objectif est de réaliser cette tâche et, si possible (s'ils ont les moyens de l'évaluer surtout), de mieux en mieux, et ce, quelques soient les moyens pour y parvenir. Quitte donc à exterminer au passage toute l'humanité.

Pour y voir plus clair, le chercheur prend l’exemple d’un programme dont la fonction est de jouer aux échecs. Une illustration que tout le monde connaît, puisqu'elle est le symbole ultime de l'affrontement entre l’homme et la machine.

Selon Steve Omohundro, il est probable que lorsqu'on aura réussi à faire un programme capable de réécrire son propre code pour mieux jouer, ce dernier fasse le calcul qu'il y a une probabilité forte qu’il ne joue plus jamais aux échecs si jamais on l’éteint à la fin d'une partie. Et de conclure:

Si le système croit que le roboticien persistera à essayer de le débrancher, cela le motivera à développer le sous-objectif de chercher à stopper le roboticien en permancence.


 

"Plus le robot est logique, plus il est probable qu'il vous combatte à mort"

"En d'autres termes, reprend The Atlantic, plus le robot est logique, plus il est probable qu'il vous combatte à mort." Un scénario fort sympathique qui n'est néanmoins pas près de se réaliser.

Demain, un robot Terminator Garry Kasparov?

L'humanité est en effet loin de cohabiter avec des robots Terminator Gasparov. Ou des programmes informatiques suffisamment sophistiqués pour se corriger seul et réécrire leur code de façon parfaitement autonome.

Et si de nombreux chercheurs y réfléchissent, tous ne s'accordent pas sur les formes éventuelles de cette fameuse intelligence artificielle, ou même de son avénement. Ainsi, quand certains prédisent que la machine surpassera dans quelques dizaines d'années l'intelligence humaine (ce moment clé est appelé "singularité"), d'autres mettent sérieusement en doute cette affirmation.

Néanmoins, le logiciel "dévore" aujourd'hui le monde, pour reprendre les mots de Marc Andreessen, concepteur du premier navigateur graphique, Mosaic. On le retrouve dans tous les interstices de notre société: automobile, brosse à dent connectée ou même maison dite intelligente -et on en passe!

Toujours plus incontournable, toujours plus perfectionné aussi, son omniprésence nécessite peut-être à elle seule de suivre les conseils de Steve Omohundro: prendre du recul avant de faire quelque chose dont la logique implacable risque de nous être fatale.

Un constat que partage le célèbre Stephen Hawking, qui vient de signer une tribune sur The Huffington Post en compagnie de prestigieux physiciens, alertant sur le risque, qui n'a d'égal que les prouesse, d'une future intelligence artificielle:

Alors que l'impact à court terme de l'intelligence artificielle dépend de qui la contrôlera, l'impact à long terme dépend de si elle pourra ou non être contrôlée tout court.


 

Pensez ne serait-ce qu'à l’armée américaine et de la place toujours plus grande qu’elle accorde aux robots sur le terrain ou aux drones. Si ces derniers n'apprennent pas encore de leur action pour améliorer la précision de leur tir ou de leur plan de vol, cette éventualité seule force à s'interroger.

Sans compter qu'il y a quelques jours à peine, des chercheurs ont annoncé avoir réussi à faire que des ordinateurs enseignent à d’autres ordinateurs. Une première.

Sachez que ces derniers ont appris à jouer à Pac-Man. Les professeurs ont même surpassé leur enseignant ordinateur! De quoi faire froid dans le dos... mais les scientifiques à l'origine de l'expérience se veulent rassurants et  "affirment que tous les ordinateurs, versions plus évoluées comprises, écrivions-nous dans Slate, restent «très débiles»".

Espérons qu'ils ne se fourvoient pas. Car ce serait quand même cruel et douloureux qu’un simple jeu à base de camembert jaune qui a la dalle mette fin à l’humanité.

Andréa Fradin 




> Retrouvez toute l'actualité numérique

> Abonnez vous aux podcasts : RSS et iTunes

Crédit photo : "robot pose" | FlickR licence cc by

 

 

Commentaires