Archives par mot-clé : Intelligence artificielle

L’intelligence artificielle : La fin de l’humanité ?

Le brillant et étonnant Stephen Hawking pense que l’intelligence artificielle pourrait dépasser l’homme.

Stephen Hawking ne détaille pas sa pensée sur ce sujet. Alors, qu’en penser ?

Comment l’intelligence artificielle pourrait elle dépasser l’humanité ?

Il est certain que l’armée travaille à des robots tueurs.

Les nouveaux robots peuvent se déplacer vite, comme Cheeta :

Les robots sont de plus en plus intelligents, et Asimo est l’un des robots qui semble le plus évolué, avec aujourd’hui la capacité à marcher, courir, sauter, sur des terrains accidentés :

Donc il est bien certain que l’intelligence, la puissance physique et l’autonomie des robots sont en croissance rapide.

Alors, l’ordinateur intelligent est il un danger pour l’humanité ?

On peut imaginer plusieurs types d’attaques :

  • Une attaque « structurelle » : les ordinateurs prennent le contrôle de nos infrastructures. Les banques, les réseaux électriques, … toutes nos infrastructures sont gérées par des ordinateurs, plus ou moins inter-connectés par Internet. Une « intelligence artificielle » pourrait développer des virus informatiques, s’introduire dans les différents systèmes, et en prendre le contrôle. Ce scénario a d’ailleurs été creusé par plusieurs films ou jeux vidéos.
  • Une attaque physique : les robots militaires s’émancipent, et se retournent contre leurs créateurs. Là aussi, c’est un thème développé par plusieurs films. L’humanité pourrait être en danger si l’attaque est massive (armée de robots qui s’organisent, se développent, et détruisent l’humanité) ou si elle utilise des moyens globaux (un programme décide de lancer des bombes atomiques).

Ce qu’il faut bien avoir en tête, c’est qu’actuellement, et depuis plus de 60 ans que l’homme travaille sur ce sujet, l’intelligence artificielle n’a pas beaucoup progressé :

La puissance de calcul des ordinateurs a fait des progrès énormes, ce qui fait qu’en appliquant des programmes « mécaniques », on arrive à battre l’homme sur plein de sujets. L’ordinateur est au niveau du champion du monde des échecs, symbole s’il en est de l’intelligence… Mais le programme qui réalise cet exploit n’a rien de comparable avec ce qu’on appelle l’intelligence.

C’est le paradoxe actuel, on utilise la puissance de calcul pour effectuer des tâches de plus en plus complexes, mais on n’a toujours par percé le secret du fonctionnement du cerveau, et des tâches très simples restent inaccessibles aux machines.

Ainsi, à l’heure actuelle, aucun ordinateur ne sait s’adapter, apprendre, comme l’homme sait le faire.

Au fait, c’est quoi l’intelligence artificielle ?

Question simple et réponse pas si simple ;). Alan Turing, l’un des pères de l’informatique, avait inventé un test pour valider un programme intelligent.

On dit que l’homme est intelligent car il sait apprendre et s’adapter à de nouvelles situations. Il sait « intégrer » des données issues de contextes très variés, permettant des raisonnements complexes basés sur des données très incomplètes. Il ne s’agit donc pas de raisonnements parfaitement logiques, mais plutôt d’intuitions, induites à partir d’exemples divers. L’intelligence, telle que définie de manière anthropomorphe, est donc très liée à la capacité à apprendre, et à raisonner à partir de ces apprentissages incomplets. Cela fait bien longtemps qu’on cherche en informatique a simuler de tels systèmes, mais encore une fois, on est aujourd’hui loin du compte. La capacité du cerveau pour analyser une situation, avec extrêmement peu d’informations, reste complètement inégalée.

J’imagine que l’hypothèse de Stephen Hawking, c’est que ces barrières pourraient être franchies dans les années à venir.

Donc, dans cette hypothèse là, la machine serait, par rapport à l’homme :

  • Plus forte et plus rapide physiquement
  • Plus rapide à résoudre un problème complexe
  • Capable d’apprendre et de s’adapter à de nouvelles situations.

Se pose alors la question de la motivation de la machine :

L’homme pour agir est motivé par plusieurs « moteurs » : les motivations élémentaires liées à la survie, de soi (se protéger des agressions externes, se protéger du froid, boire et manger), la survie de l’espèce (la protection de ses proches, la reproduction) et les motivations liées à notre ego (avoir plus de pouvoir, d’argent).

Quelles seraient les motivations profondes de la machine ?

Qu’est-ce qui rendrait une machine dangereuse ?

Bon, d’accord, un robot militaire est dangereux, surtout si on est en face de lui ;).

Donc une machine est déjà dangereuse pour une personne ou un groupe de personnes. Un robot, un programme, peut tuer un ou plusieurs hommes. Mais ce n’est pas le sujet de la réflexion. La réflexion est plus globale, puisqu’on parle ici de la fin de l’humanité.

Donc, pourquoi une machine pourrait développer une telle motivation ?

Se pose donc la question qu’avait traité Isaac Assimov : au delà des programmes d’utilisation de la machine, quelles sont les « lois fondamentales » structurant la machine intelligente ?

Isaac Assimov avait imaginé trois lois :

  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.
  3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

Mais ces lois ne tiennent pas la route, car les militaires, grands investisseurs dans ces domaines, ne mettront jamais en place de telles protections : un robot militaire doit évidement pouvoir tuer.

C’est marrant (si j’ose dire) car je pensais avant l’écriture de cette réflexion que Stephen Hawkins avait tort, mais au fil de l’écriture de cet article, je suis en train de changer d’avis. On peut très bien imaginer plusieurs scénarios catastrophes.

Je ne pense pas que la catastrophe puisse venir d’une machine avec un égo (« je veux dominer le monde »), mais plutôt de bugs dans le paramétrage de la machine (« pour protéger tel territoire, il faut supprimer telle population »). Si on délègue à une machine la capacité à prendre des décisions clés, alors le risque existe.

Les humains seront ils assez sages pour éviter cet écueil ? ça m’étonnerait 😉