IA - Deux lettres aux multiples sens

Michael Notter, Christian Luebbe & Arnaud Miribel @ EPFL Extension School · 14 minutes

Pourquoi “intelligente” ? Pourquoi “artificielle” ?

Le but de cet article est de définir avec précision ce que nous entendons par « intelligence artificielle » (IA). Pourquoi la dit-on « artificielle » et dans quelle mesure est-elle vraiment « intelligente » ?

Le terme IA englobe une large discipline dont le but est de développer des systèmes qui simulent l’intelligence humaine et notre capacité à percevoir, apprendre, raisonner, planifier, résoudre des problèmes, bouger, manipuler et créer. Plus précisément, il s’agit de l’étude des algorithmes « intelligents », capables d’analyser des données pour y détecter des motifs d’information. En observant comment ces signaux sont représentés au sein des données, les algorithmes peuvent améliorer leur compétence dans la réalisation exacte d’une tâche spécifique.

Bien que la définition ci-dessus nous offre un aperçu clair et concis de ce que nous entendons par IA, le concept reste quelque peu vague et peut souvent prêter à confusion. De nos jours, aucune définition universelle de l’IA ne fait l’unanimité. De fait, ce terme est régulièrement employé de différentes façons.

Ce qu’est l’IA et ce qu’elle n’est pas.

Ce qu’est l’IA

  • L’IA décrit le domaine de recherche qui essaie d’apprendre à des machines à réaliser des « tâches humaines ». Elle recoupe d’autres domaines, tels que la robotique et les statistiques.
  • L’IA est un outil utilisé pour réaliser ces « tâches humaines ». De la même façon qu’un four de cuisine est un outil permettant de transformer des aliments bruts en délicieux gâteau, l’IA peut prendre des données brutes et les transformer en décisions utiles.
  • L’IA décrit une famille d’algorithmes informatiques capables de s’améliorer automatiquement au fil de leurs expériences, que ce soit en analysant des données ou en étant récompensés après avoir effectué une action donnée.
  • L’IA représente une nouvelle technologie. C’est une nouvelle façon de faire les choses. L’invention de la machine à vapeur et des chaînes de production, ainsi que la découverte de l’électricité ou encore la création des ordinateurs et de l’internet ont révolutionné notre monde. De la même façon, l’IA est en train de métamorphoser les industries et ouvre un nouveau champ des possibles.

Ce que l’IA n’est pas

  • L’IA n’est pas une entité ou un objet - c’est une technologie ! Un smartphone qui utilise l’IA pour se déverrouiller grâce à la reconnaissance faciale n’est pas une IA. Ni le téléphone, ni l’application sous-jacente qui reconnaît votre visage ne vous ont réellement reconnu ! Le téléphone en tant qu’objet physique et l’application logicielle ne sont que l’emballage de la technologie de l’IA.
  • L’IA n’est pas intelligente comme les humains. Bien que l’IA apprenne de ses expériences un peu comme nous le faisons, elle se comporte très différemment. Alors que nous sommes dotés d’intelligence, l’IA actuelle ne fait que l’imiter. Pour l’instant, du moins !
  • L’IA n’est pas un être et n’a pas de conscience. Son comportement n’est ni bon ni mauvais. Et pourtant, les gens développent quand même des à priori sur l’IA en la voyant fonctionner. L’IA apprend des données fournies et adapte son comportement pour réaliser une tâche de façon optimale. Elle ne comprend pas les conséquences de ses décisions lorsqu’elle exécute une consigne. Aucune des résultantes n’est produite dans l’intention de faire le bien ou le mal. Le potentiel problème réside davantage dans le type de données fournies à l’IA et dans la formulation de la consigne. Ainsi, si une IA apparaît comme bonne ou mauvaise, le crédit (ou la faute) est plutôt à attribuer aux humains qui ont participé à son développement.

L’erreur de vouloir comparer l’IA avec l’humain

Pour dire les choses simplement, l’IA n’est pas une entité dotée d’âme ou de conscience et elle ne se comporte pas dans un but bien ou mal intentionné. La projection de traits et de concepts humains sur une machine et sa technologie - ce qu’on appelle l’anthropomorphisme - est une erreur courante qu’il faut éviter.

L’IA est un outil dont il est possible d’user et abuser. Ce sont les bonnes et mauvaises intentions de ses concepteurs et utilisateurs qui nous mènent parfois à ces anthropomorphismes, pourtant à éviter. Par exemple, le système mondial de positionnement, aussi connu sous le nom de GPS (Global positioning system) est une technologie puissante, mais il appartient aux concepteurs et aux utilisateurs de l’employer à bon escient.

Un concepteur pourrait vouloir l’utiliser pour créer des drones qui acheminent des médicaments dans des régions reculées du monde - ou à l’inverse ce concept pourrait être utilisé par l’armée pour larguer des missiles et faire la guerre. Dans la même veine, la navigation par GPS nous permet de voyager de façon sûre et efficace où que l’on soit, mais elle peut aussi servir à suivre et traquer une personne à son insu.

Dans ces deux scénarios, la navigation GPS ne se soucie pas de la façon dont elle est utilisée. En réalité, elle ne fait rien - rien d’autre que de fournir un service conforme au cadre dans lequel elle se trouve. De la même façon, l’IA ne fait que suivre les signaux des données et exécuter efficacement la tâche pour laquelle elle a été entraînée.

Ainsi, les personnes impliquées dans la technologie d’IA doivent en anticiper les diverses utilisations possibles. Des cadres et des restrictions doivent être posés pour éviter des conséquences négatives. Si vous conduisez dans une rue à sens unique dans la mauvaise direction parce que votre « système de navigation vous l’a indiqué ainsi » et que vous provoquez un accident, vous devez en être tenu responsable. Mais en même temps, l’entreprise qui a permis au logiciel de faire des recommandations aussi inadéquates devrait également porter une part de responsabilité.

Ces décisions nous appartiennent, nous devons donc être conscients de leur potentiel autant que de leur danger.

L’intelligence artificielle - faible ou forte

Regardons de plus près les deux types possibles d’IA - faible et forte. Au sens large, l’IA forte est capable de reproduire tout ce qu’un être humain peut faire, alors que l’IA faible n’est compétente que dans une tâche particulière.

Une intelligence artificielle faible est un système dont l’expertise est très limitée. Ce système est entraîné à la réalisation correcte d’une tâche spécifique mais ne peut pas s’adapter ou généraliser au-delà de cette dernière. Telle quelle, une IA étroite n’est pas capable de fonctionner en dehors du cadre donné.

Par exemple, votre filtre anti-spam de courrier électronique doté d’une IA ne pourra pas distinguer l’image d’une pomme de celle d’une poire. De même, une voiture autonome ne pourra pas vous recommander de films. Enfin, une IA conçue pour détecter le cancer des poumons à partir de radiographies médicales du thorax ne pourra pas détecter les infections au COVID-19 à partir de ces images, à moins d’être spécifiquement formée pour les deux.

L’intelligence artificielle forte ne présente pas les mêmes limitations. L’IA forte est une machine hypothétique qui peut comprendre et apprendre toute tâche intellectuelle accessible à l’humain.

Cette IA peut simuler nos capacités cognitives. Elle est capable de penser, raisonner, tirer des conclusions, anticiper et résoudre des problèmes de façon innovante et créative. Ainsi, elle peut tirer parti de ses expériences précédentes et des connaissances acquises pour les adapter à une nouvelle tâche rencontrée pour la première fois, tout comme nous. Mais contrairement aux humains, elle pourra le faire avec une vitesse et un potentiel d’amélioration que le monde n’a jamais vu auparavant.

C’est précisément cet aspect qui fait de l’IA forte un outil aussi fascinant qu’effrayant.

Jusqu’à présent, chaque réalisation humaine et chaque avancée technologique ont été le fruit de notre intelligence. De quoi serions-nous capables si nos efforts étaient soutenus ou même menés par une intelligence nouvelle et possiblement plus avancée que la nôtre ? Se pourrait-il que des millénaires de recherche, d’exploration et d’ingéniosité humaines en soient réduits à quelques heures de travail dans « l’esprit » d’une seule IA forte ?

Le potentiel d’une telle IA est insondable mais semble en tout cas infini. Toutes les maladies pourraient être guéries, le changement climatique inversé, la crise énergétique solutionnée grâce à de nouvelles énergies renouvelables plus avancées. Qu’adviendrait-il si l’une de ces machines pouvait éradiquer la faim, la pauvreté et l’inégalité dans le monde ? Et que se passerait-il si, pour une raison inconnue, la machine faisait précisément l’inverse ?

Certains pensent qu’à partir du moment où une IA forte apprendra comment s’améliorer d’elle-même, son évolution ne dépendra plus que des limites computationnelles et non plus des limites de l’esprit humain. Ainsi, l’IA pourrait très rapidement surpasser les personnes les plus intelligentes dans tous les domaines concevables et se transformer en une super intelligence artificielle.

Mais si l’évolution de l’IA ces 50 dernières années nous a appris quelque chose, c’est que nous sous-estimons la complexité de l’intelligence humaine et les efforts nécessaires pour l’imiter. Ainsi, l’IA forte et la super IA ne restent aujourd’hui que des rêves, bien au conditionnel, qui alimentent les débats philosophiques et la science-fiction - du moins pour l’instant.

Alors que l’intelligence artificielle faible est l’IA dont tout le monde parle aujourd’hui (et celle que nous avons l’intention d’expliquer au travers de « That’s AI »), l’intelligence artificielle forte est celle dont les histoires de science-fiction se nourrissent. Nous nous demandons tous si cette IA forte peut devenir réalité. Certains experts pensent que cela serait possible dès 2050, alors que d’autres prédisent que cela prendra des siècles, voire n’arrivera pas du tout.

Mais ce qui doit être clair pour chacun, c’est que l’invention de l’IA forte pourrait être l’événement le plus important de l’histoire humaine. Et comme avec chaque nouvelle technologie, nous devons être prudents pour que cela ne fasse pas reculer l’humanité en conséquence.

Pourquoi la dit-on « artificielle »

La raison est plutôt simple. Contrairement à l’intelligence « naturelle » dont les humains et les animaux sont pourvus, cette intelligence n’est pas le produit d’un processus biologique ou d’une sélection naturelle - elle a été créée artificiellement. De fait, une IA ne peut pas être considérée comme une intelligence de la même façon que le serait celle d’un être vivant.

Mais alors, l’IA est-elle vraiment « intelligente » ?

Pour mieux comprendre en quoi l’IA diffère de l’intelligence humaine, on peut commencer par comparer l’intelligence humaine à celle d’un animal. Tous les animaux, y compris les humains, sont capables d’apprendre et de réaliser un nombre incalculable d’exploits. Nous pouvons reconnaître une proie ou un prédateur par la vue, l’odorat ou encore l’écholocation. Nous sommes capables de coopérer avec les membres d’un groupe au moyen de comportements complexes et de communications sophistiquées. Nous savons même résoudre des problèmes et contourner des obstacles pour assurer notre survie. Tout cela se fait grâce à notre impressionnante capacité de perception et de compréhension, et à notre aptitude à apprendre de nos expériences, à nous adapter aux changements environnementaux et à réagir lors d’évènements imprévus.

Bien qu’une IA faible soit capable d’apprendre individuellement la plupart de ces compétences, elle peine encore à les combiner entre elles pour donner vie à une approche holistique - c’est-à-dire une approche qui resterait robuste si l’on changeait quelques unes des conditions initiales, tout en étant suffisamment souple pour pouvoir se généraliser à de nouvelles situations (peut-être même sans lien direct).

Mais alors, peut-on dire que l’IA n’est pas encore « intelligente » comme le sont les animaux parce qu’elle ne sait pas encore recouper toutes ces informations ? Malheureusement, ce n’est pas si simple ! L’élément clé ici est la différence entre « être » intelligent et se « comporter » de façon intelligente.

Par exemple, imaginez que vous conduisez une voiture lors d’une froide nuit d’hiver. Un être humain qui a été informé des dangers de verglas, même de façon théorique, va observer son environnement avec attention et tenter d’anticiper les risques et possibles surprises. On peut donc considérer que le conducteur est intelligent et essaie de prévenir un éventuel accident.

En contraste, une voiture autonome peut avoir de nombreux senseurs pour percevoir son environnement, une direction assistée dernier cri et des protocoles de freinage. Elle peut avoir appris par l’expérience qu’il faut adapter son style de conduite lorsque les senseurs indiquent une température négative ou perçoivent de la neige sur la route. Ainsi, la voiture peut se conduire de façon intelligente sans pour autant être dotée d’intelligence.

Revenons dans le royaume animal pour un autre exemple. Un poisson ou un oiseau observés seuls semblent pourvus d’une intelligence toute relative. Mais en groupe, ils deviennent absolument remarquables - leur comportement peut mener à ce qu’on appelle l’intelligence distribuée (ou dite « en essaim »). C’est une forme d’intelligence collective qui s’auto-organise et se décentralise.

La tâche individuelle des oiseaux ou des poissons est relativement simple - garder une équidistance entre voisins et ajuster sa vitesse et sa direction. Pour un animal seul, cela n’implique pas de grande réflexion. Mais lorsqu’il fait partie d’un tout qui est mû par de nombreuses petites variations et interactions entre tous les individus du groupe, ces « essaims » font des mouvements magnifiques1 qui peuvent être utilisés comme stratégie contre les prédateurs (grâce à la taille de l’essaim et à sa complexité).

Poussons ce concept un cran plus loin encore en considérant maintenant les structures sociales et les comportements complexes des abeilles (ou fourmis et autres insectes vivant en colonies) dans une grande ruche. Individuellement, les membres du groupe ne peuvent pas être considérés comme intelligents - ils n’ont ni la capacité de percevoir la ruche dans son ensemble ni celle d’anticiper le futur. Mais grâce à la combinaison de nombreuses interactions et réactions, ces ruches peuvent, dans leur ensemble, accomplir des exploits impressionnants - comme la création d’une structure semblable à une ville ou la mise en place de stratégies complexes, proches de nos défenses militaires.

Dans une certaine mesure, ce genre d’intelligence de groupe dépasse le « comportement intelligent » de la voiture autonome. De telles ruches sont conscientes d’elles-mêmes - elles comprennent leur environnement, peuvent apprendre, planifier et faire face à de nouveaux défis de façon innovante.

Ainsi, plus l’IA s’améliore, plus il est difficile de faire la distinction entre l’humain, l’animal et l’intelligence artificielle. Chacun des trois a la capacité de percevoir son environnement, d’en déduire des informations importantes, d’acquérir des connaissances et de les mettre à profit - générant ainsi des comportements adaptables dans un contexte donné, même nouveau.

Au lieu de nous demander si notre intelligence surpasse l’intelligence artificielle, nous devrions plutôt nous demander à quel point celles-ci se ressemblent. Nous essayons de reproduire les comportements humains avec l’IA. Pour autant, l’intelligence artificielle a-t-elle besoin d’être comparable à l’intelligence naturelle ? Ou pourrait-on imaginer se retrouver avec une forme d’intelligence totalement différente ? En tout cas, ce qui est sûr, c’est qu’il ne faut pas se fier aux apparences : l’une semble imiter l’autre, mais il ne faut pas pour autant en tirer trop de conclusions !

  1. Les nuées d’oiseaux, bancs de poissons ou essaims d’abeilles sont des phénomènes incroyables ! 

Prochain

IA - Plus qu'un 'simple' programme