L'histoire de l'IA

Mohamad Dia @ EPFL Extension School · 18 minutes

Les hauts et bas de l'IA, de l'antiquité à nos jours

Le terme "intelligence artificielle" (IA) semble n’être apparu qu’au milieu du 20e siècle, mais l’idée de construire des systèmes intelligents fascine les êtres humains depuis déjà des milliers d’années : bien avant la révolution industrielle et bien avant l’invention du premier ordinateur numérique. L’IA est d’ailleurs depuis toujours un sujet récurrent dans les romans de science-fiction.

Depuis sa définition officielle dans les années 1950, le domaine de l’IA a connu de nombreux hauts et bas, des périodes d’enthousiasmes puis de déceptions, des réussites et des impasses. Au cours des dernières décennies, l’IA a certes fait des progrès considérables, mais elle n’a pas tenu bon nombre de ses premières promesses, du moins jusqu’à présent.

Nous avons assisté à la création de systèmes d’IA qui ont changé notre façon de penser l’intelligence humaine et nous ont appris à mieux apprécier sa complexité. Dans cet article, nous présenterons un bref historique de l’intelligence artificielle et nous examinerons ses principales réalisations tout en gardant à l’esprit les leçons tirées en cours de route.

Nous reviendrons sur les principaux événements qui ont marqué l'histoire de l'IA. En particulier, nous détaillerons les étapes phares des 70 dernières années, qui comme cette frise chronologique nous le montre, ont été particulièrement mouvementées.

Histoire ancienne

Des mythologies anciennes à la science-fiction du XIXe siècle

Les ingénieurs, les artistes et les scientifiques ont toujours joué avec l’idée de créer une forme d’intelligence qui ne soit pas d’origine humaine. La mythologie grecque antique décrit d’ailleurs déjà alors un robot géant en bronze appelé Talos, qui gardait l’île de Crète en jetant des pierres aux pirates et aux envahisseurs. Et plus de deux mille ans plus tard, on retrouve le même thème dans le roman de Mary Shelley, Frankenstein, dans lequel un jeune scientifique entreprend de créer ses propres êtres sensibles.

Plus récemment, en 1950, au moment même où les premières occurrences du terme “IA” apparaissent, le professeur de biochimie et écrivain américano-russe Isaac Asimov écrit “I, Robot”, dans lequel il discute de la coexistence pacifique des humains et des robots autonomes à l’aide de ses Trois lois de la robotique.1

Au cinéma, nous avons été initiés aux systèmes autonomes intelligents comme HAL 9000 dans “2001 : L’odyssée de l’Espace” du réalisateur américain Stanley Kubrick et “J.A.R.V.I.S” (Just A Rather Very Intelligent System),2 l’assistant personnel d’IA d’Iron Man dans la série de films Marvel Avengers.

Les écrivains et scénaristes se sont toujours inspirés des avancées scientifiques contemporaines pour nourrir leurs histoires. Nous aimons tous nous imaginer toutes sortes de fantasmes sur la possibilité de créer des entités artificiellement intelligentes et ces fantasmes ont d’ailleurs toujours quelque chose à dire sur l’état actuel du progrès scientifique et sur ce que nous pensons être réellement possible.

En effet, nous aimons ancrer nos rêves dans une forme de réalité afin de les rendre plausibles. C’est pourquoi nous allons brièvement aborder l’histoire de l’IA en tant que science à part entière en examinant l’ingénierie, la logique, les mathématiques et l’informatique.

Presque toutes les civilisations ont essayé de construire des machines qui imitent l’humain à un moment donné de leur histoire, même si certaines de ces tentatives ont pu être quelque peu grossières. Examinons-en quelques-unes… Dans la Chine antique, un ingénieur connu sous le nom de “l’artificier” Yan Shi a présenté au roi Mu un automate grandeur nature. Dans la Grèce antique, Héron d’Alexandrie, ingénieur, mécanicien et mathématicien grec a exploité les prémices de la mécanique pour construire lui aussi ses “hommes” mécaniques.

En 1206, au plus fort de l’âge d’or islamique, l’inventeur et ingénieur arabe Ismail al-Jazari a construit un robot musical et écrit le Livre de la connaissance des dispositifs mécaniques ingénieux. Ce livre décrit 100 dispositifs mécaniques, avec des instructions sur leur utilisation.3

À la fin du XVIIIe siècle, le Turc mécanique était présenté comme une machine de jeu d’échecs autonome capable de battre n’importe quel joueur humain. C’était une arnaque - un grand maître d’échecs était toujours caché à l’intérieur4 et effectuait tous les coups - mais l’illusion a pris parce qu’elle était fondée sur l’idée passionnante qu’une machine pourrait être capable de jouer à un jeu logique contre nous. Et de gagner !

En philosophie, des chercheurs grecs, indiens et chinois sont tous arrivés indépendamment les uns des autres à la formalisation des systèmes logiques et du raisonnement déductif. Aristote est réputé pour être le premier logicien de la culture occidentale, et au cours des siècles suivants, ses idées ont été développées par de nombreux autres, dont Euclide, père de la géométrie, et Al-Khwarizmi, dont le nom est d’ailleurs à l’origine du mot “algorithme”, la pierre angulaire de l’informatique.

Au XVII ème siècle, plusieurs machines ont été développées dans le but d’effectuer des calculs numériques plus rapidement et avec plus de fiabilité que les humains. En 1837, Charles Babbage, mathématicien, philosophe, inventeur et ingénieur en mécanique britannique a conçu l’Analytical Engine,5 le premier ordinateur à usage général qui contenait de nombreux éléments conceptuels encore présents dans les ordinateurs actuels. Il disposait d’un programme informatique, de données et de projections arithmétiques, tous enregistrés sur des cartes perforées. Peu de temps après, la mathématicienne et écrivaine britannique Ada Lovelace a publié le premier algorithme informatique - autrement dit le premier logiciel - alors compatible avec cet “ancêtre des ordinateurs modernes”.

Cependant, ce n’est que dans la première moitié du XXe siècle que les progrès réalisés dans les domaines de la logique formelle et de l’informatique ont été suffisamment importants pour permettre la création des premiers ordinateurs numériques dans les années 1940. C’est ce développement crucial qui a permis l'émergence de l'IA en tant que nouvelle discipline dans les années 1950.

La naissance de l’IA

La création du domaine au milieu du 20e siècle

Suite à l’invention de l’ordinateur numérique au milieu du XXe siècle, les scientifiques ont commencé à se demander si les ordinateurs pouvaient aller au-delà d’une simple exécution de calculs et d’instructions déterministes.

Un ordinateur pourrait-il faire preuve d’intelligence ? Pourrait-il penser comme un humain ? Cette question a suscité un large éventail de questions philosophiques étant donné que la définition même de l’intelligence humaine inclut déjà des concepts difficiles, comme par exemple la conscience.

C’est Alan Turing, considéré comme le fondateur de l’informatique moderne, qui a proposé une méthode pour mesurer l’intelligence des machines. Dans son ouvrage de référence, Computing Machinery and Intelligence, Turing a abordé la question "Une machine peut-elle penser ?" en se demandant si une machine pouvait faire preuve d’intelligence humaine par son comportement et imiter la capacité de penser. En d’autres termes, la machine pourrait-elle se faire passer pour un humain ?

Il a ensuite proposé un test pour les machines, appelé le jeu d’imitation, qui permettrait de décider si une machine est intelligente ou non. Ce test a été baptisé “test de Turing” et, dans sa forme originale, il considérait qu’une machine était intelligente si elle était capable d'avoir une conversation textuelle avec un humain sans que celui-ci ne puisse débusquer qu’elle soit une machine et non un être humain.

Alors, à quoi ressemble le test de Turing ? Imaginez-vous un instant dans une conversation en ligne par le biais de messages textuels (type “chat”). Vous pouvez poser des questions et évaluer les réponses. Si vous interagissez avec une machine, mais que vous ne pouvez pas affirmer avec certitude que c’est une machine d’après les réponses qu’elle donne, alors nous pouvons dire que la machine a passé le test de Turing avec succès, et donc qu’elle est intelligente !

Cette idée de Turing a reçu beaucoup de soutien, mais aussi quelques critiques. Cela dit, même malgré les craintes que le test ne soit pas idéal pour évaluer l’intelligence des machines, il reste encore largement utilisé aujourd’hui.

La principale préoccupation de Turing était que les machines seraient limitées par la mémoire et n’en auraient jamais assez pour passer son test. Il a prédit dans les années 50 qu’un ordinateur serait capable de réussir le test seulement s’il pouvait stocker 100 Mo de mémoire, et cela donc d’ici l’an 2000. Et pourtant, la mémoire des machines a beau avoir dépassé largement les 100 Mo de mémoire il y a quelques années, celles qui réussissent le test de Turing restent extrêmement rares.

Et même en réussissant le test, certains scientifiques se demandent si les machines peuvent vraiment être considérées comme des imitations réussies de l’intelligence humaine. Les débats sur le test de Turing ont mis en lumière à quel point il est difficile de mesurer et de comparer la complexité de l’intelligence humaine avec les capacités des machines.

Dans les années qui ont suivi le test de Turing, les domaines de l’intelligence des machines et des machines pensantes ont commencé à prendre forme. Le terme “intelligence artificielle” a été utilisé pour la première fois par John McCarthy lors du projet de recherche d’été de Dartmouth sur l’intelligence artificielle de 1956, également connu sous le nom d’atelier de Dartmouth. Il s’agissait d’un rassemblement de certains des plus éminents scientifiques, ingénieurs, mathématiciens et psychologues de l’époque. Pendant deux mois, ils ont combiné leurs expertises, créant alors un nouveau domaine d’étude que McCarthy a ensuite dûment nommé “intelligence artificielle”.

L’atelier de Dartmouth est considéré comme l'événement fondateur dans l'histoire de l'IA. De nombreux concepts encore utilisés aujourd’hui, tels que les “réseaux neuronaux” et le “traitement du langage naturel” ont été débattus lors de cette conférence.

Les premières années de l’IA

Les échecs, les dames et l’enthousiasme des années 1950 et 1960

Le fait d’avoir formalisé l’IA comme un domaine d’étude à part entière a permis de susciter l’intérêt de la communauté scientifique et de rapidement produire des avancées significatives.

Nombre des premiers programmes informatiques capables de jouer à des jeux, de résoudre des énigmes, de prouver des théorèmes mathématiques et d’effectuer des raisonnements artificiels ont été développés dans les années qui ont suivi l’atelier de Dartmouth. Les concepts d’apprentissage machine (machine learning) et de réseaux de neurones artificiels (neural networks), deux des principaux piliers des systèmes d’IA actuels, ont également été formalisés à cette époque.

La capacité de jouer aux échecs a toujours été étroitement associée à l’idée d’intelligence. Et c’est en 1950 que Claude Shannon, le fondateur de la théorie de l’information,6 a décrit le premier programme informatique capable de jouer aux échecs. Shannon a décrit deux approches que l’ordinateur pouvait adopter pour gagner une partie :

  1. La machine examine l’échiquier et épuise tous les coups possibles.
  2. La machine suit une stratégie plus intelligente et ne considère qu’un nombre déterminé de coups clés.

Shannon était également connu pour l’invention de Thésée, une souris mécanique capable d’explorer un labyrinthe, de le résoudre et d’en déduire la sortie.

À peu près à la même époque, Arthur Samuel, ingénieur chez IBM, a écrit le premier programme informatique capable de jouer aux dames en apprenant et en adaptant sa stratégie. Il était assez bon pour défier les joueurs amateurs et a été un grand succès pour Samuel et son employeur. Son programme d’auto-apprentissage utilisait un concept qui est maintenant connu sous le nom d’“apprentissage par renforcement” (reinforcement learning). Samuel est également connu pour avoir inventé le terme “apprentissage machine”.

Une autre percée a eu lieu en 1956 lorsque les américains Allen Newell, Cliff Shaw et Herbert Simon respectivement chercheur, informaticien et économiste, ont écrit un programme informatique appelé Logic Theorist. C’était le premier programme capable d’effectuer un raisonnement automatisé qui simule la façon dont les humains pensent pour résoudre des problèmes.

Logic Theorist faisait partie de ce qu’on appelle l’IA symbolique, qui était la branche dominante de l’IA dans les années 1950, 1960 et 1970 alors que les approches modernes de l’IA sont plutôt basées sur l’apprentissage par l’expérience. L’IA symbolique se distingue de l’apprentissage par l’expérience en ce sens qu’il s’agit d’une approche qui vise à imiter l’intelligence humaine en suivant un ensemble de règles de raisonnement symboliques pré-codées. Logic Theorist a pu prouver de nombreux théorèmes mathématiques dans Principia Mathematica de Bertrand Russel, un ouvrage de référence sur la logique formelle. Il a même été crédité comme le co-auteur d’un article scientifique avec deux autres mathématiciens.

La fin des années 1950 et le début des années 1960 ont également marqué le développement de réseaux neuronaux artificiels dans le domaine de l’apprentissage machine. Le meilleur exemple des travaux réalisés dans ce domaine est peut-être l’algorithme “Perceptron” de Frank Rosenblatt, qui a été capable de reconnaître ce qu’il y avait dans des images et d’apprendre la différence entre certaines formes géométriques.

Ces inventions et percées passionnantes du milieu du XXe siècle ont suscité un immense enthousiasme pour l'IA. À l’époque, ces premières réalisations étaient si impressionnantes qu’elles semblaient à peine crédibles. Peu de temps après, des laboratoires d’IA ont commencé à apparaître dans le monde entier grâce aux généreux financements des gouvernements et entreprises.

L’hiver de l’IA

Attentes trop ambitieuses et stagnation des années 1970 et 1980

Les premières réalisations de l’IA dans les années 1950 et 1960 ont entraîné une vague de confiance excessive et d’attentes irréalistes. Les personnalités éminentes du domaine de l’IA étaient, à juste titre, enthousiasmées par ce qu’elles avaient déjà vu et s’attendaient à ce que des avancées tout aussi impressionnantes se poursuivent et au même rythme que les précédentes.

Parfois, l’enthousiasme devenait même un peu excessif. Par exemple, au début des années 1970, plusieurs pionniers de l’IA ont prédit que les machines atteindraient l’intelligence générale d’un être humain moyen effectuant des tâches quotidiennes dans un délai de 10 ans. Cela fait maintenant 50 ans que ces prédictions ont été faites et force est de constater qu’elles sont encore très loin de se réaliser.

L’écart entre ces prédictions ambitieuses et les réalisations décevantes des années 1970 et 1980 a entraîné une certaine déception envers l’IA et une diminution d’intérêt. Les principales sources de financement ont commencé à se faire plus rares, provoquant un fort déclin des activités de recherche, tant sur le plan scientifique que commercial. Le domaine de l’IA a commencé à stagner et n’a pas connu de véritable relance avant les années 1990. Cette période est connue sous le nom d’”hiver de l’IA”, un terme emprunté à la guerre froide en cours et à l’idée d’un hiver nucléaire.

Pourquoi les attentes étaient-elles si déraisonnablement élevées en ce qui concerne le potentiel de l’IA ? Tout d’abord, l’IA a connu un succès remarquable sur quelques problèmes élémentaires et cela a donné aux ingénieurs une fausse impression de ses capacités. On pensait naturellement que pour résoudre des problèmes plus généraux, il était simplement question de mettre à la disposition des machines une mémoire plus importante et des ressources de calcul plus importantes. On a surestimé le potentiel de l’IA sans réaliser la complexité des nombreux problèmes qu’il lui restait encore à résoudre.

Même à cette époque, la plupart des experts avaient tendance à sous-estimer la quantité de matériel, de mémoire, de données et de puissance de calcul dont leurs systèmes avaient réellement besoin. Ils savaient qu’ils manquaient de certaines ressources, mais ils n’avaient pas la moindre idée de l’ampleur de ce manque. De plus, les premières IA étaient encore souvent basées sur des règles, alors qu’étant donnée la complexité des tâches demandées, elles auraient dû tenter de les accomplir par l’expérience des essais et des erreurs.

L’hiver de l’IA a été brièvement interrompu au début des années 1980 par un bref boom, dû à l’essor des "systèmes experts" commerciaux. Ces systèmes sont des programmes informatiques d’IA qui tentent d’imiter l’expertise humaine dans des domaines spécifiques, au lieu d’essayer d’atteindre un niveau d’intelligence plus général. Il s’agissait d’une autre forme d’IA symbolique qui utilisait des connaissances spécifiques à un domaine et un raisonnement basé sur des règles au lieu d’apprendre par l’expérience.

Les systèmes experts sont devenus extrêmement populaires et ont été déployés à grande échelle pour effectuer toutes sortes d’activités commerciales, de diagnostics médicaux, de configuration de matériel informatique et de traitement du langage naturel (natural language processing). Le succès des systèmes experts a ravivé l’intérêt pour l’IA et a entraîné un nouvel investissement de la part des gouvernements.

La cinquième génération de systèmes informatiques du Japon est l’une des grandes initiatives liées à l’IA de cette période. Son objectif était de construire des systèmes informatiques puissants capables d’enfin réaliser les promesses des années 1950 et 1960, et le projet s’est poursuivi jusqu’en 1990. Malheureusement, il a largement échoué dans ses ambitions, et de nouveau une période de battage médiatique et d’attentes irréalistes s’est soldée par une déception générale.

La renaissance

La renaissance de l’apprentissage machine et des réseaux de neurones à la fin des années 1980 et dans les années 1990

Certaines limites de l’IA classique dont les approches fondées sur des règles et le raisonnement symbolique ont été identifiées et ont conduit à un changement d’orientation à la fin des années 1980. Une meilleure compréhension de l’intelligence humaine et de la complexité de la prise de décision a encouragé les experts en IA à se pencher plus attentivement sur les approches fondées sur l’apprentissage et les probabilités.

Les humains acquièrent leur intelligence en suivant des instructions et en effectuant un raisonnement déductif, mais ils apprennent également par l'expérience et la répétition d'essais et d'erreurs. Pourquoi n’en serait-il pas de même pour les machines intelligentes ? C’est la question que les ingénieurs en IA ont commencé à se poser, et bientôt les machines ne se sont plus limitées au raisonnement formel. Au lieu de cela, elles ont commencé à être équipées des capacités nécessaires pour apprendre par l’exemple.

L'apprentissage machine (machine learning), un terme déjà inventé par l’informaticien chercheur américain Arthur Samuel des décennies plus tôt, était de retour en force. Ce nouveau paradigme, qui a débuté à la fin des années 1980, utiliserait les statistiques et les probabilités pour permettre aux machines d’apprendre à partir des données disponibles et de s’adapter en s’appuyant sur les expériences précédentes. Bientôt, l’IA se connecte à d’autres disciplines matures et rigoureuses comme la théorie de la décision, les statistiques, la théorie du contrôle et l’optimisation.

Cela a conduit à des avancées majeures dans les domaines de la reconnaissance vocale, du traitement du langage naturel, de la robotique et de la vision par ordinateur. Cette nouvelle approche a donné une nouvelle vague de résultats impressionnants, ainsi qu’une meilleure compréhension théorique de certains concepts fondamentaux de l’IA.

Tout comme dans les années 1950 et 1960, les réalisations et les innovations individuelles ont commencé à prendre de l’ampleur - et à progresser davantage. Très vite, l’intérêt pour les réseaux neuronaux artificiels, qui représentent un groupe de modèles d’apprentissage machine inspirés des neurones biologiques et introduits au milieu du XXe siècle, a connu un regain d’intérêt. Cela était notamment dû à la réinvention de l’un des principaux algorithmes utilisés pour entraîner ces réseaux - l’algorithme de “rétropropagation”.

Suite à cela, un nouveau modèle de réseaux neuronaux artificiels appelés réseaux neuronaux convolutifs a été inventé par l’informaticien et chercheur français Yann Le Cun.7 Ce modèle a connu un grand succès dans la reconnaissance optique des caractères (identification automatique des lettres et des chiffres dans les images de textes tapés ou écrits à la main) et a été déployé dans plusieurs applications industrielles - principalement le tri automatique du courrier par les services postaux.

Échec et mat pour l’IA aux échecs

Vous vous souvenez de l’algorithme d’Arthur Samuel qui était capable de défier des joueurs amateurs aux dames dans les années 1950 ?

Eh bien, pour donner une idée de l’ampleur des progrès de l’IA au XXe siècle, il convient de noter ici que les années 1990 ont vu la défaite du champion du monde d’échecs, Garry Kasparov, par l’ordinateur Deep Blue d’IBM. Ce fut une étape majeure dans le développement de l’IA et elle a été réalisée avec l’IA symbolique classique, plutôt qu’avec le véritable “deep learning” qui a émergé au 21ème siècle. A noter que le “deep” dans le nom de la machine d’IBM est une pure coïncidence.

G. Kasparov, alors champion du monde du jeu d'échecs, en difficulté face au joueur qui suit les décisions du superordinateur IBM Deep Blue. Il finira d'ailleurs par perdre...

La révolution

Les données massives (big data) et l’apprentissage profond (deep learning) du 21e siècle

La création du World Wide Web et le développement du secteur des télécommunications ont facilité la transmission et le stockage de données à grande échelle au cours des années 2000. Ces développements ont donné aux réseaux neuronaux et aux algorithmes d’ apprentissage profond le carburant dont ils avaient besoin pour commencer à faire des progrès significatifs : des données, beaucoup de données, ce qu’on appelle le big data.

Le battage médiatique actuel autour de l’IA est largement attribuable aux progrès sans précédent du deep learning qui ont été rendus possibles par la disponibilité de larges quantités de données, et les machines surpassent maintenant continuellement les humains dans des tâches complexes.

Le deep learning commence vraiment à décoller au début des années 2010, grâce notamment au travail des scientifiques américains Yoshua Bengio, Geoffrey Hinton et du français Yann LeCun.8 L’abondance des données, les progrès des algorithmes d’apprentissage et l’augmentation de la puissance de calcul ont donné aux pionniers comme eux l’occasion de réaliser des prouesses époustouflantes en matière de reconnaissance vocale, de traitement du langage naturel, de reconnaissance visuelle et d’apprentissage par renforcement.

Le meilleur exemple est peut-être le programme informatique AlphaGo, développé par la société d’IA DeepMind. Le “go” est un jeu infiniment plus compliqué que les échecs, mais ce programme a réussi à apprendre les règles du jeu à partir de rien et surtout à battre en quelques mois d’apprentissage seulement le champion du monde Lee Sedol en 2016. Il a fallu 40 ans pour passer de l’algorithme de base du jeu de dames d’Arthur Samuel à Deep Blue, l’algorithme qui a battu Kasparov, alors champion du monde d’échecs. Depuis cela, AlphaGo est sorti victorieux du jeu de go en 20 ans seulement soit en deux fois moins de temps.

L’histoire relativement courte de l’IA a déjà de précieuses leçons à nous enseigner sur le contrôle du battage publicitaire et la gestion des spéculations ou des attentes trop ambitieuses. Nous nous devons de canaliser notre enthousiasme pour cette technologie fascinante de manière à produire des progrès continus, et éviter de vivre un nouvel “hiver” de l’IA.

Pour ce faire, nous devons mieux comprendre la complexité de l’intelligence humaine et les limites de l’IA.

  1. Les Trois lois de la robotique sont trois règles fictives formulées par l’écrivain Isaac Asimov et John W. Campbell destinées à garantir la paix entre les robots et les humains. La première loi est par exemple “Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger”. Si vous souhaitez en savoir plus, n’hésitez pas à visiter l’article Wikipedia dédié

  2. J.A.R.V.I.S est une IA forte fictive qui peut travailler d’égal à égal avec des humains. Nous reviendrons plus précisément sur les notions d’IA forte et faible dans IA - Deux lettres aux multiples sens

  3. Plusieurs exemples sont décrits et illustrés dans cet article de blog (en anglais). 

  4. Curieux de voir à quoi ressemblait ce Turc ? Une gravure de l’époque permet d’en découvrir un peu plus : voir l’image

  5. Une photo d’une partie de l’Analytical Engine est disponible ici

  6. La théorie de l’information correspond à l’étude scientifique de la quantification, du stockage et de la communication d’informations. Un cas d’usage populaire de la théorie de l’information est celui de la compression de données : les formats de fichiers ZIP, MP3 ou JPEG ont été développés pour permettre de stocker le plus d’informations tout en utilisant le moins de mémoire possible. En lire plus sur Wikipedia

  7. Yann Le Cun est un chercher en IA, particulièrement connu pour avoir développé les réseaux convolutifs. Il est à la tête de l’IA chez Facebook

  8. L’ACM (en anglais « Association for Computing Machinery », littéralement « association pour les machines de calcul ») a nommé Yoshua Bengio, Geoffrey Hinton, and Yann Le Cun lauréats du prix Turing en 2018, la plus haute distinction en sciences informatiques. Plus d’informations à découvrir ici (en anglais). 

Prochain

IA - Deux lettres aux multiples sens