Eine kurze Geschichte der KI

Mohamad Dia @ EPFL Extension School · 16 minutes

KI von der Antike bis heute, eine Reise durch Höhen und Tiefen.

Der Begriff künstliche Intelligenz (KI) kam erst Mitte des 20. Jahrhunderts auf, aber die Idee, intelligente Maschinen zu bauen, fasziniert die Menschen schon seit Tausenden von Jahren. Es handelt sich dabei um ein Konzept, das lange vor dem Zeitalter der industriellen Revolution und der Erfindung des ersten digitalen Computers entstand und häufig als In­s­pi­ra­ti­ons­quel­le für Mythen und Science-Fiction-Geschichten diente.

Seit der Begriff in den 1950er-Jahren erstmals formell definiert wurde, hat das Feld der KI viele Höhen und Tiefen, spannende Ereignisse und Enttäuschungen, Durchbrüche und Rückschläge durchgemacht. In den letzten Jahrzehnten wurden bedeutende Fortschritte im Bereich der KI erzielt, dennoch haben sich viele verheissungsvolle Prognosen bezüglich dieser Technologie nicht erfüllt – zumindest bis jetzt.

Im Laufe der letzten Jahre wurden KI-Systeme entwickelt, die die Art und Weise, wie wir über menschliche Intelligenz denken, verändert haben und uns eine neue Wertschätzung für ihre Raffinesse und Komplexität vermittelt haben. Dieser Artikel gibt einen Überblick über die Geschichte der künstlichen Intelligenz, ihre wichtigsten Errungenschaften und einige der Lektionen, die auf dem Weg dorthin gelernt wurden.

Wir werden alle wichtigen historischen Ereignisse im Zusammenhang mit der Entwicklung von KI ansprechen und uns dabei besonders auf die letzten 70 Jahre konzentrieren, die - wie die volle Zeitachse vermuten lässt - in Bezug auf KI-Durchbrüche ziemlich intensiv waren.

Frühgeschichte

Von der Mythologie der Antike bis hin zu den Science-Fiction-Romanen des 19. Jahrhunderts

Ingenieure, Künstler und Wissenschaftler waren schon immer von der Idee fasziniert, eine nicht-menschliche Form der Intelligenz zu erschaffen. In der griechischen Mythologie wird ein riesiger Bronzeroboter namens Talos beschrieben, der die Insel Kreta bewachte, indem er Steine auf Piraten und Eindringlinge warf. Mehr als zwei Jahrtausende später findet sich das gleiche Thema in Mary Shelleys Roman Frankenstein, in dem ein junger Wissenschaftler versucht, seine eigenen empfindungsfähigen Wesen zu erschaffen.

Im Jahr 1950, als KI sich gerade formell als neues Forschungsgebiet der Wissenschaft etablierte, verfasste Isaac Asimov den Roman Ich, der Robot, in dem er anhand seiner drei Gesetze der Robotik die friedliche Koexistenz von Menschen und autonomen Robotern beschrieb.1

Auch Kinoklassiker greifen die Thematik intelligenter autonomer Systeme auf. So steht beispielsweise in Stanley Kubricks 2001: Odyssee im Weltraum der Raumschiffcomputer HAL9000 im Mittelpunkt der Handlung. In den Avenger-Filmen des Marvel-Universums hat Iron Man mit J.A.R.V.I.S (Just A Rather Very Intelligent System) einen persönlichen Assistenten, der in die Kategorie der starken KI2 fällt.

Schöpfer von Literatur und Filmen haben sich schon immer von aktuellen wissenschaftlichen Errungenschaften inspirieren lassen. In unserer Fantasie entwickeln wir verschiedenste Vorstellungen von den Möglichkeiten künstlich intelligenter Wesen. Aber diese Fantasien reflektieren auch immer den jeweiligen Stand der Wissenschaft und das, was wir seinerzeit für wirklich machbar hielten.

Wir verwurzeln unsere Träume und Vorstellungen gerne in irgendeiner Form der Realität, um ihnen mehr Plausibilität zu verleihen. Aus diesem Grund werden wir die Geschichte der KI zunächst aus rein wissenschaftlicher Perspektive betrachten, indem wir uns eingehender mit der damit verbundenen Technik, Logik, Mathematik und Informatik befassen.

Fast jede Zivilisation hat irgendwann im Laufe ihrer Geschichte versucht, menschenähnliche, selbständig arbeitende Maschinen zu konstruieren. Im alten China präsentierte ein Maschinenbauingenieur namens Yan Shi dem König Mu von Zhou einen lebensgrossen Roboter, der nahezu menschlich erschien. Im antiken Griechenland nutzte Heron von Alexandria frühe Formen der Pneumatik und Hydraulik, um seine mechanischen «Männer» zu bauen.

Im Jahr 1206 baute der Gelehrte al-Dschazari zur Blütezeit des Islam einen musikalischen Roboter und verfasste das Buch des Wissens von sinnreichen mechanischen Vorrichtungen. Das Buch beschreibt 100 mechanische Geräte, zusammen mit Anweisungen zu ihrer Verwendung3.

Im späten 18. Jahrhundert wurde mit dem “Schachtürken” ein vermeintlich autonomer Schachspielautomat vorgestellt, der jeden menschlichen Spieler schlagen konnte. Es handelte sich dabei um einen Schwindel: Im Inneren des «Roboters» verbarg sich ein Schachgrossmeister4, der sämtliche Züge machte. Dennoch war diese Illusion sehr erfolgreich, da sie auf der aufregenden Idee beruhte, dass eine Maschine in der Lage sein könnte, ein strategischen Spiel gegen uns zu spielen. Und uns zu schlagen.

In der Philosophie gelangten Gelehrte in Griechenland, Indien und China jeweils unabhängig voneinander zur Formalisierung logischer Systeme und deduktiver Schlussfolgerungen. In der Regel wird Aristoteles als der erste Logiker im abendländischen Kulturkreis angesehen. In den darauf folgenden Jahrhunderten wurden seine Ideen von vielen anderen Gelehrten weiterentwickelt, darunter Euklid, der Vater der Geometrie, und al-Chwarizmi, der Namesgeber des “Algorithmus”, jenes Konzept ohne das die moderne Informatik undenkbar wäre.

Im 17. Jahrhundert wurden an der Entwicklung verschiedener Maschinen gearbeitet, um grosse Zahlen schneller und zuverlässiger berechnen zu können, als Menschen dies konnten. Im Jahr 1837 entwarf Charles Babbage die Rechenmaschine “Analytical Engine”,5 den ersten Allzweckcomputer, der viele der konzeptionelle Elemente enthielt, die auch in heutigen Computern zu finden sind. Diese Maschine verfügte über ein Computerprogramm, Daten und arithmetische Operationen, die alle auf Lochkarten aufgezeichnet wurden. Kurze Zeit später veröffentlichte Ada Lovelace den ersten Computeralgorithmus – im Grunde die erste Software – für diese hypothetische Maschine.

Doch erst in der ersten Hälfte des 20. Jahrhunderts wurden auf den Gebieten der formalen Logik und der Informatik genügend Fortschritte gemacht, um in den 1940er-Jahren die ersten digitalen Computer zu bauen. Dies war die entscheidende Entwicklung, die den Weg für die Entstehung der KI als neue wissenschaftliche Disziplin in den 1950er-Jahren ebnete.

Das Aufkommen von KI

Die Anfänge des Fachgebiets in der Mitte des 20. Jahrhunderts

Mit der Erfindung des digitalen Computers in der Mitte des 20. Jahrhunderts begannen Wissenschaftler sich zu fragen, ob Computer eines Tages in der Lage sein würden, über die einfache Durchführung von Berechnungen und die Ausführung von vorab programmierten Anweisungen hinauszugehen.

Mit anderen Worten: Könnten diese Maschinen intelligent handeln? Könnten sie wie Menschen denken? Diese Frage zog eine Reihe von philosophischen Überlegungen nach sich, da die Definition von menschlicher Intelligenz schwierige Konzepte wie den Begriff des Bewusstseins beinhaltet.

Alan Turing, der Begründer der modernen Computerwissenschaft, schlug eine Methode zur Messung maschineller Intelligenz vor. In seiner bahnbrechenden Arbeit, Computing Machinery and Intelligence, formulierte Turing die Frage: “Kann eine Maschine denken?” Er wollte wissen, ob eine Maschine durch ihr Verhalten menschliche Intelligenz aufweisen und die Fähigkeit zu denken imitieren könnte.

Er schlug einen Test vor, der aufzeigen sollte, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hatte oder nicht. Dieser Test ging als Turing-Test in die Geschichte ein und betrachtete in seiner ursprünglichen Form eine Maschine dann als intelligent, wenn sie in der Lage war, einem menschlichen Gesprächspartner im Rahmen einer textbasierten Unterhaltung “vorzugaukeln” ein Mensch zu sein.

Wie sieht der Turing-Test also aus? Stellen Sie sich vor, anhand von Textnachrichten ein Gespräch zu führen, bei dem Sie Fragen stellen können und die Antworten bewerten. Wenn Sie mit einer Maschine kommunizieren, aber anhand ihrer Antworten nicht erkennen können, dass es sich um eine Maschine handelt, gilt sie laut dem Turing-Test als intelligent.

Turings Idee wurde von vielen Seiten unterstützt, aber auch kritisiert. Obwohl Bedenken bestehen, dass der Test nicht für die Beurteilung maschineller Intelligenz geeignet sein könnte, wird er auch heute noch häufig verwendet.

Turings grösste Sorge war, dass maschinelle Intelligenz durch den verfügbaren Arbeitsspeicher begrenzt sein würde und dieser nie ausreichen würde, um seinen Test zu bestehen. Er sagte voraus, dass ein Computer dann in der Lage sein würde, den Test zu bestehen, wenn er eine Speicherkapazität von 100 MB hätte. In den 1950er-Jahren ging er davon aus, dass dies etwa im Jahr 2000 möglich sein würde. Schon seit vielen Jahren übersteigt der Arbeitsspeicher von Maschinen die magische Grenze von 100 MB bei weitem, dennoch ist es extrem selten, dass bei einem Turing-Test menschenähnliche Leistungen erzielt werden – und selbst in den seltenen Fällen, in denen Maschinen den Turing-Test “bestanden” haben, bezweifeln einige Wissenschaftler, dass es sich wirklich um erfolgreiche Imitationen menschlicher Intelligenz handelt. Die Grenzen des Turing-Tests verdeutlichen die Schwierigkeiten, die Komplexität der menschlichen Intelligenz zu messen und mit den Fähigkeiten von Maschinen zu vergleichen.

In den folgenden Jahren begannen sich die Bereiche maschineller Intelligenz und der denkenden Maschinen zu entwickeln. Der Begriff der “künstlichen Intelligenz” wurde erstmals 1956 von John McCarthy beim Dartmouth Summer Research Project on Artificial Intelligence, auch einfach als Dartmouth Conference bekannt, verwendet. Bei diesem Forschungsprojekt kamen einige der bedeutendsten Wissenschaftler, Ingenieure, Mathematiker und Psychologen der damaligen Zeit zusammen. Im Laufe von zwei Monaten kombinierten sie Fachwissen und Erkenntnisse aus ihren verschiedenen akademischen Disziplinen zu einem einzigen akademischen Fachgebiet, dem McCarthy dann diesen Namen verlieh.

Die Dartmouth Conference gilt als die Geburtsstunde der künstlichen Intelligenz als ein akademisches Fachgebiet. Viele Konzepte und Begriffe, die auch heute noch gebräuchlich sind, wie “neuronale Netzwerke” und “natürliche Sprachverarbeitung”, wurden auf dieser Konferenz besprochen.

Die ersten Jahre der KI

Schach, Dame und der Enthusiasmus der 1950er- und 1960er-Jahre

Die Etablierung von KI als eigenes akademisches Fachgebiet brachte schon bald bedeutende Fortschritte mit sich. Viele der ersten Computerprogramme, die Spiele spielen, Rätsel lösen, mathematische Theoreme prüfen und künstliche Schlussfolgerungen ziehen konnten, wurden unmittelbar in den Jahren nach der Dartmouth Conference entwickelt. Auch die Konzepte des maschinellen Lernens und künstlicher neuronaler Netzwerke, zwei der wichtigsten Grundlagen heutiger KI-Systeme, wurden zu dieser Zeit entwickelt.

Die Fähigkeit, Schach zu spielen, war schon immer eng mit der Auffassung von Intelligenz verbunden. Im Jahr 1950 beschrieb Claude Shannon, der als Begründer der Informationstheorie6 gilt, das erste Computerprogramm, das in der Lage war, Schach zu spielen.

Shannon zeigte zwei Ansätze auf, die der Computer wählen könnte, um eine Partie zu gewinnen:

  1. Die Maschine könnte entweder das gesamte Spielfeld analysieren und alle möglichen Spielzüge durchgehen.
  2. Die Maschine könnte eine intelligentere Strategie verfolgen und nur eine bestimmte Anzahl von Schlüsselzügen berücksichtigen.

Shannon war auch bekannt für die Erfindung von “Theseus”, einer mechanischen Maus, die in der Lage war, ein Labyrinth zu erforschen, sich darin zu orientieren und den Weg nach draussen zu finden.

Etwa zur gleichen Zeit schrieb der bei IBM beschäftigte Elektroingenieur und Informatiker Arthur Samuel das erste Computerprogramm, das in der Lage war, Dame zu spielen, indem es lernte und seine Strategie anpasste. Es war gut genug, um eine Herausforderung für Amateurspieler darzustellen und war ein grosser Erfolg für Samuel und seinen Arbeitgeber. Sein selbstlernendes Programm verwendete ein Konzept, das heute als “Reinforcement Learning” (bestärkendes Lernen) bekannt ist. Samuel war auch massgeblich an der Prägung des Begriffs “maschinelles Lernen” beteiligt.

Ein weiterer Durchbruch gelang im Jahr 1956, als Allen Newell, Herbert Simon und Cliff Shaw ein Computerprogramm namens “Logic Theorist” schrieben. Dabei handelte es sich um das erste Programm, das in der Lage war, automatisierte Schlussfolgerung zu ziehen und die Art und Weise zu simulieren, wie Menschen denken, um Probleme zu lösen.

Logic Theorist ist zur sogenannten “symbolischen KI” zu zählen, die in den 1950er-, 1960er- und 1970er-Jahren die dominierende Methode im Bereich KI war. Moderne KI-Ansätze basieren auf dem Lernen aus Erfahrungen. Symbolische KI unterscheidet sich insofern, als dass es sich dabei um einen wissensbasierten Ansatz handelt. Dieser folgt einer Reihe von vorgegebenen, symbolischen Denkregeln, um so die menschliche Intelligenz zu imitieren. Logic Theorist war in der Lage, viele der mathematischen Theoreme aus Bertrand Russells “Principia Mathematica”, einem wegweisenden Werk über formale Logik, zu beweisen. Das Computerprogramm wurde sogar gemeinsam mit zwei anderen Mathematikern als Co-Autor einer wissenschaftlichen Arbeit genannt.

In den späten 1950er- und frühen 1960er-Jahren wurden auch künstliche neuronale Netzwerke für das Lernen und das Erkennen von Mustern entwickelt. Das vielleicht beste Beispiel für die Arbeit auf diesem Gebiet ist der “Perzeptron”-Algorithmus von Frank Rosenblatt, der Bilder erkennen und den Unterschied zwischen geometrischen Formen lernen konnte.

Diese aufregenden Erfindungen und Durchbrüche in der Mitte des 20. Jahrhunderts lösten eine grosse Begeisterung für KI als aufstrebendes Forschungsgebiet aus. Zu dieser Zeit waren diese frühen Erfolge so beeindruckend, dass sie beinahe unglaubwürdig erschienen. Wenig später entstanden dank der grosszügigen Finanzierung durch Regierungen und Unternehmen überall auf der Welt Forschungslabore für KI.

Der KI-Winter

Überhöhte Erwartungen und Stagnation in den 1970er- und 1980er-Jahren

Die frühen Erfolge der KI in den 1950er- und 1960er-Jahren führten zu einer Welle der Selbstüberschätzung und unrealistischen Erwartungen. Namhafte Experten auf dem Gebiet der KI waren verständlicherweise begeistert von den bisherigen Entwicklungen und erwarteten, dass sich ähnlich imposante Innovationen in ähnlichem Tempo fortsetzen würden.

Leider erwies sich dieser Optimismus als Trugschluss. In den frühen 1970er-Jahren sagten beispielsweise mehrere Pioniere auf dem Gebiet der KI voraus, dass Maschinen innerhalb von zehn Jahren bei der Ausführung alltäglicher Aufgaben die allgemeine Intelligenz eines durchschnittlichen Menschen erreichen würden. Seit dieser Prophezeiung sind nun 50 Jahre vergangen und sie ist immer noch weit davon entfernt, in Erfüllung zu gehen.

Die Diskrepanz zwischen diesen ehrgeizigen Prognosen und den ausbleibenden Erfolgen in den 1970er- und 1980er-Jahren führte zu Enttäuschung und schwindendem Interesse. Wichtige Finanzierungsquellen begannen zu versiegen, was zu einem starken Rückgang der Forschungsaktivitäten führte, sowohl in wissenschaftlicher als auch in kommerzieller Hinsicht. Die Folge war eine Stagnation im Forschungsgebiet der KI, die erst in den 1990er-Jahren überwunden werden konnte. Diese Zeit in der Geschichte der künstlichen Intelligenz wird als KI-Winter bezeichnet – ein Begriff, der als Anspielung auf den Kalten Krieg und als Analogie zum nuklearen Winter gedeutet werden kann.

Warum waren die Erwartungen in Bezug auf das Potenzial von KI so hoch? Zunächst einmal vermittelte der frühe Erfolg der KI bei spielerischen Aufgaben den Forschern einen falschen Eindruck von dem, was möglich war. Allgemein ging man davon aus, dass die Skalierung von KI zur Lösung allgemeinerer Probleme einfach eine Frage der Bereitstellung von mehr Speicher und grösseren Rechenressourcen sei. Man konzentrierte sich zu sehr auf das Potenzial der KI und unterschätzte gleichzeitig die Komplexität vieler Probleme.

Schon damals neigten die meisten Experten dazu, die Menge an Hardware, Speicher, Daten und Rechenleistung zu unterschätzen, die ihre Systeme tatsächlich benötigten. Ihnen war zwar bewusst, dass diese Ressourcen knapp waren, aber sie hatten kaum eine Vorstellung davon, wie viel sie davon benötigen würden. Ausserdem lag das Hauptaugenmerk bei frühen KI-Systemen noch zu sehr auf der Nachahmung des menschlichen Denkens anhand regelbasierter Ansätze, anstatt sich für die Verrichtung bestimmter Aufgaben auf die Analyse von Anforderungen zu konzentrieren und diese mittels heuristischen Methoden wie “Versuch und Irrtum” (vom Englischen “trial and error”) zu erlernen.

Anfang der 1980er Jahre wurde der KI-Winter von einem kurzzeitigen Boom unterbrochen, der auf den Aufstieg kommerzieller “Expertensysteme” zurückzuführen war. Bei derartigen Systemen handelt es sich um KI-Computerprogramme, die versuchen, in bestimmten Bereichen menschliches Fachwissen zu imitieren, anstatt ein allgemeines Intelligenzniveau zu erreichen. Diese Form der symbolischen KI nutzte bereichsspezifisches Wissen und regelbasierte Schlussfolgerungen anstelle von erfahrungsbasiertem Lernen.

Expertensysteme erfreuten sich enormer Beliebtheit und wurden in grossem Umfang zur Durchführung verschiedenster täglicher Geschäftsaktivitäten, medizinischer Diagnosen, der Konfiguration von Computerhardware und der Verarbeitung natürlicher Sprache eingesetzt. Der Erfolg von Expertensystemen weckte neues Interesse am Bereich der KI und bewirkte, dass Regierungen wieder damit begannen in dieses Forschungsgebiet zu investieren.

Die aus Japan stammenden Computersysteme der fünften Generation gehen auf diese Zeit zurück. Ihr Ziel war es, leistungsfähige Computersysteme zu bauen, die die frühen Versprechungen der 1950er und 1960er Jahre endlich verwirklichen sollten. Diese Phase dauerte etwa bis 1990. Leider scheiterte auch diese Phase des Hypes und der unrealistischen Produkterwartungen an der Umsetzung ihrer ehrgeizigen Ziele und endete in einer grossen Enttäuschung.

Die KI-Renaissance

Der Wiederaufschwung von maschinellem Lernen und neuronalen Netzwerken in den späten 1980er- und den 1990er-Jahren

Die Einschränkungen der klassischen KI mit ihren regelbasierten Ansätzen und symbolischen Systemen führte in den späten 1980er-Jahren zu einer Schwerpunktverlagerung. Ein besseres Verständnis der menschlichen Intelligenz und der Komplexität, die mit dem Treffen von Entscheidungen einhergeht, ermutigte KI-Experten, sich intensiver mit lernbasierten und wahrscheinlichkeitsbasierten Ansätzen zu beschäftigen.

Die Intelligenz des Menschen basiert auf dem Befolgen von Anweisungen und logischen Schlussfolgerungen; doch Menschen lernen auch aus Erfahrungen und durch praktisches Ausprobieren (Versuch und Irrtum). Warum sollte dieser Ansatz nicht auch auf intelligente Maschinen übertragbar sein? Diese Frage stellten sich KI-Ingenieure und schon bald beschränkten sich Maschinen nicht mehr bloss auf formale Logik. Stattdessen wurden sie mit den erforderlichen Fähigkeiten ausgestattet, um aus Beispielen zu lernen.

Das bereits Jahrzehnte zuvor von Arthur Samuel geprägte Paradigma des maschinellen Lernens war wieder in aller Munde und nahm in den späten 1980er-Jahren an Fahrt auf. Es setzte auf Statistiken und Wahrscheinlichkeiten, um Maschinen in die Lage zu versetzen, aus verfügbaren Daten zu lernen und ihr Verhalten auf der Grundlage zurückliegender Erfahrungen anzupassen. Schon bald wurde KI mit anderen ausgereiften und anspruchsvollen wissenschaftlichen Disziplinen wie Entscheidungstheorie, Statistik, Kontrolltheorie und Optimierung verbunden.

Dies zog grosse Fortschritte in den Bereichen Spracherkennung, natürliche Sprachverarbeitung, Robotik und Computervision nach sich. Dieser neue Ansatz führte zu einer Vielzahl beeindruckender Ergebnisse und zu einem besseren theoretischen Verständnis einiger Kernkonzepte der KI.

Genau wie in den 1950er- und 1960er-Jahren begannen einzelne Errungenschaften und Innovationen eine Eigendynamik zu entwickeln und sorgten für weitere Fortschritte. Binnen kurzer Zeit wuchs das Interesse an künstlichen neuronalen Netzwerken. Hierbei handelt es sich um eine Gruppe von maschinellen Lernmodellen, die von biologischen Neuronen inspiriert sind und bereits Mitte des 20. Jahrhunderts zum ersten Mal beschrieben wurden. Grund für das erneute Interesse war die Weiterentwicklung des “Backpropagation”-Algorithmus, eines der wichtigsten Algorithmen, mit denen solche Netze trainiert werden.

Daraufhin wurde von Yann LeCun7 ein neues Modell künstlicher neuronaler Netzwerke mit der Bezeichnung “Convolutional Neural Networks” (auf Deutsch “faltendes neuronales Netzwerk”) entwickelt. Dieses Modell zeigte grosse Erfolge im Bereich der optischen Zeichenerkennung (der automatischen Erkennung von Buchstaben und Zahlen in Bildern von getippten oder handgeschriebenen Texten) und wurde in mehreren industriellen Anwendungen eingesetzt – hauptsächlich bei der automatischen Brief- und Paketsortierung in Postunternehmen.

Schachmatt gesetzt von einer KI

Erinnern Sie sich noch an Arthur Samuels Algorithmus, der in den 1950er-Jahren in der Lage war, Amateurspieler beim Damespielen vor ernsthafte Herausforderungen zu stellen? Um den Fortschritt der Entwicklung von KI im Laufe des 20. Jahrhundert zu verdeutlichen, sei hier erwähnt, dass in den 1990er-Jahren der Schachweltmeister Garri Kasparow von IBMs Computer “Deep Blue” geschlagen wurde. Dieser wichtige Meilenstein in der Entwicklung der KI wurde aber nicht mit den “Deep Learning” Algorithmen des 21. Jahrhunderts erreicht, sondern mittels klassischer symbolischer KI. Der Name des Computers wurde von IBM rein zufällig gewählt.

G. Kasparov, der damalige Schachweltmeister, kämpfte und verlor schlussendlich gegen eine Maschine von IBM, genannt Deep Blue.

Die Revolution

Big Data und Deep Learning im 21. Jahrhundert

Die Schaffung des World Wide Web und die damit verbundenen Fortschritte des Telekommunikationssektors ermöglichten in den 2000er-Jahren die Übertragung und Speicherung von Daten in grossem Umfang. Diese Entwicklung gab dem Gebiet der neuronalen Netzwerke und der Algorithmen für “Tiefes Lernen” (abgeleitet vom englischen Begriff “Deep Learning”) den nötigen Rohstoff zum nächsten grossen Entwicklungsschritt: Big Data.

Der derzeitige Hype rund um KI ist grösstenteils auf die beispiellosen Fortschritte im Bereich des “Tiefen Lernen“ zurückzuführen, die durch Big Data ermöglicht wurden und dadurch, dass Maschinen nun mit zunehmender Regelmässigkeit den Menschen bei der Verrichtung komplexer Aufgaben überlegen sind.

Dank der Arbeit von Pionieren wie Yoshua Bengio, Geoffrey Hinton und Yann LeCun begann das Forschungsgebiet des “Tiefen Lernens“ in den frühen 2010er-Jahren richtig an Fahrt aufzunehmen.8 Eine Fülle von Daten, Verbesserungen bei der Entwicklung von Lernalgorithmen und die Steigerung von Rechenleistungen haben Wissenschaftlern wie ihnen die Möglichkeit gegeben, beeindruckende Fortschritte in Sachen Spracherkennung und natürliche Sprachverarbeitung, visuelle Erkennung und Reinforcement Learning zu erzielen.

Das vielleicht beste Beispiel dafür ist das von der KI-Firma DeepMind entwickelte Computerprogramm AlphaGo. Das Spiel Go ist wesentlich komplizierter als Schach und trotzdem war dieses Programm dazu in der Lage, das Spiel von Grund auf zu erlernen und nach wenigen Monaten des Trainings im Jahr 2016 den Weltmeister Lee Sedol zu schlagen. Von Arthur Samuels grundlegendem Algorithmus für das Damespiel bis zum Sieg von Deep Blue über Kasparow dauerte es 40 Jahre. Und von da bis zum Sieg durch AlphaGo dauerte es nur etwa die Hälfte der Zeit.

Aus der relativ kurzen Geschichte der KI können wir wertvolle Lektionen über den Umgang mit dem Hype und mit unrealistischen Erwartungen lernen. Es ist wichtig, dass wir unseren Enthusiasmus für diese faszinierende Technologie kanalisieren, damit wir kontinuierliche Fortschritte erzielen und es nicht erneut zu einem KI-Winter kommt.

Wir können dies erreichen, indem wir lernen die Komplexität der menschlichen Intelligenz und die Grenzen von KI besser zu verstehen.

  1. Die drei Gesetze der Robotik wurden 1950 vom Schriftsteller Asimov eingeführt. Sie sollen den Menschen vor Robotern schützen. Das erste Gesetz lautet zum Beispiel: “Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.” Wenn Sie Interesse haben, können Sie die anderen Gesetze auf diesem Wikipedia Artikel nachlesen. 

  2. J.A.R.V.I.S ist eine Sci-Fi-Version einer starken KI, eine KI, die gleich intelligent wie ein Menschen ist. Wir werden die Konzepte der schwachen und starken KI in KI - zwei Buchstaben, viele Bedeutungen näher vorstellen. 

  3. Einige Beispiele sind in diesem englischsprachigen Blog aufgeführt. 

  4. Wollen Sie sehen, wie er aussah? Sehen Sie sich hier einen Kupferstich an, der erklärt, wie der Apparat aussah. 

  5. Ein Bild von einem Teil der Analytical Engine finden Sie hier

  6. Die Informationstheorie ist die wissenschaftliche Untersuchung der Quantifizierung, Speicherung und Kommunikation von Informationen. Lesen Sie mehr darüber hier auf Wikipedia. Eine berühmte Anwendung der Informationstheorie ist die Datenkompression: Formate wie ZIP, MP3 und JPEG wurden eingeführt, um möglichst viele Informationen zu speichern und dabei möglichst wenig Speicherplatz zu benötigen. 

  7. Yann Le Cun ist ein KI-Forscher, der für die Entwicklung von Convolutional Neural Networks bekannt ist. Er ist zur Zeit der Leiter der KI-Abteilung bei Facebook

  8. Die Association for Computing Machinery (ACM) ernannte Yoshua Bengio, Geoffrey Hinton und Yann Le Cun als Empfänger des ACM A.M. Turing Award 2018 (anerkannt als das Nobelpreis-Äquivalent für Informatik). Lesen Sie mehr darüber hier