Kostenlos & unverbindlichJetzt mit Paolo sprechen
Anruf buchen →
Blog

Einfache Geschichte der Künstlichen Intelligenz

Paolo De Giglio
Paolo De Giglio
8 min
Einfache Geschichte der Künstlichen Intelligenz

Einfache Geschichte der Künstlichen Intelligenz

Geschichte der Künstlichen Intelligenz

Die Geschichte der künstlichen Intelligenz reicht bis in die Antike zurück, als Philosophen über das Konzept künstlicher Wesen, mechanischer Menschen und anderer Automaten nachgedacht haben, die existieren könnten oder potenziell ins Dasein treten könnten.

Die Schaffung intelligenter Maschinen hat die Menschheit seit Jahrhunderten fasziniert, und ihre Entwicklung war nichts weniger als bemerkenswert. Von den ersten theoretischen Überlegungen bis hin zu modernen Fortschritten beim maschinellen Lernen und in der Robotik war die Suche nach der Schaffung intelligenter Maschinen eine treibende Kraft in der Welt der Technologie.

Dank der ersten Denker wurde Künstliche Intelligenz im Laufe des 18. Jahrhunderts und darüber hinaus immer greifbarer. Philosophen haben darüber nachgedacht, wie menschliches Denken mechanisiert und von nicht-menschlichen intelligenten Maschinen manipuliert werden könnte.

Die Denkprozesse, die das Interesse an KI geweckt haben, entstanden, als klassische Philosophen, Mathematiker und Logiker die (mechanische) Manipulation von Symbolen in Betracht zogen – was letztlich zur Schaffung des programmierbaren digitalen Computers führte, dem Atanasoff Berry Computer (ABC) in den 1940er Jahren.

Diese besondere Erfindung inspirierte Wissenschaftler dazu, mit der Idee der Schaffung eines „elektronischen Gehirns" – also eines künstlich intelligenten Wesens – fortzufahren.

Es dauerte fast zehn Jahre, bis KI in einem Bereich war, der dem heutigen ähnelt.

Alan Turing, unter anderem Mathematiker, schlug einen Test vor, der die Fähigkeit einer Maschine misst, menschliche Handlungen auf nicht unterscheidbare Weise zu replizieren. Später in diesem Jahrzehnt wurde das Forschungsgebiet KI während einer Sommerkonferenz am Dartmouth College Mitte der 1950er Jahre gegründet, wo John McCarthy, Informatiker und Kognitionswissenschaftler, den Begriff „Künstliche Intelligenz" prägte.

Von den 1950er Jahren bis heute haben unzählige Wissenschaftler, Programmierer, Logiker und Theoretiker dazu beigetragen, unser modernes Verständnis von Künstlicher Intelligenz zu festigen.

Jedes Jahrzehnt sah revolutionäre Innovationen und Entdeckungen, die unsere Vorstellung von KI grundlegend verändert haben – von einer fernen Fantasie zu einer greifbaren Realität für gegenwärtige und zukünftige Generationen.

Die Entwicklung der Theorien der Künstlichen Intelligenz verlief in chronologischer Reihenfolge wie folgt:

Die Geburt der theoretischen Künstlichen Intelligenz (ab 1940)

Der Zeitraum zwischen 1940 und 1960 war stark geprägt von der Verbindung technologischer Entwicklungen (die der Zweite Weltkrieg beschleunigt hatte) und dem Wunsch zu verstehen, wie das Funktionieren von Maschinen und organischen Wesen zu vereinen sei.

Für Norbert Wiener, Pionier der Kybernetik, war das Ziel, mathematische Theorie, Elektronik und Automatisierung als „eine allgemeine Theorie der Kontrolle und Kommunikation, sowohl in Tieren als auch in Maschinen" zu vereinen.

Kurz zuvor hatte Warren McCulloch gemeinsam mit Walter Pitts bereits 1943 ein erstes mathematisches und informatisches Modell des biologischen Neurons (formales Neuron) entwickelt.

Anfang der 1950er Jahre waren John Von Neumann und Alan Turing die Gründerväter der Technologie, die dies möglich machte. Sie vollzogen den Übergang von Computern mit der Dezimallogik des 19. Jahrhunderts (die Werte von 0 bis 9 verwaltete) zur binären Logik der Maschinen (die auf der Booleschen Algebra basiert und 0 oder 1 verwaltet).

Die beiden Forscher formalisierten damit die Architektur unserer modernen Computer und demonstrierten, dass es sich um eine universelle Maschine handelt, die alles ausführen kann, was programmiert wird. Turing hingegen stellte erstmals die Frage nach der möglichen Intelligenz einer Maschine in seinem berühmten Artikel von 1950 „Computing Machinery and Intelligence" und beschrieb ein „Imitationsspiel", bei dem ein Mensch in einem telepathischen Dialog unterscheiden können sollte, ob er mit einem Mann oder einer Maschine spricht.

Trotz der Kontroverse, die diesen Artikel umgibt (dieser „Turing-Test" scheint sich für viele Experten nicht zu qualifizieren), wird er oft als Quelle der Debatte über die Unterscheidung zwischen Mensch und Maschine zitiert.

Das Akronym „KI" wurde von John McCarthy vom MIT (Massachusetts Institute of Technology) geprägt. Marvin Minsky von der Carnegie-Mellon-Universität definiert es insbesondere als „die Schaffung von Computerprogrammen, die Aufgaben ausführen, die derzeit von Menschen zufriedenstellender ausgeführt werden, da sie mentale Prozesse auf hohem Niveau erfordern wie: Wahrnehmungslernen, Gedächtnisorganisation und kritisches Denken".

Die Sommerkonferenz 1956 am Dartmouth College gilt als Gründungsveranstaltung der Disziplin. Bemerkenswert ist der große Erfolg dessen, was keine Konferenz, sondern vielmehr ein Workshop war. Nur sechs Personen, darunter McCarthy und Minsky, waren während dieser Arbeit (die im Wesentlichen auf formaler Logik basierenden Entwicklungen beruhte) konstant anwesend.

Obwohl die Technologie noch faszinierend und vielversprechend war, nahm die Popularität Anfang der 1960er Jahre ab. Die Maschinen hatten einen sehr begrenzten Arbeitsspeicher, was die Nutzung einer Computersprache erschwerte.

Im fernen 1957 prophezeite der berühmte Ökonom und Soziologe Herbert Simon, dass es der Künstlichen Intelligenz gelingen würde, innerhalb der nächsten 10 Jahre einen Menschen im Schach zu schlagen.

Jedoch fiel die KI in einen langen Winter, und Simon musste 30 Jahre warten, bevor sich seine Vision bewahrheitete.

Die Künstliche Intelligenz wird zur Realität (ab 1970)

1968 führte Stanley Kubrick den Film „2001: Odyssee im Weltraum" Regie, in dem ein Computer – HAL 9000 – die gesamte Summe der von der KI aufgeworfenen ethischen Fragen in sich vereinte: Wird sie ein hohes Maß an Raffinesse darstellen, ein Segen für die Menschheit oder eine Gefahr?

Die Wirkung des Films wird natürlich nicht wissenschaftlicher Natur sein, aber er wird dazu beitragen, das Thema zu popularisieren – ebenso wie der Science-Fiction-Autor Philip K. Dick, der nie aufgehört hat zu fragen, ob Maschinen eines Tages Emotionen erleben werden.

Es war mit dem Aufkommen der ersten Mikroprozessoren Ende der 1970er Jahre, dass KI wieder Fahrt aufnahm und in das goldene Zeitalter der Expertensysteme eintrat.

Der Weg wurde tatsächlich am MIT im Jahr 1965 mit DENDRAL (Expertensystem für molekulare Chemie) und an der Stanford University im Jahr 1972 mit MYCIN (spezialisiert auf die Diagnose von Blutkrankheiten und die Verschreibung von Medikamenten) geöffnet. Diese Systeme basierten auf einer „Inferenzmaschine", die so programmiert war, dass sie ein logischer Spiegel des menschlichen Denkens war. Durch Eingabe von Daten lieferte die Maschine Antworten auf hohem Kompetenzniveau.

Die Erwartungen sahen eine massive Entwicklung vor, aber der Hype sollte Ende der 1980er, Anfang der 1990er Jahre erneut einbrechen. Die Programmierung dieses Wissens erforderte viel Aufwand, und bei 200 bis 300 Regeln gab es einen „Black-Box"-Effekt, bei dem unklar war, wie die Maschine vorging.

Entwicklung und Wartung wurden extrem problematisch – und vor allem gab es schnellere und in vielerlei Hinsicht weniger komplexe und weniger kostspielige Wege. Es sei daran erinnert, dass in den 1990er Jahren der Begriff Künstliche Intelligenz fast zum Tabu geworden war und bescheidenere Varianten wie „erweitertes Computing" verwendet wurden.

Der Erfolg im Mai 1997 von Deep Blue (IBMs Expertensystem) im Schachspiel gegen Garry Kasparov hat Herbert Simons Prophezeiung von 1957 dreißig Jahre später wahr werden lassen, ohne jedoch die Finanzierung und Entwicklung dieser Form von KI aufrechtzuerhalten.

Der Betrieb von Deep Blue basierte auf einem systematischen Brute-Force-Algorithmus, bei dem alle möglichen Züge bewertet und gewichtet wurden.

Die Niederlage des Menschen blieb in der Geschichte sehr symbolisch, aber Deep Blue war tatsächlich in der Lage gewesen, einen sehr begrenzten Bereich zu behandeln – weit entfernt von der Fähigkeit, die Komplexität der Welt zu modellieren.

Schach Maschine gegen Mensch

Künstliche Intelligenz und ihre Blütezeit im dritten Jahrtausend (ab 2000)

Der neue, aufregende Boom der Disziplin wurde durch zwei Schlüsselfaktoren erklärt, die dem Sektor um 2010 Auftrieb gaben.

Erstens der Zugang zu massiven Datenmengen. Früher musste man für Klassifizierungs- und Bilderkennungsalgorithmen manuelle Stichproben durchführen. Heute kann eine einfache Google-Suche in wenigen Sekunden Millionen von Daten finden.

Die außerordentliche Effizienz der Grafikkarten von Computern beim Beschleunigen der Berechnung von Lernalgorithmen stellte einen echten Durchbruch dar. Vor 2010 dauerte die Verarbeitung der gesamten Stichprobe Wochen, aufgrund der Iterativität des Prozesses.

Dank der Rechenleistung dieser Karten (die mehr als tausend Milliarden Transaktionen pro Sekunde durchführen können) wurde ein bemerkenswerter Fortschritt zu einem überschaubaren finanziellen Aufwand erzielt.

Die jüngste technologische Ausstattung ermöglichte bedeutende öffentliche Erfolge und erhöhte die Finanzierung: 2011 gewann Watson, IBMs KI, gegen zwei Jeopardy!-Champions. 2012 war Google X (Googles Forschungslabor) in der Lage, seine Algorithmen ein Bild einer Katze in einem Video erkennen zu lassen. Für diese Aufgabe wurden über 16.000 Prozessoren verwendet, aber das Potenzial ist außergewöhnlich: Eine Maschine lernt, etwas zu unterscheiden.

2016 besiegte AlphaGO (Googles auf das Go-Spiel spezialisierte KI) den europäischen Meister (Fan Hui) und den Weltmeister (Lee Sedol) und übertraf sich dann selbst mit AlphaGo Zero. Es sei darauf hingewiesen, dass das Go-Spiel eine weitaus komplexere Kombinatorik als Schach hat (größer als die Anzahl der Teilchen im Universum) und dass in Bezug auf Brute-Force-Leistung keine so bedeutenden Ergebnisse erzielt werden können (wie es 1997 mit Deep Blue der Fall war).

Woher kam dieses Wunder? Eine vollständige Revolution des Expertensystem-Paradigmas.

Der Ansatz wurde induktiv: Es geht nicht mehr darum, Regeln wie bei Expertensystemen zu kodieren, sondern darum, Computern zu ermöglichen, sie durch Korrelation und Klassifizierung eigenständig auf der Grundlage einer großen Datenmenge zu entdecken.

Unter den Techniken des maschinellen Lernens scheint Deep Learning für zahlreiche Anwendungen am vielversprechendsten zu sein, darunter Sprach- und Bilderkennung. Im Jahr 2003 beschlossen Geoffrey Hinton von der Universität Toronto, Yoshua Bengio von der Universität Montreal und Yann LeCun von der New York University, ein Forschungsprogramm zur Aktualisierung neuronaler Netzwerke zu starten.

Bemerkenswerte Ergebnisse wurden durch gleichzeitig durchgeführte Experimente von Microsoft, Google und IBM erzielt. Dank Deep Learning wurden die Fehlerquoten bei der Spracherkennung um die Hälfte reduziert.

In der Zukunft

Die unaufhörliche Suche nach Fortschritt in diesem Bereich hat zu einer tiefgreifenden Transformation unseres kollektiven Bewusstseins geführt, und wir erleben weiterhin einen Paradigmenwechsel in der Art und Weise, wie wir mit Technologie interagieren.

Mit Blick auf die Zukunft scheinen die Möglichkeiten für KI grenzenlos zu sein, und wir können nur die unglaublichen Fortschritte erahnen, die uns erwarten.

(Klicken Sie hier, um unseren vollständigen Leitfaden zu Künstlicher Intelligenz für Unternehmen zu lesen)