Geschichte der Künstlichen Intelligenz in der Wissenschaft

3. Dezember 2019
4/2019

1950 ALAN TURING

Alan Turing schafft mit seinem Aufsatz «Computing Machinery and Intelligence» die gedankliche Grundlage für die Disziplin der Künstlichen Intelligenz. Seine Annahme: Sofern menschliches Denken – und damit auch Intelligenz – in logische Einzelschritte aufgeschlüsselt und somit mathematisch dargestellt werden kann, kann Denken von einer Maschine imitiert werden.

1956 DARTMOUTH WORKSHOP

Der Dartmouth Workshop – ein Forschungsprojekt am Dartmouth College in Hanover im Nordosten der USA – kann als die Geburtsstunde Künstlicher Intelligenz als akademisches Forschungsgebiet bezeichnet werden. Das Ziel der Forschenden ist es, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, damit sie Probleme lösen, die bis dahin nur Menschen lösen konnten. Und sie wollen wissen, wie Maschinen sich selbst weiter verbessern können. Die Teilneh- menden einigen sich auf den Begriff «Artificial Intelligence».

1957-1965 DIE ANFANGSPHASE

In dieser Anfangsphase der Künstlichen-Intelligenz-Forschung ist der Enthusiasmus gross, weil man in einfachen Projekten – beispielsweise bei simplen Anwendungen in der Spracherkennung – schnelle Erfolge gesehen hat.

1965 -1975 DER ERSTE KI-WINTER

Durchbrüche in der KI-Anwendung lassen auf sich warten, da sich die Erfolge bei den einfachen Problemen nicht auf komplexere übertragen liessen. So konnte beispielsweise das Versprechen an das US-Militär, dass dank KI Russisch einwandfrei auf Englisch übersetzt werden könne, nicht eingelöst werden. Als Folge bricht der erste KI-Winter ein.

1975-1990 DER ZWEITE KI-WINTER

Die KI-Forschung konzentriert sich nun auf die Entwicklung sogenannter Expertensysteme. Ein Expertensystem ist eine Datenbank, auf welcher grosse Mengen an Informationen in einem begrenzten Fachgebiet gespeichert sind. Indem die Informationen mit Regeln kombiniert werden, kann mit diesen Systemen Wissen abgerufen werden. Das wohl bekannteste Expertensystem MYCIN etwa ist in der Lage, Blutinfektionen zu diagnostizieren und Therapien zu empfehlen. Erfolgreiche Beispiele wie dieses führen dazu, dass zahlreiche weitere Unternehmen mit Expertensystemen auf den Markt kommen und grosse Versprechen daran knüpfen, die meist nicht gehalten werden können: Die angebotenen Lösungen sind häufig zu teuer und fehleranfällig. Der zweite KI-Winter bricht ein.

1985-1990 NEURONALE NETZE

Die Idee der neuronalen Netze als Modell für Informationsverarbeitung wird in der KI-Forschung wieder aufgenommen. Die mathematische Theorie existierte bereits seit den 40er Jahren. Damals fehlten jedoch die leistungsfähigen Computer. Trotz der Fortschritte bei den Rechenleistungen sind die Computer zu dieser Zeit aber noch immer zu langsam. Darüber hinaus sind zu wenig Trainingsdaten vorhanden.

1997 DEEP BLUE VS. GARRY KASPAROV

Der IBM-Rechner «Deep Blue» schlägt in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov.

2007-2014 DATA SCIENCE

Die Idee, dass Daten ein Rohstoff sind, aus dem Nutzen generiert werden kann, kommt auf. Daraus entwickelt sich die Disziplin «Data Science».

2012 bis heute DEEP LEARNING

Neuronale Netze erleben einen erneuten Aufschwung – dies- mal sehr erfolgreich. Grosse Datenmengen und schnellere Computer führen dazu, dass man die Verfahren entscheidend verbessern konnte. 2016 schlägt Googles Computerprogramm AlphaGo den vermutlich weltbesten Go-Spieler mit 4:1. Das japanische Brettspiel Go ist viel komplexer als beispielsweise Schach. Neuere KI-Verfahren wie Deep Learning haben den Erfolg ermöglicht. Beim Deep Learning werden Lernalgorithmen und grosse Mengen an Daten in künstliche neuronale Netze eingespeist. Je mehr Daten verarbeitet werden, desto leistungs- fähiger wird das neuronale Netz.