Wenn Maschinen die Schulbank drücken
Wie eignet sich eine Maschine Wissen an? Wie ähnlich ist sie darin dem Menschen? Thomas Ott, Leiter der Fachstelle Bio-Inspired Modeling & Learning Systems an der ZHAW, hat einige Antworten dazu.
Schon der mechanische Webstuhl führte vor bald zweihundertfünfzig Jahren seine Aufgabe schneller und präziser aus, als es dem Menschen je gelingen würde. Auf eigene Faust lernen musste er dafür nichts. Ein Problem zu lösen, bedeutete für Maschinen lange, einen festgelegten Lösungsweg zu verfolgen. Maschinen wurden explizit programmiert und mit Wissen gefüttert.
«All diese Formen des Lernens sind so oder in Kombination auch beim Menschen zu finden.»
«Mit der Zeit wurden die Aufgaben jedoch so komplex, dass vorgegebene Regeln nicht mehr ausreichten», sagt Thomas Ott, Leiter der Fachstelle Bio-Inspired Modeling & Learning Systems an der ZHAW. Dies war der Anfang des maschinellen Lernens, das heute weit verbreitet ist: Eine Maschine erhält keine ausformulierten Lösungswege mehr, sondern wird mit einer grossen Menge von Beispieldaten trainiert, anhand deren sie mittels Algorithmen Muster und Gesetzmässigkeiten zu erkennen übt. Diese Modelle wendet sie später auf neue, unbekannte Daten an. Die Maschine generiere, wenn man so will, Wissen aus Erfahrung, sagt der Physiker und Neuroinformatiker. «Sie formt sich zu einem gewissen Grad selbst.»
Drei Formen des maschinellen Lernens
Grundsätzlich unterscheidet man drei Formen des maschinellen Lernens: überwachtes (supervised learning), unüberwachtes (unsupervised learning) und bestärkendes Lernen (reinforcement learning). Das überwachte Lernen kommt zum Zug, wenn man von Anfang an weiss, welches Ergebnis man sich von der Maschine erhofft: dass sie möglichst viele Hundefotos finden soll, zum Beispiel. Damit die Maschine lernt, aus Hunderttausenden von Bildern ausschliesslich diejenigen mit einem Hund darauf zu erkennen, werden diese in den Trainingsdaten erst einmal manuell als richtige Antworten gekennzeichnet. Genutzt wird diese Form des Lernens im Alltag etwa in der medizinischen Diagnostik: Computer identifizieren auf Bildern von Gewebeproben heute oft rascher und besser krebsartige Tumore als Fachleute.
Unüberwachtes Lernen
Im Gegensatz zum überwachten steht beim unüberwachten Lernen nicht im Voraus fest, welche Antwort zu erwarten ist. «Die Maschine geht explorativ vor und versucht, in den Daten grundlegende Strukturen auszumachen», sagt Ott. Die ZHAW hat beispielsweise vor einiger Zeit mit dem Wasserforschungsinstitut Eawag auf diese Weise Seewasserproben auf deren Partikelzusammensetzung hin untersucht. Hierbei habe man nicht im Voraus wissen können, welche und wie viele Arten von Partikeln sich im Wasser befänden.
Bestärkendes Lernen
Wenn eine Maschine regelmässig Feedback aus Interaktionen mit ihrer Umgebung erhält, spricht man von bestärkendem Lernen. Ein solches Umfeld kann ein Schachbrett oder auch ein Fabrikareal sein, wie der ZHAW-Dozent sagt. Hier gibt es so viele Handlungsmöglichkeiten, bei denen man nicht von vorneherein festlegen kann, ob eine bestimmte Entscheidung zielführend ist oder nicht. Die Maschine unternimmt eine Aktion, die Umwelt verändert sich dadurch und die Maschine empfängt ein Belohnungssignal, wenn die Handlung erfolgreich war. War die Handlung nicht zielführend, bleibt das Belohnungssignal aus. Aus solchen Rückmeldungen lernt das Computerprogramm oder der Roboter, die Erfolgsaussichten seiner Entscheidungen besser einzuschätzen und seine Aktionen entsprechend anzupassen. Zur Anwendung kommt dies etwa, wenn in der Robotik Greifbewegungen für Objekte eingeübt werden müssen.
Deep Learning
Bei besonders komplexen Aufgaben wie der Erkennung von Sprache und Fotos oder der Verarbeitung von Texten kommt das sogenannte Deep Learning zum Einsatz. Obwohl die Idee eines dem menschlichen Gehirn nachempfundenen künstlichen neuronalen Netzes bereits seit Jahrzehnten existiert, fehlte Computern bis vor wenigen Jahren die Rechenkapazität, um diese hoch entwickelte Form maschinellen Lernens auch umzusetzen.
Wie aus Pixeln ein Gesicht entsteht
Lernen geschieht hier auf mehreren miteinander verbundenen Ebenen, die fortlaufend abstraktere Informationen extrahieren und verarbeiten. Ein Gesicht etwa, für uns Menschen sofort als solches erkennbar, ist für einen Computer zuerst nichts als Pixel in unterschiedlichen Schattierungen. Erst in einem zweiten Schritt werden diese als Linien oder Kanten erkannt, später dann als Nase, Kinn oder Augen, die sich schliesslich zu einem Gesicht kombinieren lassen.
«Wir sollten die Komplexität der Natur nicht unterschätzen.»
«All diese Formen des Lernens sind so oder in Kombination auch beim Menschen zu finden», sagt Ott. Mensch und Maschine sei gemeinsam, dass Lernen immer auch Anpassung aufgrund von Erfahrung bedeute. Er könne nachvollziehen, dass solche Entwicklungen beim Menschen auch Unbehagen auslösten. «Es ist zweifellos beeindruckend, was ein Sprachassistent wie Siri leistet.» Dies wirft auch die Frage auf: Wozu sind Maschinen wohl sonst noch fähig? Schliesslich erledigen sie heute Aufgaben von einer Komplexität, die für Menschen oft kaum mehr nachvollziehbar ist.
Kein Verständnis oder Bewusstsein
Doch so erstaunlich manche Lösung auch sein mag: Maschinen verfolgen ausschliesslich den Zweck, den ein Mensch ihnen aufgetragen hat. «Von einer reflektierenden Intelligenz, so wie wir sie haben, sind sie weit entfernt», ist Ott überzeugt. Maschinen haben kein Verständnis oder Bewusstsein dafür, welche Daten sie verarbeiten und warum. Deshalb können sie ihr Wissen im Gegensatz zum Menschen auch nicht einfach auf eine andere Aufgabe übertragen – selbst wenn diese ganz ähnlich ist.
Menschliche Fallstricke bei neuer Technologie
«Keine Maschine wendet sich von sich aus einem anderen Ziel zu», sagt der Wissenschaftler. Ott sieht die Gefahr neuer Technologien entsprechend auch nicht darin, dass diese auf einmal düstere Absichten gegen die Menschheit hegen könnten. Sorge bereitet ihm eher der Mensch, der die Technik missbrauchen könne und dem es vielleicht nicht immer gelinge, deren Vielschichtigkeit mit allen Wechselwirkungen und Fallstricken richtig einzuschätzen.
Ott zweifelt auch daran, dass sich auf grosse Fragen wie die nach dem Wesen des menschlichen Bewusstseins irgendwann allein deshalb eine Antwort finden werde, weil immer grössere und leistungsfähigere Computer zur Verfügung stünden. «Wir sollten die Komplexität der Natur nicht unterschätzen.»
0 Kommentare
Sei der Erste der kommentiert!