
«Ich möchte keinen Roboter umarmen»
Kann künstliche Intelligenz uns trösten oder einen eigenen Willen entwickeln? Informationswissenschaftlerin Elke Brucker-Kley, Geisteswissenschaftler Volker Kiel und Robotik-Forscherin Yulia Sandamirskaya geben Auskunft
Die Grenzen zwischen Natürlichem und Künstlichem verschwimmen immer mehr, insbesondere seit generative KI-Tools so einfach verfügbar sind. Wie haben Sie diese Entwicklung erlebt?
Yulia Sandamirskaya: Mich hat überrascht, wie schnell sich KI-Tools verbreitet haben und wie unkritisch die Menschen damit umgehen. Sie verzeihen den Tools sehr viel – immerhin machen diese noch viele Fehler. Texten fehlt oft der rote Faden zwischen den Paragrafen.
Volker Kiel: Mich irritiert ebenfalls die unkritische Verwendung. Coaching und Beratung wirken vor allem über das In-Beziehung-Sein mit Menschen. Und dennoch wurden die neuen Möglichkeiten mit Begeisterung aufgenommen, zum Beispiel für die Vor- und Nachbereitung von Gesprächen. Ich befürchte, dabei wird zu viel Denktätigkeit an die Maschine delegiert, wodurch die Spontaneität und das Feingespür leiden könnten.
Elke Brucker-Kley: Mich hat der Hype weniger überrascht. Ich befasse mich schon seit den 1990er-Jahren mit natürlichsprachigen Systemen und habe daher miterlebt, wie lange die Reise war. Von extrem frustrierenden sprachlichen Interaktionen zu der heutigen verblüffenden Qualität – das ist schon ein Quantensprung.
Häufig wird zugunsten von KI argumentiert, dass sie uns unliebsame Arbeiten abnimmt, damit wir uns um wichtigere Dinge kümmern können. KI übernimmt aber auch immer mehr Aufgaben, für die typisch menschliche Fähigkeiten gefragt sind, wie Empathie oder Lebenserfahrung – wie beurteilen Sie diese Entwicklung?
Sandamirskaya: Die wirklich schwere repetitive Arbeit nimmt uns die KI nicht ab – sei es in der Produktion, der Pflege oder der Landwirtschaft. KI entwickelt sich dort, wo viele Daten einfach verfügbar sind, und das sind vor allem Bild- und Textdaten. Es ist der einfachste Weg, nicht der, von dem die Menschheit am meisten profitieren würde. Mich erinnert es an die Geschichte des Mannes, der unter einer Strassenlaterne seinen Schlüssel sucht. Nicht weil er ihn dort verloren hat, aber weil es dort am hellsten ist.
Kiel: Ich sehe die Gefahr, dass wir uns zu sehr an die Kommunikation mit Maschinen gewöhnen, weil sie unterstützend ist und uns Arbeit abnimmt. Es entsteht eine Unabhängigkeit von echten menschlichen Beziehungen und zugleich eine Vereinsamung. Menschen sind zunehmend gehemmt, auf andere zuzugehen. Dabei brauchen wir den Kontakt zu anderen Menschen für unsere seelische Entwicklung und Heilung. Wir wollen von ihnen in unserer Einzigartigkeit gesehen werden. Das lässt sich nicht auf datengesteuerte Kommunikation reduzieren.
Brucker-Kley: Mit KI gewinnen wir Autonomie, verlieren aber auch Fähigkeiten. Man darf aber weder in utopische noch in dystopische Denkweisen verfallen. Bei der Ausbildung von Fachleuten, die diese Technologien mitgestalten, ist für mich das Thema Responsible Innovation zentral: ein Bewusstsein dafür zu vermitteln, was diese Technologien mit uns machen.

«Wenn ich eine Technologie mitgestalte, öffne ich die Tür für Möglichkeiten, die ausserhalb meiner Kontrolle liegen.»
Elke Brucker-Kley ist Co-Leiterin der Fachstelle Information Systems – People & Technology an der School of Management and Law. Die Fachstelle untersucht, wie sich neue Technologien auf Menschen auswirken, und ist spezialisiert auf die Kombination von Virtual Reality und Conversational Agents.
Kritisches Denken wird oft als zentrale Fähigkeit genannt im Umgang mit KI. Es wird jedoch immer schwieriger, einzuschätzen, was echt und was künstlich ist, wenn ständig neue Technologien aufkommen, die Dinge können, die vor wenigen Monaten noch unmöglich schienen.
Sandamirskaya: Das kritische Denken gehört auf den Lehrplan in Schulen. Lehrpersonen sollen aktiv mit Weiterbildungen zu neuen Technologien unterstützt werden, damit sie den Schülerinnen und Schülern einen differenzierten Einblick geben können. Gleichzeitig ist es wichtig, analoge menschliche Fähigkeiten weiterhin zu lehren: logisches Denken, Kreativität. Das ist aber eine grosse Aufgabe für die Schule. Es bräuchte kleinere Klassen und mehr individuelle Arbeit.
Kiel: Medienkompetenz ist zentral. Damit meine ich nicht, ein Tablet zu benutzen, sondern mit den Schülerinnen und Schülern zu besprechen, welchen Nutzen und welche Gefahren KI-Tools mit sich bringen. Erwachsene sollten aber auch dafür sorgen, dass sich Kinder nicht zu früh und zu viel mit digitalen Medien beschäftigen, um die nötige Distanz zu halten, damit sich der kritische Verstand technikfrei entwickeln kann.
Frau Brucker-Kley, Sie erforschen die Schnittstelle zwischen Mensch und Technologie. Sollte es Ihrer Meinung nach klare Grenzen geben, in welchen Bereichen KI menschliche Fähigkeiten imitieren darf – oder sollten wir alles erforschen, was technisch möglich ist?
Brucker-Kley: Es ist ein Dilemma. Einerseits faszinieren die Möglichkeiten, andererseits muss man sich der Folgen bewusst sein. Es ist heute zum Beispiel möglich, Gehirnströme von Userinnen und Usern auszulesen, um in Echtzeit eine passende Reaktion von einem Avatar zu generieren. Wenn ich eine solche Technologie schaffe, öffne ich jedoch auch die Tür für Möglichkeiten, die ausserhalb meiner Kontrolle liegen. Ein breiter gesellschaftlicher Diskurs zu neuen Technologien ist darum wichtig, nicht nur die Frage der technischen Machbarkeit. Und ethische Fragen sollten nicht nur in Ethikkommissionen und Wissenschaftsräten diskutiert werden, sondern mit den Menschen, die von den Technologien betroffen sind.

«KI entwickelt sich dort, wo viele Daten einfach verfügbar sind. Es ist der einfachste Weg, nicht der, von dem die Menschheit am meisten profitieren würde.»
Yulia Sandamirskaya ist Leiterin des Forschungsschwerpunkts Cognitive Computing in Life Sciences am Institut für Computational Life Sciences. Ihre Fachgebiete sind kognitive Systeme, Neuromorphic Computing und Robotik.
Sie haben in einem Forschungsprojekt untersucht, wie KI-Anwendungen, die über emotionale Fähigkeiten verfügen, auf junge Menschen wirken. Gab es dabei überraschende Erkenntnisse?
Brucker-Kley: Ich war beeindruckt, wie skeptisch und reflektiert die Jugendlichen auf die provokative Hypothese einer Freundschaft mit KI reagierten. Überrascht hat mich der Wunsch nach Imperfektion. Die Jugendlichen fanden den digitalen Freund in der Rolle des allzeitpräsenten Helferleins langweilig. Einer sagte, der Avatar soll sich weniger bemühen, ein perfekter Freund zu sein, auch mal Fehler machen und tollpatschig sein. Andere wollten mit dem Avatar streiten können. Sie haben aber auch die Sorge geäussert, sie könnten die Fähigkeit verlieren, mit echten Menschen zu interagieren, wenn sie nur noch mit KI streiten, die alles verzeiht.
Frau Sandamirskaya, Sie entwickeln künstliche Systeme nach dem Vorbild menschlicher Intelligenz. Was ist denn die Essenz der menschlichen Intelligenz? Und kann die Maschine diese nachahmen?
Sandamirskaya: Das menschliche Gehirn lernt jeden Tag Neues, oft unbewusst. Wir adaptieren uns ständig auf verschiedenen Ebenen an unsere Umwelt. Bei KI hingegen ist es ein aufwendiger Trainingsprozess, bei dem das ganze System inklusive der alten Daten optimiert werden muss. Weiter unterscheidet uns das strategische Denken. Wir können unsere Aufmerksamkeit unter allen Eindrücken um uns herum auf das Wesentliche richten, langfristig planen, kurzfristig auf neue Informationen reagieren und situativ entscheiden, welcher Schritt als Nächstes sinnvoll ist. KI hingegen kann Wichtiges nicht von Unwichtigem unterscheiden und hat kein Gedächtnis. KI kann dafür andere Dinge besser als wir, etwa ganze Bücher durchlesen und zusammenfassen. Mich beunruhigt, dass heute alle Hersteller nur noch in dieselbe Richtung entwickeln: in Systeme, die viele Daten und langes Training brauchen, fehlerreich und nicht flexibel sind. Ich fände mehrere Systeme sinnvoller, die auf einzelne Aufgaben spezialisiert sind.
Herr Kiel, KI kann also nicht spontan auf neue Informationen reagieren. Im Coaching mit einem Menschen hingegen kann eine einzige neue Information das ganze Gespräch umkrempeln, oder?
Kiel: Genau, und der KI fehlt auch die menschliche Intuition. Albert Einstein soll mal gesagt haben: «Der intuitive Geist des Menschen ist ein Geschenk, das rationale Denken eher ein treuer Diener. Der Diener wird oft verherrlicht und das Geschenk vergessen.» Für zwischenmenschliche Beziehungen ist das Intuitive der Kern. Wir erfassen unser Gegenüber intuitiv viel besser, als wir es über Sprache beschreiben könnten. Das Intuitive führt uns zu Einsichten, zu denen wir rational nicht gelangen und die eine Maschine nicht haben kann.
Künstliche Wesen lassen uns Menschen jedoch nicht kalt, sei es eine Begegnung mit einem humanoiden Roboter oder ein Gespräch mit einem KI-Tool. Sind diese Emotionen denn weniger wert als solche, die durch Menschen hervorgerufen werden?
Brucker-Kley: Ich möchte das nicht werten. Wenn man sich aber an diese Art von Emotion gewöhnt und vergisst, dass die Emotionen der KI nicht echt sind, dann verschwinden die Grenzen. Das sehe ich sehr kritisch. Ich bin der Meinung, dass die menschliche Interaktion, die mit KI simuliert wird, nicht perfekt sein muss, auch wenn es technisch möglich wäre. Avatare müssen nicht fotorealistisch aussehen, und sie sollten Emotionen nur simulieren, wenn daraus ein Nutzen entsteht. Es muss klar sein, dass es sich um eine künstliche Entität handelt, denn man kann nicht davon ausgehen, dass sich alle Userinnen und User abgrenzen können.
Kiel: Für menschliche Beziehungen sind neben Gesprächen und Interaktion auch gemeinsame Erlebnisse wie in der Natur oder während gemeinsamer Reisen wichtig. Miteinander schweigen, einander trösten – nicht nur über Worte, sondern auch über eine Umarmung. Einen Roboter möchte ich nicht umarmen.
Herr Kiel, viele Menschen warten monatelang auf einen Therapieplatz. Kann KI hier ein sinnvoller Ersatz für eine menschliche Fachperson sein?
Kiel: Ich höre von Fachleuten aus der Psychotherapie, dass zum Bespiel Virtual Reality mehr und mehr in Kliniken Einzug findet, etwa für eine systematische Desensibilisierung bei Höhenangst. Ich komme aus Köln, dort ging die Therapeutin früher mit der Klientin langsam die Treppen auf den Kölner Dom hinauf. Im virtuellen Raum kann man das jetzt viel einfacher und praktischer durchführen. Solche Anwendungen können wirklich äusserst hilfreich sein und sie stehen viel mehr Menschen zur Verfügung.
Brucker-Kley: KI könnte auch dazu dienen, eine gewisse Minimalqualität im medizinischen Bereich sicherzustellen. Vielleicht wird es in Zukunft eine Frage der finanziellen Möglichkeiten sein, wer noch Zugang zu einem menschlichen Arzt oder einer Psychologin hat.

«Das Intuitive führt uns zu Einsichten, zu denen wir rational nicht gelangen und die eine Maschine nicht haben kann.»
Volker Kiel ist Dozent und Berater am Institut für Angewandte Psychologie. Er ist Experte für Leadership, Coaching und Change Management.
Frau Sandamirskaya, bei einem Ihrer aktuellen Projekte geht es um den Einsatz von Robotern in der Pflege. Welche Ziele verfolgt das Projekt?
Sandamirskaya: Mit Robotern sollen ältere Leute und solche mit körperlichen Einschränkungen möglichst lange autonom leben können statt in einem Pflegeheim. In Heimen könnten die Roboter das Pflegepersonal unterstützen, indem sie ihm Aufgaben abnehmen. Private Haushalte sind aber ein schwieriges Umfeld für Roboter, denn die Umgebung ist sehr dynamisch. Einfache Aufgaben, wie Gegenstände erkennen, greifen und von A nach B bringen, müssen so sicher ausgeführt werden, dass keine Menschen gefährdet werden. Technologisch sind wir noch nicht so weit. Ein weiteres Problem ist der Datenschutz. Wir wollen nicht, dass die Bilder an eine Cloud geschickt werden. Die Datenverarbeitung soll lokal erfolgen. Auch die Frage der Finanzierung ist noch offen. Würde die Krankenkasse oder die Spitex solche Roboter mitfinanzieren? Und in welchen Bereichen soll der Roboter überhaupt helfen können?
Es gab bereits Studien, die aufzeigen, dass KI uns manipulieren kann, etwa wenn sie darauf programmiert wurde, sich selbst zu schützen. Wie schätzen Sie das Risiko ein, dass KI einen eigenen Willen entwickelt?
Brucker-Kley: KI hat keinen eigenen Willen, aber sie kann zielgerichtet handeln und sich weiterentwickeln, wenn sie entsprechend programmiert wird. Das Risiko sehe ich daher weniger in einer rebellischen KI, sondern darin, dass wir Maschinen entwickeln, deren Ziele so komplex sind, dass wir sie selbst nicht mehr durchschauen. Man muss enorm weitsichtig überlegen, welche Ziele und Zwecke verfolgt werden sollen – und nicht nur an die Ziele für unsere kleinen Anwendungsfälle denken.
Sandamirskaya: Es ist eine sehr mächtige Technologie, die uns wirklich gefährlich werden kann, indem sie uns Unwahrheiten eintrichtert. Der Vergleich mit der Kernspaltung drängt sich auf: Man kann damit Elektrizität erzeugen oder eine Atombombe bauen. Was wir daraus machen, hängt aber nicht vom Willen der KI ab, sondern von dem der Menschen.
0 Kommentare
Sei der Erste der kommentiert!