Leitlinien für Künstliche Intelligenz

KI-Forschung und die unbekannten Unbekannten

05.12.2023
4/2023

Das ZHAW Centre for Artificial Intelligence will mit einer neuen Forschungsgruppe dazu beitragen, dass KI-Anwendungen ethisch und nachhaltig entwickelt werden. Leiter Thilo Stadelmann fordert zudem den stärkeren Einbezug der Geisteswissenschaften in den KI-Diskurs.

Drehbuchautorinnen und -autoren in Hollywood, die streiken. Ein Rechtsurteil in Kanada gegen einen pädophilen Mann. Universitäten in der Schweiz, die ihre Prüfungsregeln anpassen. Auf den ersten Blick haben diese Ereignisse nichts gemeinsam. Doch bei allen geht es um den Einsatz von Künstlicher Intelligenz (KI): Was, wenn sie zum Verfassen von Drehbüchern genutzt wird, zum Erstellen pornografischer Bilder oder um Prüfungen zu bestehen? Welche Grenzen müssen der Technologie gesetzt, welche gesellschaftlichen Normen bei ihrer Entwicklung beachtet werden?

Das Centre for Artificial Intelligence (CAI) der ZHAW beschäftigt sich schon länger mit derartigen Fragen und hat kürzlich hierfür eine neue Forschungsgruppe Responsible AI Innovation (RAI) ins Leben gerufen. Deren Mitglieder erforschen Ansätze für die Entwicklung von KI-Anwendungen, die ethischen Prinzipien entsprechen und dem Gemeinwohl dienen. «Solche Überlegungen werden von Firmen häufig als Diskussionsbereich betrachtet, der getrennt von der eigenen Unternehmensaktivität geführt wird», sagt Ricardo Chavarriaga, Leiter von RAI. Die Gruppe möchte dem Thema mehr Gewicht verleihen und dazu beitragen, dass schon bei der Entwicklung von KI-Systemen verantwortliches Handeln impliziert wird. Dies ist laut dem KI-Experten mit technischen Mitteln möglich. «Wir können etwa Mechanismen entwickeln, um ethische Prinzipien von Beginn an einzubeziehen.» Mit dieser «operational ethics» würden Prinzipien wie Fairness oder Transparenz fassbar und technisch umsetzbar.

«Man bringt eine Anwendung auf den Markt und reagiert, falls sie negative Folgen hat.»

Ricardo Chavarriaga, Forschungsgruppe Responsible AI Innovation

Die Gruppe unterstützt ausserdem bei der Ausarbeitung von Gesetzen oder bei der Zertifizierung von KI-Anwendungen. So wird etwa im Innosuisse-Projekt «CertAInty» seit 2022 ein KI-Zertifizierungssystem entwickelt, in das Prinzipien wie Autonomie und Kontrolle, Sicherheit, Transparenz und Zuverlässigkeit einfliessen.

Folgen sind oft nicht bekannt

Bei der Entwicklung neuer KI-Anwendungen stehen primär die positiven Auswirkungen im Fokus – etwa die Lösung eines Problems. «Mögliche negative Folgen werden seltener berücksichtigt. Auch weil man diese häufig gar nicht kennt», sagt Chavarriaga. Solche «unknown Unknowns»– also unbekannte Unbekannte – gebe es oft, wie das Beispiel Social Media zeige. «Zu Beginn waren soziale Netzwerke ein unschuldiger Zeitvertreib. Erst mit der Zeit offenbarten sich ihre teils massiven negativen Auswirkungen.»

Entwicklerinnen und Entwickler von KI-Systemen müssten versuchen, Risiken zu antizipieren, so Chavarriaga. Allerdings sehe die Realität häufig anders aus. «Man bringt eine Anwendung auf den Markt und reagiert, falls sie negative Folgen hat.» Angesichts der Komplexität von KI-Systemen kann es herausfordernd sein, deren Funktionsweise zu beurteilen – und mögliche Folgen abzuschätzen. «Wie neuronale Netzwerke funktionieren, ist teils schwer nachzuvollziehen», so Chavarriaga. Dies sei ein Thema, das von anderen Forschungsgruppen am CAI untersucht werde. Im Zusammenhang mit ethischen Prinzipien sei es sekundär, hochkomplexe Systeme bis ins Detail zu verstehen. «Aber wir wiederum müssen sicherstellen, dass bei der Entwicklung solcher Systeme ethische Prinzipien beachtet werden.»

Regulierung ist noch in frühem Stadium

Ethische Richtlinien für KI gibt es inzwischen einige – etwa von der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Diese sehen vor, dass KI-Systeme unter anderem eine nachhaltige Entwicklung fördern sowie rechtsstaatliche Regeln, Menschenrechte und demokratische Werte respektieren. Sie sollen Sicherheitsmechanismen enthalten und transparent funktionieren; ihr Einsatz soll offengelegt werden. Nicht zuletzt sollen Organisationen, die sie entwickeln respektive einsetzen, für ihre Folgen verantwortlich sein.

«Für die Zulassung müssen auch die Risiken früh in der Entwicklung abgeschätzt werden.»

Ricardo Chavarriaga, Leiter der Forschungsgruppe Responsible AI Innovation

Ethische Grundsätze, wie sie in den OECD-Leitlinien vorgeschlagen werden, seien der gemeinsame Nenner in der weltweiten Debatte über den verantwortungsvollen Einsatz von KI, sagt Chavarriaga.  «Die Regulierung der Technologie ist aber noch in einem frühen Stadium.» Am weitesten fortgeschritten sei derzeit die EU.  Mit ihrem «AI Act», den die Mitgliedstaaten bis Ende Jahr verabschieden sollen, werden KI-Anwendungen künftig in Risikoklassen eingeteilt. Jede Klasse auferlegt Entwicklerinnen und Entwicklern sowie Betreiberinnen und Betreibern von KI-Anwendungen Pflichten. Ein sinnvoller Ansatz, findet Chavarriaga: «Für die Zulassung müssen auch die Risiken früh in der Entwicklung abgeschätzt werden.»

Geisteswissenschaften müssen mitreden

Angesichts der weitreichenden Folgen fordern manche Forschende nicht nur die Regulierung von KI, sondern einen grundsätzlichen Diskurs. «Die Technologie wirkt sich subtil auf das menschliche Selbstverständnis aus», sagt der Leiter des CAI, Thilo Stadelmann. «Sie prägt unsere Denk- und Lebensweise, unsere Kultur, unsere Wertvorstellungen.» Er hat ein Arbeitsprogramm mitverfasst, das die Beurteilung Künstlicher Intelligenz aus Sicht der Geisteswissenschaften skizziert.

«Der Mensch wird dadurch als Maschine dargestellt – und die Maschine vermenschlicht.»

Thilo Stadelmann, Leiter des Centre for Artificial Intelligence

«Derzeit wird der Diskurs von einem technischen und naturwissenschaftlichen Standpunkt dominiert», so Stadelmann. Und aus dieser Perspektive werde das menschliche Gehirn oft als biologisches IT-System aufgefasst. «Der Mensch wird dadurch als Maschine dargestellt – und die Maschine vermenschlicht.» Aus geisteswissenschaftlicher Sicht bedeutet das, dass der Wert des menschlichen Lebens herabgesetzt wird. «Es braucht in der Debatte deshalb auch die Stimmen dieser Wissenschaften. Wir müssen darüber reden, was den Menschen besonders macht und von der Maschine unterscheidet.»

Wie KI wahrgenommen und beurteilt wird, hängt laut Stadelmann auch von den verwendeten Begriffen ab. «Artificial Intelligence wurde als Marketingbegriff kreiert, um Investoren für die Forschung zu gewinnen.» Dabei gehe es im Kern nicht darum, Intelligenz an sich, sondern intelligentes Verhalten hervorzubringen. Stadelmann und seine Mitautoren schlagen im Arbeitsprogramm deshalb vor, statt von KI von «Extended Intelligence» – erweiterter Intelligenz – zu sprechen. «Dieser Begriff beschreibt besser, was die Technologie ist: ein Hilfsmittel, das unsere Fähigkeiten erweitert.»

Interaktion Mensch–KI bei kritischen Systemen

Die Interaktion von Menschen und KI-basierten Lösungen für kritische Systeme wie Elektrizität, Bahn und Flugsicherung steht im Zentrum des Projektes «AI4REALNET». Das Projekt ist eine Zusammenarbeit zwischen dem Centre for Artificial Intelligence (CAI) und dem Institut für Datenanalyse und Prozessgestaltung (IDP) der School of Engineering sowie mehreren internationalen Universitäten und Industriepartnern. Es wurde im Rahmen einer europäischen Ausschreibung aus 114 Einreichungen ausgewählt. Kritische Infrastrukturnetze für Mobilität oder Elektrizität werden in der Regel von Menschen betrieben, doch zunehmend wird die menschliche Expertise durch Steuerungs- und Überwachungssoftware und verschiedene Automatisierungsgrade ergänzt. Eine zentrale Frage des Projektes ist: Welche technologischen und ethischen Herausforderungen ergeben sich aus der Mensch-KI-Kooperation?

«Da wir es mit sensiblen Infrastrukturen zu tun haben, ist der Einsatz sehr hoch. Die KI-Systeme müssen zuverlässig sein, damit die kritischen Anwendungen nicht gefährdet werden», sagt Ricardo Chavarriaga vom CAI. Das Hauptziel von AI4REALNET ist es, einen übergreifenden multidisziplinären Ansatz zu entwickeln und KI in industrierelevanten Anwendungsfällen zu testen und zu bewerten. Kombiniert werden sollen neu entstehende KI-Algorithmen, bestehende KI-freundliche digitale Umgebungen, soziotechnisches Design von KI-basierten Entscheidungssystemen sowie Mensch-Maschine-Interaktionen (HMI), um den Betrieb von Netzinfrastrukturen in Echtzeit und im Vorhersagemodus zu verbessern.

0 Kommentare

Sei der Erste der kommentiert!

Kommentar ist erforderlich!
Name ist erforderlich!
Gültige E-Mail ist erforderlich!
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.