«Codes haben auch etwas Geheimnisvolles»

01.12.2020
4/2020

Codes prägen unsere Welt: Wie verstehen wir uns überhaupt? Was haben das Abc und die DNA gemeinsam? Wie bringt man Algorithmen gutes Handeln bei, und was ist das überhaupt? Drei ZHAW-Fachleute aus Übersetzungs-, Computerwissenschaft und Chemie im Gespräch.

Sprache, Genom, Algorithmen – Codes bestimmen unsere Welt. Welche prägen Ihre Arbeit an der ZHAW?

Maureen Ehrensberger-Dow: Bei mir sind es natürlich die Sprachen. Die grosse Herausforderung ist, dass es selten eine 1:1-Übersetzung von einem Code in den anderen gibt.

Christoph Heitz: Ist Code für dich identisch mit Sprache?

Ehrensberger-Dow: Gute Frage. Wir reden bei Sprachen von verschiedenen Codes. Aber innerhalb der Sprachen gibt es auch wieder verschiedene Codes und verschiedene Register. Mit den Grosseltern sprechen meine Töchter anders als mit Expertinnen und Experten aus ihrem jeweiligen Fachgebiet.

Heitz: Mich haben in den vergangenen 20 Jahren Computersprache, datengestützte Entscheidungen und Algorithmen (siehe auch Glossar am Ende des Interviews), die aus Daten Entscheidungen treffen, beschäftigt. In jüngster Zeit ging es dabei vor allem auch um datengestützte Entscheidungen, die das Leben von uns Menschen massgeblich beeinflussen können.

«Um einen Code zu knacken, braucht es also nicht nur die gute Idee, sondern auch Geld für die Umsetzung.»

Rainer Riedl

Rainer Riedl: Bei euch geht es also vor allem um von Menschen gemachte Codes. Wir beschäftigen uns mit Codes, die schon vor uns existierten. Auch wenn der Mensch relativ simpel gestrickt ist mit seiner DNA, RNA und den Proteinen (siehe auch Glossar am Ende des Interviews), verstehen wir erst langsam, was da los ist. Wie kleine molekulare Maschinen ineinandergreifen, um von einem Code zum nächsten zu kommen und diese in Ausprägungen zu übersetzen. Das ist faszinierend, was die Natur macht. Codes haben auch immer etwas Geheimnisvolles. Man will den Code knacken, um den Jackpot zu gewinnen oder das Rätsel zu lösen. Bei uns in der Pharmaforschung wäre das dann z. B. ein Blockbuster, den man generieren kann, wenn man den molekularen Code einer Erkrankung verstanden hat.

Herr Riedl, Sie verfolgen die Idee eines Covid-19-Medikaments, das verhindern soll, dass das Virus an menschliche Zellen andocken kann. Wie steht es damit?

Riedl: Mangels Finanzen ruht das derzeit. Dass die Idee sehr gut ist, haben uns Gutachter beim SNF zwar bescheinigt, aber leider wurden keine Fördermittel gesprochen. Um einen Code zu knacken, braucht es also nicht nur die gute Idee, sondern auch ein bisschen Geld für die Umsetzung. Ironie des Schicksals: Vor kurzem kam ein wissenschaftlicher Artikel einer Forschergruppe aus den USA heraus, die einen sehr ähnlichen Ansatz verfolgt, und das hat super geklappt.

Die DNA ist der Bauplan für den Menschen: Sind wir auch nur Datenträger wie ein Roboter?

Riedl: Ich hoffe doch, dass es da noch etwas mehr gibt (lacht). Die DNA ist zwar die Grundstruktur. Die Basenabfolge in der DNA definiert aber an sich noch nicht abschliessend, wie wir aussehen oder funktionieren. Da sind noch ein paar Ebenen dazwischengeschaltet, zum Beispiel das, was man in der Fachsprache Epigenetik nennt. Hier geht es um die Fragen, welche Faktoren welche Gene an- oder abschalten und welche bewirken, dass aus einer Zelle eine Hautzelle und aus einer anderen eine Leberzelle wird. Und wenn man diese Zellebene verlässt, dann wird es noch komplexer.

Was sagt die DNA über Gesundheit und Krankheit eines Menschen oder eine mögliche Wirkung eines Medikaments aus?

Riedl: Hinsichtlich Gesundheit/Krankheit sind im DNA-Code einige Informationen hinterlegt, allerdings gibt es bei der Verarbeitung dieser Informationen dann auch wieder individuelle Unterschiede. Die DNA wird in Proteine übersetzt, die sind wesentlich komplexer, weil sie dreidimensionale Strukturen mit vielfältigen biologischen Funktionen darstellen. Den Code knacken heisst in diesem Fall, dass man etwas findet, was zu dieser dreidimensionalen Struktur passt und was dieses Protein oder diesen Mechanismus ausschaltet, den man als Krankheitsursache identifiziert hat.

«Wie auch immer Sprache dargestellt wird, sagt wenig über die Bedeutung der Buchstaben und Wörter aus. Die ist abhängig vom Kontext oder der Situation.»

Maureen Ehrensberger-Dow

Ehrensberger-Dow: Das finde ich spannend, dass die Abfolge nicht unbedingt etwas aussagt über die Dreidimensionalität der Proteine. Das Gleiche gilt für Buchstaben. Wie auch immer Sprache dargestellt wird, sagt wenig über die Bedeutung der Buchstaben und Wörter aus. Die ist abhängig vom Kontext, von der Situation und vom Co-Text, also vom Text drum herum.

Sie alle haben sich in dieser Runde um eine verständliche Sprache bemüht. Wie ist das in interdisziplinären Forschungsprojekten – versteht man sich da immer?

Riedl: Ich habe es oft mit Biologen und Medizinern zu tun. Da versteht man sich eigentlich ganz gut. Sind die Disziplinen fachlich weiter entfernt, dann habe ich auch keine Scheu, mich etwas flapsig auszudrücken. Wenn ich an meine Schulzeit zurückdenke, dann waren meine besten Lehrerinnen und Lehrer jene, die einen komplexen Sachverhalt einfach und witzig vermitteln konnten. Um das zu können, muss man eine Sache schon sehr gut verstanden haben.

«Um einen Sachverhalt einfach und flapsig ausdrücken zu können, muss man ihn schon sehr gut verstanden haben.»

Rainer Riedl

Heitz: Ich arbeite seit zwei Jahren eng mit Philosophen der Universität Zürich in zwei Projekten zusammen, die vom Schweizerischen Nationalfonds und der Innosuisse gefördert werden. Dabei geht es um mit der Frage: Wie kann man sicherstellen, dass Algorithmen sozial gerecht und fair sind?

Da trifft der Informatikcode auf den Ethikcode.

Heitz: Richtig. Eine Verständigung ist da nicht immer einfach. Die Projekte sind aber ein phantastisches interdisziplinäres Lernfeld. Zudem war ich Mitautor eines Code of Conduct: des Code of Ethics for Data-Based Value Creation. Dazu haben wir in der Schweiz mit einem grösseren Konsortium von Vertreterinnen und Vertretern von Firmen einen Ethik-Kodex für datenbasierte Wertschöpfung erstellt. Auch da musste man sich erst über ethische Grundbegriffe und die Gedankenmodelle dahinter sowie wesentliche Begriffe der technischen Fachsprache verständigen. Dieser Kodex ist vor kurzem publiziert worden.

Ehrensberger-Dow: Das bringt mich auf ein anderes Projekt in unserem Departement, wo es um Ethik in der Forschung an Menschen geht. Dabei stand der «Informed Consent», also die informierte Einverständniserklärung für Forschung an Menschen, im Fokus. Damit jemand in der Lage ist, für sich eine vernünftige Entscheidung zu treffen bezüglich einer medizinischen Therapie oder medizinischer Forschung, muss diese Person aufgeklärt werden und mit einer Unterschrift bestätigen, dass sie oder er alles verstanden hat. Das entsprechende Formular ist aber nicht immer sehr verständlich. Wir haben es im Usability-Labor bei uns am Departement getestet. Dabei hat sich gezeigt, dass selbst gut ausgebildete Leute mit guter Kenntnis der deutschen Sprache wesentliche Inhalte nicht verstanden haben.

Was zum Beispiel wurde nicht verstanden?

Ehrensberger-Dow: Zum Beispiel, was Biobanken sind. Jeder meint, es zu verstehen, aber die wenigsten wissen wirklich, was das ist.

Heitz: Die grosse Gefahr ist nicht, wenn jemand etwas nicht versteht, sondern wenn er meint, etwas zu verstehen, aber dann das Falsche im Kopf hat.

Ehrensberger-Dow: Das sehe ich auch so. Mein Kollege Felix Steiner ist nun dran, ein neues, verständliches Formular zu erarbeiten. Denn wenn die Leute nicht verstehen, worum es geht, dann erreicht man vielleicht genau das Gegenteil von dem, was erreicht werden soll. Die Patientinnen und Patienten stimmen der notwendigen Therapie oder der Forschung dann vielleicht gar nicht erst zu.

Wie wichtig sind eigentlich Fachsprachen?

Ehrensberger-Dow: Beim «Informed Consent» wurde eine Fachsprache angewandt, damit alles juristisch wasserdicht ist.

Riedl: Ich finde, es kommt darauf an, mit wem man spricht. Den Kern eines Sachverhaltes kann man vereinfacht darstellen und dabei immer noch das Richtige ausdrücken.

Zum Beispiel?

Riedl: Wenn man erklären will, wie Krankheiten entstehen, und jemand weiss nicht, was Proteine und Medikamente etc. sind, dann würde ich das in etwa so erklären: Da geht was schief, da dreht einer durch von den Teilnehmern, die im gesunden Körper aktiv sind, und der muss gebremst werden. Bremsen ist ein anderes Wort für inhibieren. In der Fachsprache würden wir sagen: Wir entwickeln gerade einen Inhibitor für das Target XYZ. Eine solche Fachsprache ist notwendig, wenn man mit anderen Expertinnen und Experten einen Fortschritt erzielen will. Da geht es um Feinheiten und Details, da reicht dann der simple Kern nicht mehr.

Ehrensberger-Dow: Da muss man differenzierter kommunizieren.

Dann ist jedes interdisziplinäre Projekt auch ein Sprachkurs?

Heitz: Ja, klar. Das ist das Abenteuer der Interdisziplinarität. Ich lerne im Moment sehr viel über Philosophie und der Philosoph lernt viel über bedingte Wahrscheinlichkeiten. Ich werde mir nie das Hintergrundwissen von meinem Gegenüber aneignen können. Die Grundbegriffe zu verstehen, ist aber schon wichtig, und die muss ich lernen.

Ehrensberger-Dow: Die Begriffe sind das eine. Aber das Grundkonzept, das hinter den Begriffen steckt, zu verstehen, das ist das Spannende und Wichtige.

Riedl: Wenn man 20 Jahre in seiner Fachdisziplin unterwegs ist, denkt man nicht mehr gross darüber nach, was das Gesagte beim anderen hervorruft. Es gibt dann immer mal wieder diese schönen Aha-Momente in den Projekten, wo dann etwa ein Biologe sagt: «Hoppla, jetzt habe ich es verstanden, wie das funktioniert, wovon ihr Chemiker die ganze Zeit redet. Dieses kleine Atom hier, diese kleine Änderung macht also den grossen Unterschied.» Dieses gegenseitige Verstehen über die Grenzen der eigenen Disziplin hinaus ist sehr befruchtend und bringt Dynamik ins Projekt.

Andererseits: Digitale Transformation, gesellschaftliche Integration, Energiewende und medizinische Aufklärung können nur gelingen, wenn man die Bevölkerung mit den richtigen Botschaften erreicht.

Ehrensberger-Dow: Deutlich wird dies bei Abstimmungen zum Beispiel zur Energiewende. In den Energiediskursen verwenden Fachleute häufig technische Begriffe. Das führt dann zu Unverständnis oder Missverständnis in weiten Kreisen der Bevölkerung. Auffällig waren die Unterschiede beim Abstimmungsverhalten zur Energiefragen zwischen den Sprachregionen der Schweiz. Der französischsprechende Teil stimmte konsequent anders ab als der deutschsprachige Teil. Wir haben uns gefragt: Ist das aus Überzeugung? Wir mussten bei unseren Untersuchungen aber feststellen, dass dies auch an der unzureichenden Vermittlung der wesentlichen Botschaften liegen könnte.

Heitz: Ich bin mir nicht sicher, inwieweit man die Dinge immer im Detail verstehen muss. Die meisten von uns fahren Auto, ohne zu wissen, wie es im Detail funktioniert.

Riedl: Viele nutzen eine Computermaus, ohne erklären zu können, ohne zu wissen, was dahintersteckt. Sobald ich ein Problem habe, wüsste ich schon gerne, wie was funktioniert. Aber klar, wir können nicht überall Fachleute sein.

«Bei den Übersetzungen aus dem Englischen waren dann alle Pflegefachmänner plötzlich Krankenschwestern und alle Ärztinnen waren Männer.»

Maureen Ehrensberger-Dow

Wenn Leute die Mechanismen von Algorithmen verstehen würden, dann wüssten sie zum Beispiel, was Algorithmen bewirken und dass sie nicht neutral sind.

Ehrensberger-Dow: Dass sie nicht neutral sind, haben wir ganz stark bei der maschinellen Übersetzung gesehen. Die Übersetzungsvorschläge von Google waren am Anfang hauptsächlich männlich. Verwirrung gab es beispielsweise, wenn es um Gesundheitsberufe ging. Pflegefachfrauen sind im Englischen «nurses», was bei den Angelsachsen für beide Geschlechter gilt. Bei uns würde man von Pflegefachfrauen und -männern sprechen. Bei den Übersetzungen aus dem Englischen waren dann alle Pflegefachmänner plötzlich Krankenschwestern und alle Ärztinnen waren Männer. Es gab in den übersetzten Texten keine Ärztinnen, weil Google die Übersetzungsmaschinen so trainiert hatte. Mittlerweile haben sie versucht, das zu korrigieren. Aber das ist nur ein kleines Beispiel für Gender Bias – also den geschlechtsbezogenen Verzerrungseffekt. Dann gibt es da noch die Social Bias: Gewisse Klassen und soziale Gruppen sind gar nicht existent, weil keine Daten über sie eingespeist wurden. An diesen Verzerrungen sind nicht die Algorithmen schuld, sondern die Daten, mit denen sie trainiert werden. Wir sagen da «Garbage in, Garbage out», das heisst, wenn man Müll einspeist, ist das Ergebnis auch Müll.

Heitz: Nicht alles ist mit schlechten Daten zu erklären. Ein Teil dieser Ergebnisse basiert einfach auf Fakten. Nehmen wir mal an, ich stelle dir die Aufgabe: Errate das Geschlecht dieser Person aufgrund ihres Berufes. Bei Pflegefachkräften ist es gut, wenn du Frau sagst, denn die Wahrscheinlichkeit, dass du richtig liegst, ist tatsächlich viel höher. Das spiegelt einfach eine Realität wider.

Ehrensberger-Dow: Aber das kann auch zur Zementierung von Stereotypen und zu Verwirrungen führen. Wir unterrichten deshalb Machine Translation Literacy, damit Übersetzerinnen und Übersetzer die Funktionsweise kennen und die Risiken sehen, um besser damit umgehen zu können.

Kann man Algorithmen Ethik, Moral oder Taktgefühl beibringen?

Heitz: Wenn man vorher weiss, was das Ziel sein soll, dann kann man Algorithmen vieles beibringen. Zunächst müsste man aber klären: Was heisst eigentlich gutes Handeln in einem konkreten Kontext? Da streiten wir Menschen uns ja viel darüber. Das wird auf lange Sicht etwas zutiefst Menschliches sein, zu beurteilen, was die gute Entscheidung wäre. Wenn man dies aber weiss, kann man durchaus Algorithmen entwickeln, die das reproduzieren. Man kann auch einen Algorithmus entwickeln, der Risiken berücksichtigt, indem man ihm sagt: Geh eher auf die weniger risikoreiche Seite, wenn es eine Wahl gibt. Das ist durchaus auch eine Implementierung eines ethischen Prinzips – jenes der Vorsicht oder Schadensvermeidung.

Ehrensberger-Dow: Diese Ethik-Codes, wie du sie vorhin erwähnt hast, kommen jetzt immer mehr auf. In der EU gibt es viele Ethik-Leitlinien für eine vertrauenswürdige Künstliche Intelligenz (KI). BMW etwa hat sieben Prinzipien für die Anwendung von Künstlicher Intelligenz eingeführt. Ich finde das spannend, dass man sich überlegt, wie wir Menschen trotz all der neuen Technologien die Kontrolle behalten können.

«Fünfzehn Jahre lang hat man sich bei Algorithmen nur Gedanken zum Datenschutz gemacht, kaum aber zu ethischen Fragen.»

Christoph Heitz

Heitz: Ich bin froh, dass das so ist, weil man sich bei Algorithmen 15 Jahre nahezu ausschliesslich über Datenschutz Gedanken gemacht hat. Aber nicht darüber, was diese Algorithmen mit unserem Leben tun, wenn man sie einsetzt. Das ist eine ganz andere Frage, und diese ist in der europäischen Datenschutzgrundverordnung GDPR fast überhaupt nicht präsent. Wir leben aber in einer Welt, in welcher der Einsatz von KI massiv zunimmt, insbesondere in Form von Algorithmen, die Empfehlungen abgeben oder Entscheidungen treffen. Oft haben wir keine Ahnung, was wir mit diesen Algorithmen anrichten. Insofern ist es extrem wichtig, darüber nachzudenken, wie Algorithmen in unsere Welt eingreifen, insbesondere in unser Sozialgefüge, wie wir als Gesellschaft funktionieren.

Weshalb hat das so lange gedauert?

Heitz: Es brauchte einen Wake-up-Call hierfür. Ein wichtiges Ereignis war der Wahlsieg Trumps vor vier Jahren. Da ging es um Wählerbeeinflussung via soziale Medien und Ähnliches mehr. Eine Ethikerin aus dem Silicon Valley, mit der ich Kontakt habe und die dort ihrerseits viel mit Tech-Firmen zusammenarbeitet, berichtete mir von einer enormen Ernüchterung bei den Entwicklern. Sie haben plötzlich realisiert, dass die neuen Technologien nicht nur Chancen bieten, sondern auch missbraucht werden können. Jetzt fragte man sich: Was passiert eigentlich, wenn Typen wie Mr. T. unsere Technologie für ihre Zwecke einsetzen, ohne Rückbindung an die Werte unserer Gesellschaft?

Ehrensberger-Dow: Auch wir setzen auf Bildung und Aufklärung – Digital Literacy. Darin sehen wir einen gewissen Schutz. Die Leute müssen sich bewusst sein, was es heisst, mit sozialen Medien und KI umzugehen. Zum Beispiel, dass wir nur noch in unseren Bubbles leben, nur noch die Informationen geliefert bekommen, die uns vermeintlich interessieren. Twitter und Netflix sind da perfekt darin. Die Gesellschaft muss sich hier wirklich Gedanken machen über die Risiken.

Treffen Algorithmen die besseren Entscheidungen?

Heitz: Was heisst bessere Entscheidung? Die schöne Eigenschaft von Algorithmen ist, dass sie absolut konsistent mit sich selber sind. Ein Algorithmus wird im gleichen Kontext immer das gleiche Ergebnis produzieren. Ein Mensch nicht, und unterschiedliche Menschen schon gar nicht. Im Bereich der ethischen Beurteilung ist das ganz zentral. Versuchen Sie mal einem Richter nachzuweisen, dass er rassistisch ist. Keine Chance, denn er wird in seinem ganzen Leben nicht so viele Fälle bearbeiten, dass man das statistisch signifikant nachweisen kann. Einem Algorithmus kann man das jedoch problemlos nachweisen. Algorithmen repräsentieren also durchaus eine Tugend, nämlich Verlässlichkeit. Und weil man sie quasi auf Herz und Nieren testen kann, kann man über sie Dinge herausfinden, die wir bei Menschen nie rausfinden können. Und ein zweiter Punkt ist: Viele Beispiele zeigen, dass bei relativ klaren Aufgabenstellungen, wie in unserem vorigen Beispiel zu den Prognosen zum Geschlecht eines Menschen, Algorithmen typischerweise tatsächlich besser entscheiden als Menschen.

Ehrensberger-Dow: Menschen sind stattdessen aber meistens offen für neue Ideen, und Algorithmen sind das nicht. Sie machen alles nach Regeln. Menschen haben die Möglichkeit, neue Fakten aufzunehmen, neue Sachverhalte in Betracht zu ziehen. Sie kommen vielleicht nicht immer zu den gleichen Entscheidungen, aber vielleicht kommen sie zu neuen Entscheidungen. Kreativität, Intuition, Emotionen – das ist noch etwas den Menschen Eigenes. Das macht den Austausch mit Menschen mühsam, aber auch spannend, weil dann vielleicht emergente Lösungen rauskommen.

«Es gibt mittlerweile Algorithmen, die Gedichte schreiben oder Bilder malen, und auch Experten können oft nicht unterscheiden, ob das ein Mensch oder eine Maschine gemacht hat.»

Christoph Heitz

Heitz: Da würden dir manche KI-Fachleute aber widersprechen. Der Go-Computer ist ja tatsächlich so gemacht worden, dass man zwei Programme hat gegeneinander spielen lassen. Und es hat funktioniert. Es gibt mittlerweile Algorithmen, die Gedichte schreiben oder Bilder malen, und auch Experten können oft nicht unterscheiden, ob das ein Mensch oder eine Maschine gemacht hat.

Ehrensberger-Dow: Sie sind vielleicht kreativ, aber in einem sehr begrenzten Bereich. Damit sie dahinkommen, muss man sie vorher aufwendig schulen. Ich bin keine Gegnerin maschinell unterstützter menschlicher Handlungen, überhaupt nicht. Aber wir müssen uns bewusst machen, wo die Grenzen sind. Wir haben gerade einen Antrag bei swissuniversities eingegeben. Es geht dabei ums Thema Digital Literacy und für uns am IUED spezifisch um Machine Translation Literacy. Wir wollen den Leuten unter anderem die Risiken von Gratislösungen aufzeigen. Sie sollen nicht einfach glauben, was die Maschine ausspuckt, auch wenn da die Ergebnisse immer besser werden. Viele meinen, sie könnten einfach einen Text via Maschine ins Französische übersetzen, ohne eine Ahnung von Französisch zu haben. Das geht nicht. Sie müssen schon ihre eigenen Französischkenntnisse einschalten und auch ihren Denkapparat.

 

Glossar

Ein Algorithmus ist eine eindeutige Handlungsanweisung zur Lösung eines Problems oder einer Klasse von Problemen. Er kann zur Ausführung in ein Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden.

Epigenetik ist das Fachgebiet der Biologie, das sich mit der Frage befasst, welche Faktoren die Aktivität eines Gens und damit die Entwicklung der Zelle zeitweilig festlegen.

DNA und RNA unterscheiden sich in Aufbau und Funktion. DNA ist als Doppelstrang vorhanden, die sogenannte Doppelhelix, und speichert die genetische Information. RNA besitzt dagegen meistens nur einen Strang und ist bei der Verarbeitung der genetischen Information beteiligt. Dies führt zu Proteinen, die über vielfältige biologische Funktionen verfügen.

Ein Informed Consent ist eine Einwilligung nach erfolgter Aufklärung im Zusammenhang mit einer medizinischen Behandlung oder der Forschung am Menschen.

Als Biobank bezeichnet man eine Sammlung von Stoffen, wie Körperflüssigkeiten oder Gewebeproben, mit assoziierten, in Datenbanken verwalteten Daten. […] Für die Gesundheitsforschung werden hier grosse Mengen von biologischem Material wie beispielsweise DNA-, Blut- oder Gewebeproben zusammen mit Hintergrundinformationen (z. B. Krankengeschichte oder Lebensumstände bzw. Artidentifizierung, Sammelort etc.) der Spender bzw. Organismen gespeichert. In Island hat zum Beispiel 1998 das isländische Parlament dem Aufbau einer nationalen Biobank zugestimmt, in der das genetische Material der gesamten Bevölkerung gesammelt werden soll.

Ein Bias bezeichnet in der wissenschaftlichen Forschung eine Verzerrung der Wirklichkeit durch Formulierungen, gedankliche Annahmen oder statistische Fehler.

Literacy ist im ursprünglichen Sinn die Fähigkeit, zu lesen und zu schreiben. In vielen Fällen wird der Begriff «literacy» auch umfassender definiert oder mit Grundkompetenzen gleichgesetzt.

0 Kommentare

Sei der Erste der kommentiert!

Kommentar ist erforderlich!
Name ist erforderlich!
Gültige E-Mail ist erforderlich!
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.