Wie Chatbots & Co. Studium und Hochschule beeinflussen
Werkzeuge der Künstlichen Intelligenz können das Studium bereichern – sie bergen aber auch Gefahren. Hochschulen müssen in Lehre und Forschung neue Wege gehen. ZHAW-Fachleute suchen Antworten.
Mark Cieliebak sitzt auf einem der Sofas im Co-Working Space des Zentrums für Künstliche Intelligenz der ZHAW in Winterthur. Sein Blick fällt durch ein grosses Fenster ins nächste Gebäude. Dort schreiben Studierende gerade Prüfungen. Laut dem Professor für Sprach- und Textverarbeitung am Center of Artificial Intelligence muss dringend überlegt werden, wie an Hochschulen mit neuen Werkzeugen der Künstlichen Intelligenz (KI) wie dem textbasierten Dialogsystem ChatGPT umgegangen werden soll. «Mein Bauchgefühl sagt mir, dass die KI die meisten der Prüfungen bestehen würde. Vielleicht nicht mit der Bestnote, aber mit einer 4.»
ChatGPT löst Übungen in der Informatik
Als ChatGPT – GPT steht für Generative Pre-trained Transformer – Ende November 2022 auf den Markt kommt, beginnt es an Schulen und Hochschulen zu rumoren. In New York sperren öffentliche Schulen die Website, die Hochschule Luzern prüft den Einsatz einer neuen Antiplagiatssoftware, und der Hochschuldachverband hat die Risiken auf dem Radar. Auch im Unterricht an der ZHAW spüren Dozierende bald erste Auswirkungen. Cieliebak erzählt, wie ein Student die Informatikübungsaufgabe eins zu eins ins ChatGPT kopiert hat und umgehend die Lösungen erhielt. «Da sagte ich, o.k., das war jetzt nicht die Idee. Aber um das Tool auf Programmiersprache zu testen, war es spannend.»
«Wir verlangen nun ein viel höheres Niveau, zum Beispiel akzeptieren wir keine Rechtschreibfehler mehr, weil die Algorithmen das sprachlich leisten können.»
Auch Dozierende vom Institut für Computational Life Sciences testen den Chatbot anhand ihrer Prüfungsaufgaben. Matthias Nyfeler und Robert Vorburger berichten während einer Veranstaltung vor über 100 ZHAW-Mitarbeitenden von ihren Erfahrungen. Offene Fragen und Multiple Choice kann ChatGPT tipptopp beantworten. Bei grafischen Übungen oder Fragen zu eigenen Datensätzen spuckt es (noch) keine guten Ergebnisse aus. Dieser Anlass und ein Blick in die Veranstaltungskalender zeigen: An allen Hochschulen herrscht Diskussionsbedarf. Es stellen sich grundlegende Fragen: Sind Übungsaufgaben, die das Tool innert kürzester Zeit lösen kann, noch zeitgemäss? Und wie sollen Unterricht und Prüfungen in Zukunft aussehen?
Lehren aus DeepL
Alice Delorme Benites, Professorin für Mensch-Maschine-Kommunikation am Departement Angewandte Linguistik, sieht viele Parallelen zwischen dem KI-Übersetzungswerkzeug DeepL, das vor sieben Jahren öffentlicht zugänglich wurde, und KI-Chatbots wie ChatGPT. «Der Herbst 2016 war für Übersetzerinnen und Übersetzer wie ‹The Day After Tomorrow›», sagt sie. Die traditionellen Übungsaufgaben, Prüfungen und Bewertungen mussten allesamt neu evaluiert werden. Es stellte sich genau die gleiche Frage wie heute: Welche Fähigkeiten sollen Studierende lernen?
Delorme Benites resümiert: «Wir möchten, dass Studierende die Maschine benutzen, weil sie das auch in Zukunft im Job machen werden. Aber sie sollen unbedingt in der Lage sein, damit kritisch umzugehen und sie sinnvoll einzusetzen.» Konkret wurden in der Lehre zwei Dinge geändert: «Einerseits haben wir bestimmte Prüfungen abgeschafft und durch Portfolios, Lerntagebücher, Reflexionen oder kommentierte Übersetzungen ersetzt. Und das zweite ist: Wir verlangen nun ein viel höheres Niveau, zum Beispiel akzeptieren wir keine Rechtschreibfehler mehr, weil die Algorithmen das sprachlich leisten können.»
Chatbot-Texte basieren auf Statistik, nicht auf Intelligenz
Alice Delorme Benites und Mark Cieliebak weisen nicht nur auf die vielen Chancen hin, sondern auch auf Gefahren. Denn so überzeugend ein Programm mit uns «interagiert», es bleibt eine Maschine. «Das Tool generiert den Text basierend auf reiner Statistik und hat kein Verständnis, auch wenn die Antworten überzeugend und menschenähnlich wirken. Du kannst genau die gleiche Frage leicht umformulieren und erhältst eine unsinnige Antwort», erklärt Cieliebak. Die Antworten sind oberflächlich betrachtet oft stimmig und gut geschrieben, können aber Fehler oder sogenannte KI-Halluzinationen enthalten, wie im Fachjargon freie Erfindungen genannt werden.
Für Delorme Benites ist der Hype um das Tool auch auf einer anderen Ebene ein Problem: «Es werden aktuell viele Mythen und falsche Praktiken verbreitet. Dieser Dschungel kann im Nachhinein schwer dekonstruiert werden.» Daneben bestehen auch Risiken für Täuschungen oder Fake News sowie ökologische und ethische Problematiken. Alice Delorme Benites betont, dass die Künstliche Intelligenz Stereotypen verstärkt darstellt: «Bei ChatGPT gibt es keinen Ausgangstext, sondern Ausgangsfakten, und dies verschärft das Weltbild, das in den Datengrundlagen vorherrscht.» Die Expertinnen und Experten sind sich aber einig: Das Tool ist nicht das Problem, sondern zeigt gesellschaftliche Problematiken auf. Wie wir Menschen damit umgehen, das ist zentral.
Hilfsmittel für die Forschung
Auch in der Forschung kann das Tool eingesetzt werden. Könnte das Werkzeug als digitale Assistenz oder gar als Co-Autor bei wissenschaftlichen Publikationen verwendet werden? Nein, sagt das wissenschaftliche Magazin «Science». Es verbot bereits die Nutzung von KI-generiertem Inhalt, auch der Schweizerische Nationalfonds SNF äusserte sich skeptisch. Die ACL (Association for Computational Linguistics) ergänzt ihre Richtlinie differenzierter: Co-Autorenschaft kann eine KI zwar nicht erlangen, aber Autorinnen und Autoren können sie nutzen, solange sie Anwendung und Umfang erläutern. Erlaubt ist sie beispielsweise bei der Ideenfindung, Sprachkorrektur, Literaturrecherche oder der Zusammenfassung von bekannten Konzepten – sofern der Output auf Richtigkeit überprüft wird.
«Ein Software-Entwickler hat mir erzählt, er spare bis zu 80 Prozent der Zeit beim Programmieren, da er oft nur noch prüfen muss, ob der generierte Programmcode korrekt sei.»
Generell denkt Mark Cieliebak, dass mit generativer KI viel Zeit gespart werden kann: «Man kann nicht nur Texte, sondern auch Programmcodes erzeugen, und das auf sehr hohem Niveau. Ein Software-Entwickler hat mir erzählt, er spare bis zu 80 Prozent der Zeit beim Programmieren, da er oft nur noch prüfen muss, ob der generierte Programmcode korrekt sei.» Ein Verbot solcher Tools mache aus dieser Perspektive keinen Sinn – aber es brauche Richtlinien, wie wir damit umgehen wollen.
Delorme Benites vergleicht den Umgang mit KI-Werkzeugen mit einem Waschgang: «Alle haben eine Waschmaschine, und grundsätzlich geht es nur darum, zu wissen, auf welche Knöpfe gedrückt werden muss und ob man im Vorfeld die Farben trennt. Aber das Waschen übernimmt die Maschine. Ich glaube nicht, dass wir uns als faul bezeichnen würden, nur weil wir unsere Wäsche nicht mehr per Hand am Fluss waschen.» Bei einer unreflektierten Nutzung könne es aber passieren, dass die Maschine unsere Wäsche in einer anderen Farbe und Grösse ausspuckt.
Kompetenzen der ZHAW
An Expertise im Bereich KI mangelt es an der ZHAW nicht. Mark Cieliebak hat zusammen mit weiteren Expertinnen und Experten das Kompetenzzentrum «Generative AI» initiiert. Ihre Mission: ihr Wissen weiterzugeben, neue Forschung anzugehen, Anwenderinnen und Anwender zu informieren, zu sensibilisieren und zu beraten. Sie wollen ein Netzwerk aufbauen. Zum Beispiel untersuchen sie wissenschaftlich, wie gut das Tool im Vergleich zu bisherigen Algorithmen funktioniert.
Neben solchen Bottom-up-Initiativen von Forschenden werden auch auf Hochschulleitungsebene Weichen gestellt, die die Dozierenden im sinnvollen Umgang mit dem Tool befähigen und Orientierung zum Umgang geben. Werkzeuge wie ChatGPT betreffen alle Studiengänge in unterschiedlicher Weise. Das ZHAW-Ressort Bildung gestaltet diesen Aushandlungsprozess aktiv und hat daher Ende Februar einen Workshop mit Vertreterinnen und Vertretern aller Fachbereiche und weiterer Organisationseinheiten durchgeführt. Es wurden insbesondere Spielregeln zum Umgang von ChatGPT in Leistungsnachweisen diskutiert. Sie sind nun in Erarbeitung.
Didaktisch kluge Integration in die Bildung
«Die Studiengangleitungen kommen mit konkreten Fragen sowie mit dem Wunsch nach einer klaren Positionierung der ZHAW», sagt Patrick Hunger, Stabbereichsleiter des Ressorts Bildung. «Gleichzeitig möchten wir Überregulierung vermeiden, denn KI beziehungsweise die Mensch-Maschine-Kooperation ist zukunftsweisend für die Bildung an der ZHAW», erklärt der Jurist. Die ZHAW möchte langfristig das Potenzial von KI-Werkzeugen in der Bildung in den Vordergrund stellen und mit den Departementen ausloten, was es für eine didaktisch kluge Integration in die Hochschule brauche. Auch dies steht auf dem Programm des Workshops.
«Wir möchten Überregulierung vermeiden, denn KI beziehungsweise die Mensch-Maschine-Kooperation ist zukunftsweisend für die Bildung an der ZHAW.»
Wie KI-Werkzeuge nun die Hochschullandschaft umgestalten, bleibt abzuwarten. Das Fazit von Alice Delorme Benites zu DeepL macht Hoffnung: «Es zeigte sich in den letzten sechs Jahren, dass die Angst, die Fähigkeit zu übersetzen könnte verlorengehen, unbegründet ist. Die Studierenden lernen die Sprachen trotzdem und verbessern ihre Kompetenzen. Aber sie arbeiten sehr bewusst mit der Maschine. Für mich sind GPT und DeepL positive Hilfsmittel, denn wir müssen nicht mehr ‹die Wäsche waschen›, es bleibt Zeit für sinnvollere und schönere Tätigkeiten. Auch bringt es uns dazu, Menschen auszubilden und sie nicht wie Gefässe abzufüllen.»
0 Kommentare
Sei der Erste der kommentiert!