Hauptinhalt

SMK-Blog

»ChatGPT kommt wie ein Erdbeben über uns«

»ChatGPT kommt wie ein Erdbeben über uns«

Welche Möglichkeiten und Grenzen bestehen für die Bildung durch den Einsatz von Künstlicher Intelligenz (KI)? KI-Forscherin Doris Weßels, Wirtschaftsinformatikerin an der Fachhochschule Kiel plädiert im Interview mit dem SMK-Blog für einen mutigen Umgang mit Chatbots wie ChatGPT.

Prof. Dr. Doris Weßels                          Foto: A. Diekötter

Ein Text-Roboter versetzt die Bildungswelt seit Monaten in Aufregung. Benutzer können dem Programm Fragen stellen oder Aufgaben erteilen, auf welche das System antwortet. Die Rede ist von ChatGPT – ein sogenannter Chatbot, der im November 2022 veröffentlicht wurde. Dahinter verbirgt sich ein textbasiertes Dialogsystem, das auf Künstlicher Intelligenz (KI) beruht. ChatGPT kann Aufsätze oder Computerprogramme schreiben, fasst Texte zusammen und analysiert Gedichte. Für viele ist ChatGPT zu einem Reizwort geworden, das Bedrohung und Verheißung zugleich verspricht. Welche Folgen hat der Einsatz von Künstlicher Intelligenz für die Bildungslandschaft und die Lernprozesse von Schülerinnen und Schülern? Dazu lud Sachsens Kultusministerium die Kieler Wirtschaftsinformatikerin Prof. Dr. Doris Weßels vergangene Woche zu einem Forum ein. Die Wissenschaftlerin gilt in Deutschland als eine führende Expertin für KI in der Bildung. Für den SMK-Blog sprachen wir mit ihr über Risiken und Chancen von ChatGPT.

Seitdem ChatGPT auf die öffentliche Bühne trat, scheint die Bildungswelt eine andere zu sein. Steht das Bildungssystem vor einer Revolution durch künstliche Intelligenz?

Doris Weßels: Ich habe schon im Dezember vergangenen Jahres gewarnt und darauf hingewiesen, dass man sich bitte dieses Themas annehmen möge. Man hat die Lehrenden und Lernenden an Hochschulen und Schulen lange allein gelassen. Insbesondere die Juristen waren eigentlich schon seit Jahren gefordert, sich zu kümmern, denn diese Entwicklung berührt unmittelbar auch das Urheberrecht, letztlich auch das Haftungs- und Strafrecht. Es war allerdings nicht vorhersehbar, dass etwas wie ChatGPT um die Ecke kommt und einen Hype ungekannten Ausmaßes auslöst. Wenn man sich die aktuellen Entwicklungen anschaut, dann sieht man, wie viele dieser Chatbots weltweit entweder schon da sind oder gerade noch in der Schublade der Tech-Unternehmen liegen. Das heißt, die Unterstützung und die Art der Kommunikation wird sich deutlich ändern.

ChatGPT wird – und das ist das Verrückte – von den Menschen, die es aufrufen, quasi selbstverständlich, wie eine Suchmaschine benutzt. Das liegt daran, dass ChatGPT sprachlich so hervorragend formuliert. Wenn man den gleichen Text noch mal eingibt, dann kommt etwas ganz anderes raus. Das ist bei Schulklassen großartig – die gleiche Hausarbeit, den Text einmal eingeben, zwanzigmal die Enter-Taste und man hat zwanzig Varianten. So ist die ganze Klasse versorgt. Ich glaube, dass wir in Zukunft individualisierte Lernbots einsetzen werden, sodass man ganz individuell seinen Lernweg oder -pfad bestimmen kann. Dieses Potenzial ist natürlich großartig. Aber wenn wir das nutzen wollen, brauchen wir rechtliche Rahmenbedingungen und DSGVO-konforme Zugänge zu KI-Werkzeugen und den dahinterliegenden KI-Modellen.

Wie arbeitet ChatGPT genau?

Doris Weßels: Das Programm hat eine dialogorientierte Form, um mit einem der großen Sprachmodelle der Welt, auch Large Language Models genannt, in den Dialog zu treten. Bei ChatGPT handelt es sich um die Dialog- und Chatvariante von OpenAI aus San Francisco. Dahinter steht ein generatives Sprachmodell, das vortrainiert wurde und auf einer sogenannten Transformer-Architektur von Google basiert.

Ich veranschauliche dies anhand eines Beispiels. Wenn ich jetzt sage: »Der Himmel ist…« und mein Gegenüber wäre ein Sprachmodell, dann wäre sein Job, meinen Satz fortzuführen. Da es keine einzige Antwort geben kann, sondern unendlich viele Varianten, ist das System auf Basis von Trainingsdaten und Millionen von gelesenen Dokumenten dazu gezwungen, eine statistisch plausible Antwort zu generieren. Mit Hilfe großer Statistiken kann es herausfinden, mit welcher Wahrscheinlichkeit ein bestimmtes Wort an dieser Stelle passt. Dann greift es in die vorbereitete Lostrommel der potenziellen Wörter, die den Satz an genau dieser Stelle vervollständigen könnten, zieht ein Wort heraus und ergänzt dieses dort. Dann schaut es wieder in seine Trainingsdaten und -statistiken und fragt: »Der Himmel ist grau – welches Wort folgt jetzt?«. Wieder ist das nicht eindeutig. Es ergänzt den Satz weiter – das ist ein autoregressiver Vorgang.

Das System bezieht sich auf sein vorhergehendes Ergebnis. So geht das Schritt für Schritt. Das ist immer wie ein digitales Kunstwerk, etwas Einzigartiges. Aber es ist in dieser Form nicht das Ergebnis einer faktengecheckten Suche.

Sie haben ChatGPT in einem früheren Interview als »Werkzeug und Waffe gleichzeitig« bezeichnet. Was genau meinen Sie damit?

Doris Weßels: Ich kann mit ChatGPT zum Beispiel einen Presse- oder Blogbeitrag in 30 Sekunden oder weniger schreiben. Ich könnte aber auch Fake-News in der gleichen Geschwindigkeit produzieren, indem ich irgendetwas behaupte und ein paar Stichworte dazu eingebe. ChatGPT kann somit gleichermaßen positiv wie negativ verwendet werden.

Im digitalen Raum kann der Missbrauch über die Reichweite zudem enorm vergrößert werden. Ich kann Fake-News extrem schnell verbreiten und Bots einsetzen, die Feedback geben. Man kann damit täuschende, betrügerische und manipulierende Medien betreiben. Neben Text geht es zunehmend mehr auch um Fakes in Form von Bildern und Videos. Wir können kaum noch zwischen Fiktion und Realität unterscheiden, weil die generativen KI-Tools für die Produktion von Bildern und Videos in sehr kurzer Zeit drastisch besser geworden sind.

Texte, die das Programm generiert, sind oft aber recht oberflächlich.

Doris Weßels: Man kann ChatGPT natürlich bitten, wenn es zu oberflächlich formuliert hat, die Textpassage an der Stelle präziser oder mit einer konkreten Schwerpunktsetzung neu zu formulieren. Auf diese Weise lässt sich zu einem gewissen Grad etwas mehr Tiefe generieren, aber das »Geplauder« wird immer durch die Qualität der Trainingsdaten begrenzt sein. Dieses System hat keinerlei Bewusstsein oder Verständnis von dem Thema, über das es spricht. Das Programm ist höflich, formal korrekt, weist in der Regel keine Grammatik-, Zeichen-, oder Orthografiefehler auf. Wir als Menschen haben es zuvor nie erlebt, dass es eine Software gibt, die sich bei uns entschuldigt und zugleich unberechenbar ist.

Viele Lehrkräften sind verunsichert, Informatiklehrer reagieren hingegen eher gelassen. Einige setzen ChatGPT mittlerweile auch zur Unterrichtsvorbereitung ein. Kann KI den Lehrerinnen und Lehrern auch Arbeit abnehmen?

Doris Weßels: Ja, absolut. Das ist eine Stärke und auch ein Risiko dieser Technologie. Jeder kann sie einsetzen, weil textgenerierende Systeme oder generative KI-Modelle vielfältig einsetzbar sind und jeder in irgendeiner Form Text benutzt.

Nehmen wir mal das Beispiel Schule: Eine Lehrerin konzipiert eine Lehreinheit und benutzt ChatGPT, um im ersten Schritt eine Idee für ein Thema zu finden. Die Lehrerin hat viele Ideen generieren lassen, wählt eine aus, benutzt im zweiten Schritt wieder ChatGPT und lässt sich einen Lehrentwurf für eine Stunde machen. Diesen schaut sie sich an, prüft oder generiert dafür noch einen Test mit Musterantworten. Dann geht sie in die Klasse, diskutiert das mit den Schülerinnen und Schülern und gibt Hausarbeiten zu einem Thema auf.

Die Schülerinnen und Schüler benutzen zu Hause und auch im Unterricht wiederum ChatGPT. Die Lehrerin nimmt die Hausarbeiten mit den Antworten der Schülerinnen und Schüler und lässt sie von ChatGPT prüfen. Somit wurden in der Gesamtprozesskette alle Arbeitsschritte mit ChatGPT gemacht und alle haben das Problem erfolgreich outgesourced.

Das führt zu absurden Prozessketten, die nicht mehr als sinnstiftend bezeichnet werden können. Letztendlich wird man ganz andere Aufgabenstellungen brauchen.

Sollten sich Lehrerinnen und Lehrer von der Hausaufgabenkultur gänzlich verabschieden?

Doris Weßels: Es gibt sicherlich ganz, ganz viele Hausaufgaben, die zukünftig nicht mehr sinnvoll sind.  Ich glaube, es wird schwierig, für all diese klassischen Hausaufgaben, die man heute vergibt, adäquate, passende, neue Hausaufgabenstellungen zu formulieren.

Müssen sich Lehrkräfte künftig Tools anlegen, um Hausaufgaben oder Schülerarbeiten darauf zu prüfen, ob sie mit Hilfe von KI gelöst wurden?

Doris Weßels: Das berührt ja die Sorge: Wir werden betrogen. Man unterstellt der anderen Seite eine Leistung erbracht zu haben, die sie in Wirklichkeit gar nicht allein, sondern durch KI-Einsatz erbracht hat und es verbergen möchte. Aus meiner Sicht sollten wir auf diese ganze Detektoren-Geschichte überhaupt nicht eingehen. Selbst der Chef von OpenAI, Sam Altman, betont in seinen Interviews, dass wir uns nicht auf die Wirkung der Detektoren verlassen sollen. Der eigene KI-Detektor von OpenAI erkennt nur 26 Prozent der KI-generierten Texte. Bei Texten, die Menschen produzieren, schlägt der Detektor noch bei neun Prozent an. Das bedeutet, diese Detektoren sind derzeit nicht einsatzfähig. Aber nehmen wir mal an, es würde tatsächlich funktionieren. Dann wäre ich doch, wenn ich wirklich täuschen will, so klug, den Text noch einmal zu überarbeiten. Das heißt, ich nutze eine andere KI, die ein sogenanntes Re-Writing durchführt. Demnach sind diese Detektoren für uns überhaupt keine Lösung – auch unter dem Aspekt des Hase-Igel-Rennens von Text-generierender KI und KI-Detektoren, dem wir ausgesetzt wären.

Ist ChatGPT für die Schüler dann weniger ein Werkzeug zum Lernen, sondern eher zum Betrügen?

Doris Weßels: Betrug kann erst dann entstehen, wenn es ein Verbot gibt. Wenn ich es gar nicht verbiete, kommt es nicht zum Täuschen oder Betrügen. Deshalb mein Plädoyer, es ganz bewusst offensiv zu nutzen, sogar zur Nutzung anzuregen. Sicherlich nicht komplett, aber in bestimmten Bereichen und dort müssen wir gleichzeitig gezielt Anreize für Transparenz schaffen. Dass solche KI-Tools immer mehr Verbreitung finden werden, sollten wir akzeptieren. Die größte Herausforderung für die Lehrerinnen und Lehrer wird eher die Frage sein »Wie motiviere ich eigentlich noch die Kids für die basalen Kompetenzen, d.h. wirklich selber rechnen oder schreiben zu lernen«, wenn sie wissen, sie können eigentlich alles mit einem Klick machen – wie die Erwachsenen.

Kann der Einsatz von künstlicher Intelligenz die Chancengerechtigkeit an Schule verbessern, weil sie das individuelle Lernen unterstützt?

Doris Weßels: Ja, weil Kinder von Akademikern in der Zeit vor Programmen wie ChatGPT natürlich deutlich bessere Unterstützung bekommen hatten. Das war anderen Kindern nicht vergönnt oder gegeben. Jetzt haben wir durch solche Lösungen eigentlich – wenn die Zugänglichkeit für alle Beteiligten gegeben ist – eine Förderung der Chancengerechtigkeit. Allerdings deuten die ersten Ergebnisse der Nutzung von ChatGPT in den Schulen leider daraufhin, dass wir einen leichten intellectual divide haben. Das bedeutet, dass die guten Schülerinnen und Schüler sehr kompetent mit den Tools umgehen und ganz stark davon profitieren, während die schwächeren Schülerinnen und Schüler solchen Tools quasi blind vertrauen und sich selber zu stark zurücknehmen.

Das hätte eine intellektuelle Spaltung zur Folge – die Guten profitieren und die Schwächeren fallen ab. Ich finde das tragisch, aber es wird mir so leider aus dem Umfeld von Lehrerinnen und Lehrern zurückgespiegelt.

Also lautet Ihre Antwort »ja und nein«?

Doris Weßels: Genau. Der Umgang mit dem Programm hängt mit dem eigenen Selbstbewusstsein und der eigenen Positionierung zusammen. Wenn ich eine gute Schülerin bin, gehe ich reflektierter vor und habe eher das Vertrauen zu sagen, mein Satz ist besser formuliert und passt besser als das, was die Software generiert hat. Ich vermute, dass schwächere Schüler sagen: »Wenn die allwissend wirkende Software etwas produziert hat, ist das sicherlich immer besser als das, was ich schreibe«. Da ist vielleicht die Selbstwahrnehmung schon zu selbstkritisch, sodass diese Schüler tendenziell automatisiert generiertem Content den Vorrang geben.

Sie waren unlängst zu Gast in der Kultusministerkonferenz. Welchen Rat geben Sie den Pädagogen und Kultusbehörden der Länder?

Doris Weßels: Ich betone immer vier A’s: Das erste A ist, in der Fläche Aufklärungsarbeit zu leisten – bei Lehrern und Lehrerinnen, Lehrenden an Hochschulen und letztlich auch bei den Lernenden. Man muss sehr schnell darüber informieren, was Tools wie ChatGPT bieten, die Limitationen klarmachen und dieses tragische Missverständnis, dass man denkt, das wäre eine Suchmaschine, widerlegen. Das ist eine Zäsur, die wir gerade erleben und diese Aufklärungsarbeit muss schnell erfolgen.

Das zweite A ist das Ausprobieren. Wir müssen die Menschen motivieren, sich selbst dem persönlichen »Schock« einer völlig neuen Erfahrung im Dialog mit einer generativen KI auszusetzen. Diese gezielte und häufig sehr tiefgreifende Irritation, die sie darüber erfahren – das schärft das Bewusstsein für die Gefahren und Möglichkeiten von künstlicher Intelligenz.

Das dritte A ist das Akzeptieren und das vierte ist das Aktivwerden, indem man sich austauscht und Ideen entwickelt. Wir müssen uns in Deutschland bewusstmachen, dass wir mehr Tempo in der Bildung brauchen und Lehrende auch kontinuierlich Lernende sein müssen, gerade bei digitalen Tools. Unser Ziel muss die Anschlussfähigkeit bei digitalen Technologien sein. Wir dürfen bei der Digitalisierung im Bildungsbereich im internationalen Vergleich nicht noch weiter zurückfallen.

Also nicht zaudern, sondern experimentieren und auch Fehler zulassen?

Doris Weßels: Genau. Wir brauchen einfach viel mehr Mut. Wir neigen dazu, mit »German Angst« und deutscher Gründlichkeit gepaart mit hohem Qualitätsbewusstsein unterwegs zu sein. Im Bildungsbereich setzen wir z.B. klassisch auf zeitintensive Prozesse wie Akkreditierungen. Uns läuft nun aber die Zeit davon. Es muss Anregungen und auch gezielte Anreize für Lehrerinnen und Lehrer und Hochschullehrende geben, explorativ vorzugehen und Neues einfach auszuprobieren. Nur dadurch sind wir schnell genug, neue Gestaltungsansätze für den Umbau des Systems zu generieren.

Mein Plädoyer ist: Mutig sein und Anreize setzen. Dieser ChatGPT-Hype stellt uns vor eine neuartige Herausforderung, die wir in dieser Form noch nie erlebt haben. Diese Veränderung kommt wie ein Erdbeben über uns. Ein Teil des Gebäudes ist auch schon zusammengebrochen und wir wissen nicht so recht: Neu bauen, abreißen, umbauen? Sehr positiv zu bewerten ist aber, dass wir derzeit auf nahezu allen Ebenen eine intensive Diskussion führen. Dieser Diskurs wirkt auf mich wie ein organisations- und hierarchieübergreifendes Brainstorming auf der Suche nach neuen Formen von Lehre und Lernen im KI-Zeitalter. Wir wissen, dass unser Bildungssystem an einigen Stellen nicht mehr zukunftsfähig ist, aber dieser Veränderungsdruck lässt glücklicherweise auch viele neue Ideen entstehen.

Das Gespräch führten Laurén Haziak und Dirk Reelfs.

 

Einen Leitfaden zum Umgang mit ChatGPT in der Schule gibt es hier.

Lehrkräfte, die sich zum Umgang mit Künstlicher Intelligenz fortbilden möchten, finden entsprechende Angebote hier.

 

 


Ein Gedanke zu “»ChatGPT kommt wie ein Erdbeben über uns«

  1. In einigen Lebensbereichen, auch in der Schule, kann KI durchaus nützlich sein, das will ich nicht bestreiten. Aber schon jetzt ist es für viele Schüler schwer und anstrengend, den Wahrheitsgehalt von Inhalten zu durchschauen bzw. nicht „das Internet zu kopieren“. Die Versuchungen sind zu groß. Das Smartphone hat schon eine ungeheure Sogwirkung. Wie viele werden da noch selbst Texte verfassen wollen? Die Technik gaukelt den Menschen schnell vor, dass es ja nicht schwer sei, Wissen zu erlangen. Inhalte aber wirklich zu verstehen, das steht auf einem anderen Blatt. Schon jetzt glauben manche wirklich, dass die Digitalisierung alle Probleme löst. Das ist aber nun wirklich zu kurz gedacht. „Kids zu motivieren….“ Die Anstrengungsbereitschaft, Konzentrationsfähigkeit und Frustrationstoleranz ist jetzt schon nur noch mäßig ausgeprägt, da in vielen Bereichen suggeriert wird, dass alles spielerisch sein kann, dass es Spaß machen muss usw. Selbstverständigkeit? Eine gesunde Mischung wäre gut, aber im Techniküberschwang gilt manches schnell als veraltet, was durchaus noch seine Berechtigung hat.
    P. S. Ich finde Kinder statt Kids angebrachter,aber die deutsche Sprache hat leider zurzeit einen schweren Stand.

Kommentare sind geschlossen.


Suche

Unser soziales Netzwerk

Rechtliche Hinweise

Alle auf diesem Blog veröffentlichten Beiträge des Sächsischen Staatsministeriums für Kultus wurden mit größtmöglicher Sorgfalt erstellt. Wir übernehmen jedoch für die Richtigkeit, Vollständigkeit und Aktualität der Beitragsinhalte keine Gewähr.

Enthält ein Beitrag rechtliche Hinweise oder Empfehlungen, so sind diese unverbindlich und begründen keine Rechte. Enthält ein Beitrag einen Link zu einem anderen Internetangebot, wird keine Verantwortung für die Inhalte dieses Internetangebots übernommen.

Archiv

zurück zum Seitenanfang