Bezirksregierung
Arnsberg

ChatGPT & Co – Revolution der Bildung?

Ein Vortrag von Dorothee Töreki

Die Medienberatenden im Regierungsbezirk Arnsberg haben sich im Mai 2023 intensiv mit dem Thema „Generative AI“ und den sich daraus ergebenden Herausforderungen, aber auch Chancen für Schulen befasst. Als Grundlage für die anschließende Diskussion und Weiterarbeit diente der Online-Vortrag von Dorothee Töreki. Gerne stellen wir ihn hier zur Verfügung, weil er auch für Lehrkräfte eine gute Einführung und Diskussionsgrundlage bietet. 

Video

Video: ChatGPT & Co – Revolution der Bildung?

55:05 Minuten

Herzlich willkommen erstmal zu dem super interessanten Thema ChatGPT und Co und wie generative AI unsere Welt verändern wird. Ich switche jetzt auch mal direkt auf meine Präsentation. Ich würde sagen, ich habe ihnen so viel erzählt. Wir springen direkt rein ins Thema - eine Sekunde.

So, jetzt. Ganz kurz zu mir. Mein Name ist Dorothee Töreki. Ich habe hier alle meine Daten verlinkt. Wenn Sie mehr über mich wissen möchten, gehen Sie am besten direkt über meine Homepage. Sie können sich auch gerne mit mir über LinkedIn vernetzen. Ich bin seit mehr als 20 Jahren in der Informationstechnologie, habe mehr als zehn Jahre bei der IBM Deutschland gearbeitet und habe da schon sehr viel mit künstlicher Intelligenz zu tun gehabt.

Und ich würde sagen, das war es zu mir. Ich habe Ihnen so viel heute zu erzählen zum Thema ChatGPT und Co, dass ich mich gar nicht so sehr mit mir selber beschäftigen möchte. Ich würde wirklich sagen, das Jahr 2022, als generative AI das Licht der Welt erblickte, ist wirklich ein besonderer Moment in der Geschichte der Menschheit. Ich glaube, wenn wir in 50 Jahren oder so zurückblicken werden, werden wir das wahrscheinlich wirklich als Wendepunkt sehen.

Und viele behaupten, dass die Idee, die Entstehung von ChatGPT sei vergleichbar mit der Erfindung des iPhones. Ich glaube, dass der Vergleich nicht ausreicht. Jemand anders aus dem Silicon Valley hat generative AI mit der Entdeckung des Feuers verglichen für die Entwicklung der Menschheitsgeschichte. Und ich glaube, das ist wirklich ein treffender Vergleich, weil als die Menschheit das Feuer für sich entdeckt hat, konnte sie die Grenzen des bis dahin Denkbaren sprengen.

Wir Menschen waren dadurch in der Lage, uns in kältere Klimazonen auszubreiten, weil wir die Wärme des Feuers für uns nutzen können konnten. Wir konnten Lebensmittel sicherer und leichter verdaulich zubereiten und wir haben durch die Feuer, durch das Feuer neue Werkstoffe entdeckt und haben - hatten die Möglichkeit, Werkzeuge herzustellen und leider auch Waffen herzustellen. Und ich glaube, dass die Entdeckung des Feuers entspricht dem, was generative AI für die Menschheit bedeutet, und darum soll es in der kommenden guten Dreiviertelstunde gehen.

Natürlich mit dem Fokus auf Bildung. Und die Frage, die sich oft stellt, die mir oft gestellt wird - naja, ist das nicht alles ein riesen Hype? Wir haben ja nun künstliche Intelligenz schon seit mehreren Dekaden. Und was ist denn eigentlich anders, als es die Jahre davor war? Ich sage mal, wir haben ja vorher auch schon vor 2022 neuronale Netze gehabt.

Also wir haben Maschinenlernen gehabt, Deep Learning gehabt. Ja, das stimmt. Und die großen Durchbrüche waren bis dahin, dass wir Muster erkennen konnten in strukturierten und unstrukturierten Daten. Das heißt, wir, eine Maschine war in der Lage, aus unstrukturierten Texten, aber auch aus Bildern, aus Videos Inhalte zu erkennen und daraus Erkenntnis zu gewinnen. Wir konnten zum Beispiel, ganz simpel, wir konnten dadurch das Wetter sehr viel genauer vorhersagen. Oder auch so was wie Lufthansa Services, der Bereich der Lufthansa, der Flugzeuge wartet.

Bis dahin war es so, dass Flugzeuge einem klassischen Wartungsintervall unterworfen waren, so wie wir es auch vom Auto kennen. Mit diesen DeepLearning-Modellen waren wir in der Lage, so genau vorherzusehen, basierend auf den individuellen Flugrouten und den Wetterverhältnissen, die ein Flieger während dieser Flugrouten erlebt hat, sehr genau vorherzusagen, wann welches Teil in einem Flugzeug ausgewechselt werden muss.

Also wir hatten dadurch auf einmal individuelle Wartungsintervalle. Das sind zwei Beispiele, wie wir Muster erkennen konnten, auch ganz klassisch: Social Media. Aus Texten konnten Maschinen sehr genau erkennen, was für ein Typ Mensch wir sind, nach den großen fünf Persönlichkeitsattributen. Das alleine ist natürlich schon disruptiv genug. Aber was an generative AI, also seit 2022, was da neu ist, ist, dass Maschinen aus vorhandenen Daten neue Daten erzeugen.

Heißt, wenn ich einer Maschine eine Frage stelle, dann gibt sie mir eine Antwort als Text, einen neuen Text, den es so vorher noch nicht gab. Und dieser Text ist immer individuell. Ein anderer. Wir wissen vorher nicht, selbst bei gleichem Input: Wenn ich einer Maschine dreimal die gleiche Frage stelle, ist der Text, den sie erzeugt, immer ein etwas anderer.

Und das ist das wirklich revolutionäre Neue an generative AI. Und der Jason Yuan, der war bis vor wenigen Wochen im Apple Design Team, ich finde, er hat es wirklich auf den Punkt gebracht. Das verändert wirklich komplett das Spiel, weil Computer sind plötzlich, indem sie uns individuelle Antworten geben, indem wir mit ihnen sprechen können, sind auf einmal nicht mehr irgendwelche Werkzeuge, sondern je nachdem, welche Konversation wir mit denen führen, fühlt sich das so an, als hätten wir eine Beziehung zu einer Maschine.

Und das ist wirklich ein ganz neues Level. Und wenn wir uns mal anschauen, Open AI, also die das Unternehmen, was ChatGPT entwickelt hat, hat ja z. B. am 30. November releast und zwar vollkommen ohne Werbung, ohne Marketing, ohne alles. Die haben es im Prinzip nur in Anführungsstrichen der Öffentlichkeit zugänglich gemacht und es wurden alle Rekorde gebrochen. ChatGPT hat in nur fünf Tagen 1 Million User bekommen, noch mal ohne Marketing, ohne Werbung.

Und wenn man sich anschaut, wie lang andere Tools dafür gebraucht haben und der bisherige Rekordhalter ist noch nicht mal in dieser Grafik enthalten, das war nämlich bis dahin TikTok, TikTok hat innerhalb von einem Monat 1 Million User bekommen. Ja, und jetzt innerhalb von fünf Tagen. Und wir schauen uns jetzt mal an, was eigentlich die Faszination von ChatGPT ausmacht und wie das Bildung verändert.

Die Frage, die sich natürlich stellt, ist: Haben wir nun die perfekte Hausaufgabenerledigungsmaschine? Und ich sage ganz kurz und bündig: Ja, die haben wir. Wenn ich weiß, welche Fragen ich einer Maschine stellen muss, dann haben wir das. Wenn wir Hausaufgaben haben, so weiter stellen, wie wir sie bisher stellen. Es gab dann im März einen Artikel in der Netzwelt, da ging es darum: Schafft eine KI das bayerische Abitur?

Und dort wurde eine Frage aus dem bayerischen Abitur gestellt, und zwar wirklich die Frage eins zu eins übertragen. Das wurde dann von einem Lehrer bewertet und der Lehrer hat gesagt: Nein, ChatGPT hat die Prüfung nicht bestanden. Das Ergebnis, also die Schulnote war mangelhaft. Die Aufgabe war, die Aufgabe war die Analyse eines Textes von der Miriam Meckel. Da sind wir schon genau bei dem Punkt: Ich muss mit einer Maschine anders sprechen, als ich es mit einem Menschen mache.

Eine Maschine kennt keinen Kontext, also die weiß nicht: Handelt es sich um eine Abiturfrage? Und in welcher Form soll denn die Antwort aussehen? Wie lang soll denn die Antwort überhaupt sein? Also nur 1/3 des geforderten Umfangs. Das muss die KI erst mal wissen. Wenn sie es nicht weiß, beantwortet sie es so, wie sie es sich gerade denkt.

Und dann steht da: Sprachlich war es nicht besonders anspruchsvoll. Auch das kann ich einer Maschine mitgeben. In welchem Stil soll ich die Frage beantworten? Soll, soll ich kurze Sätze haben? Soll ich einfache… soll ich eine einfache Sprache sprechen? Und wie soll der der Stil sein? Soll er emotional sein? Soll er wissenschaftlich sein? Usw. Also wenn ich keine… einer Maschine keinen Kontext mitgebe, dann kommt da auch mit hoher Wahrscheinlichkeit eher so nichtssagendes Blabla raus.

Und das war auch einer der Kritikpunkte. Und wir schauen uns jetzt mal an, wie kann es denn aussehen, dass ich die richtigen Fragen stelle? Das ist die erste große Frage, die wir uns stellen sollten. Wie muss denn der Dialog mit einer Maschine überhaupt aussehen? Das ist der erste große Punkt, den ich heute mit Ihnen mal beleuchten möchte. Und der andere große Punkt ist das ganz große Thema ist Was ist Wissen?

Ist Wissen eigentlich das, was in Büchern steht? Oder ist Wissen vielleicht doch noch etwas Anderes? Es gibt einen, Pädagogen, David Weinberger. Darüber habe ich mich… Ich habe einen Vortrag gehalten an der Professional School of Education von der Universität Bochum, und ich habe nachher - war ich bei denen zu Gast im Podcast und der Gastgeber, der Host dieses Podcast, auch ein Pädagoge, der hat mich auf David Weinberger aufmerksam gemacht.

Das ist ein Pädagoge, der stellt genau diese Frage: Was ist eigentlich Wissen? Ist Wissen etwas, was in Büchern steht? Ich bin noch so aufgewachsen. Ich bin zur Schule gegangen, als es das Internet noch nicht gab und in dieser Zeit war es so, was in einem Geschichtsbuch stand, das war Geschichte. Obwohl natürlich auch das, was in diesem Buch steht, die individuelle Sicht eines einzelnen Menschen darstellt.

Und ich erinnere mich noch gut daran. Vor dem Frühstück ging mein Vater vor die Haustür und hat sich die Zeitung geholt. Ich bin im Ruhrgebiet aufgewachsen, das heißt, mein Vater hat damals die WAZ gelesen und auch der… für uns war das, was in der WAZ stand, was in der Zeitung stand, das war die Realität. Und das hat sich spätestens mit dem Internet verändert.

Dadurch, dass sich auf einmal die Menschheit vernetzt hat, dass jeder Mensch seine Sichtweise anderen mit anderen Menschen teilen konnten. Daraus ergab sich auf einmal so eine Mehrschichtigkeit. Wir haben auf einmal ganz verschiedene Sichtweisen auf ein Thema wahrnehmen können. Und im positiven Fall haben wir gelernt, dass nicht immer nur, nicht zwangsläufig eine Perspektive auf ein Thema, auf eine Frage, Fragestellung richtig sein kann, dass mehrere Sichtweisen ihre Existenzberechtigung haben und dass verschiedene Menschen verschiedene Perspektiven auf ein Thema haben können.

Das war die große Chance des Internet. Das Risiko war natürlich, dass viele Verschwörungstheorien ins Kraut geschossen sind, dass wir immer… dass es immer schwieriger wurde, Wahrheit von Fake News zu unterscheiden. Der Wahlkampf 2016 von Donald Trump und was daraus entstand, ist ein großes, ist ein Beispiel davon. Natürlich auch die, die Pandemie, die wir in den letzten Jahren erlebt haben.

Was ist Wahrheit, was ist falsch? Und Institutionen werden mehr und mehr in Zweifel gezogen. Das mag zum Einen durchaus sinnvoll sein bis zu einem bestimmten Grad. Was wir daran aber auch schon erkennen können, ist, dass es immer wichtiger wird, kritisches Denkvermögen zu bekommen und beurteilen zu können: Wie ist diese Aussage zu bewerten? Wer ist der Mensch, der dahinter steckt?

Welche Absichten könnte dieser Mensch haben und wie bewerte ich das für mich? Das sind die großen Anforderungen unserer Zeit und mit ChatGPT und Konsorten, mit generative AI wird das immer wichtiger. Die gute Nachricht ist, ChatGPT kann uns dabei helfen, verschiedene Sichtweisen einzunehmen. Und die Frage, die sich daran anschließt ist: Wie lernen wir eigentlich auch und wie könnten wir denn Hausaufgaben anders denken, wenn wir darüber nachdenken?

Wie lernen wir eigentlich? Wir lernen, indem wir zum Beispiel im individuellen Tempo lernen können. Das wäre eine große Chance für die Bildung. Oder wir lernen auch, indem wir anderen etwas erklären. Wir lernen, indem wir Fragen stellen. Und wir lernen, indem wir andere Perspektiven einnehmen. Das hatten wir gerade schon, in denen wir mit anderen darüber diskutieren, vielleicht auch streiten.

Eine der großen Herausforderungen unserer Zeit ist eine Streitkultur zu entwickeln, in denen wir es, in denen es uns möglich ist, unseren eigenen Standpunkt einzunehmen und auf den anderen einzugehen und respektvoll miteinander umzugehen. Eine der, glaube ich, eine der größten Herausforderungen unserer Zeit. Und eine andere Möglichkeit zu lernen ist natürlich auch, Methoden anzuwenden und im allerbesten Fall Methoden zu entwickeln. Und über diese ganzen Themen, zu diesen ganzen Lernmethoden, möchte ich ein paar Beispiele bringen, wie der ChatGPT uns dabei helfen kann.

Fangen wir mal an. Im individuellen Tempo lernen. Der Klassiker ist Sprachen. Wenn ich für mich, wenn ich von mir selber sprechen darf: Ich war ein extrem schüchternes Kind. Ich musste… heißt für mich: Ich hatte große Schwierigkeiten in der Schule, mich in einer fremden Sprache auszudrücken, mich zu melden, mich zu beteiligen. Weil zu der Schüchternheit kam noch erschwerend hinzu, dass ich dann noch Angst hatte, Fehler zu machen in einer fremden Sprache, mich nicht richtig auszudrücken.

Und da ist ChatGPT und Konsorten eine große Chance, Zuhause in meinem Tempo zu üben. Ich habe das mal durchgespielt. Also ich mache jetzt keine Live Demos, das würde zu viel Zeit kosten. Ich zeig Ihnen jetzt einfach noch mal ein paar Screenshots. Ich habe zum Beispiel in einer Konversation, die er sich dann auch merkt, habe ich jetzt gesagt: Pass auf, in dieser Konversation bist du mein, mein Kumpel, mein Freund, der Student John from Boston und ich möchte mit dir einfach üben. Und der akzeptiert, antwortet auch direkt in einem sehr, wie soll ich sagen, umgangssprachlichen, freundlichen Ton. Und er fängt auch direkt an, fragt mich: Was hast du denn grad so gemacht? Und ich erzähle ihm so ein bisschen: Ja, ich bin zu schüchtern. Und so weiter.

Und er geht auch direkt darauf ein. Er sagt: Ja, das kann ich gut verstehen, dass man, dass das schwierig ist, wenn man schüchtern ist und dann zu üben in einer neuen Sprache. Ich sage ihm dann auch noch: Bitte korrigiere mich, wenn ich Fehler mache. Das macht er auch. Ich sage zum Beispiel: „I’m looking forward to attend a concert on Saturday…“, und da sagt er: „Die bessere Antwort wäre: I’m very much looking forward to attending a concert on Saturday.“

Und so weiter. Dann reden wir und unterhalten wir uns über Lady Gaga, und was ich damit sagen möchte ist, ich habe, sorry, ich habe die Möglichkeit, in meinem eigenen, in meinem eigenen Tempo und auch über die Themen, die für mich vielleicht relevant sind, die für mich wichtig sind, mit einer Maschine zu üben. Und das ist, da sprechen wir schon ein ganz wichtiges Thema an, eine Maschine bewertet uns nicht, wertet uns nicht ab, wie es vielleicht Mitschüler tun würden.

Und eine Maschine bewertet uns nicht, wie es ein Lehrer, eine Lehrerin tun würde. Und deshalb haben wir, glaube ich, mit ChatGPT eine große Chance. Wenn wir schon, wenn wir ChatGPT, also einen Sprachbuddy verwenden, so ein Rollenspiel mit ihm einnehmen, dass wir da sehr viel freier und lockerer mit so einer Maschine uns unterhalten können. Andere Übung. Fragestellung. Sind wir direkt beim anderen Thema: Mathematik.

Ich habe mal ein ganz einfaches Thema, nur um es zu verdeutlichen. Was ist der Unterschied zwischen einem Parameter und einem Koeffizienten? Habe ich jetzt mal gefragt. Wenn ich Google frage, dann kommt… wird so eine Gleichung an angezeigt, da. Das mag jemand verstehen, der ein mathematisches Verständnis hat. Und da sind wir wieder bei dem Thema Scham. Vielleicht ist mir das… Mathe…

Mathematik ist ein sehr angstbesetztes Thema für viele Schüler und Schülerinnen, und auch da habe ich wieder die Chance, indem ich Fragen stelle, mir mit ChatGPT ein eigenes Verständnis in meinem eigenen Tempo anzueignen. Ich habe das jetzt mal getestet. Also ich habe ChatGPT gesagt: Stell dir vor, du bist ein Lehrer. Also ich, ich... Da sind wir wieder bei dem Kontext.

Ich muss ziemlich genau sagen, was er denn tun soll. Ich habe ihm vorher gesagt: Erkläre mir bitte den Unterschied zwischen einem Parameter und einem Koeffizienten. Da hat er so eine ähnliche Antwort gegeben, wie Sie gerade in der Grafik gesehen haben. Das hat mir jetzt nicht so gefallen. Ich habe das nicht verstanden. Also sag ich ihm: Stell dir vor, du bist ein Lehrer und möchtest dies einem 6-jährigen Kind erklären.

Wie, wie würdest du das machen? Was ChatGPT da sagt? Das finde ich wirklich richtig gut. Stell dir vor, wir sprechen über einen Ball und ein Parameter wäre, wenn wir über einen Ball sprechen, wäre es die Farbe, die Größe oder die Form eines Balles. Das heißt, alles was beschreibt, wie der Ball aussieht, ist ein Parameter. Und wenn wir bei dem, wenn wir immer über denselben Ball sprechen, dann bleibt dieser Parameter üblicherweise gleich.

Also ein roter Ball ist immer ein roter Ball und ein Ball ist immer rund. Wenn man nicht die Luft rauslässt, hat er auch immer einen bestimmten Durchmesser. Und das ist der Unterschied zu einem Koeffizienten. Bei einem Koeffizienten geht es darum, und auch da finde ich das Beispiel ziemlich gut, was der, was er da aufführt. Wenn wir ein Rennen, ein Wettrennen machen wollen und ich möchte gewinnen, dann ist der Koeffizient der Faktor, der mir sagt, wie schnell muss ich denn laufen, um gegen eine bestimmte Person zu gewinnen und der Koeffizient ändert sich natürlich, je nachdem gegen wen ich laufe.

Long story short: Ich finde, dieses Beispiel zeigt ganz gut, wie ChatGPT und Co – und es gibt nicht nur den ChatGPT, kommen wir gleich noch zu, uns Möglichkeiten gibt, uns vielleicht auch Wissen anzueignen auf eine ganz andere Art und Weise. Auch wieder, indem wir Fragen stellen und er und wir uns dem Thema nähern. Aus unserer eigenen Sichtweise und in unserem eigenen Tempo.

Noch mal ganz wichtig: ohne Bewertung und in in meinem eigenen Tempo, ohne dass ich mich, dass ich mich irgendwie schämen müsste oder so. Ein ganz wichtiger Punkt. Und wir hatten es ja schon, die verschiedenen Perspektiven einnehmen, wenn wir uns darüber… Ich ruf nochmal in den Kontext. Wir sind immer mehr in einer Welt, in der es darum, in der es wirklich absolute Kernkompetenz ist, zu erkennen, was ist richtig und was ist falsch und haben andere Sichtweisen vielleicht auch ihre Existenzberechtigung.

Und das Schöne ist: Es kann ja sein, dass ich mich auf eine Diskussion, auf eine Auseinandersetzung mal vorbereiten möchte. Und auch hier kann mir so ein Tool wie ChatGPT durchaus helfen, wenn wir dann zum Beispiel sagen: Agiere mal als Pharmareferent oder -referentin und erkläre mir, warum Tierversuche in der Medizin denn sinnvoll sein könnten. Selbst wenn ich eine Tierschützerin bin und erst mal gegen Tierversuche bin.

Es kann mir das aber erst mal helfen, in einer neutralen Umgebung, indem mir einfach eine Maschine verschiedene Perspektiven aufbereitet, diese Perspektiven in Ruhe zu durchdenken, ehe ich dann mit einem wirklichen echten Menschen in eine vielleicht sehr kontroverse Diskussion einsteige. Hier hat mir ChatGPT erst mal erklärt, warum Tierversuche wichtig sind. Da geht es vor allen Dingen um die Medikamentenentwicklung.

Und ich frag aber auch noch weiter. Gibt es denn Möglichkeiten, unter denen wir auf Tierversuche verzichten könnten? Und auch hier erklärt er mir, ja, Möglichkeiten könnte es geben. Die Entwicklung von alternativen Methoden. Und was für mich vielleicht auch ganz wichtig ist, wenn ich mich auf eine Auseinandersetzung, auf eine Diskussion vorbereite: Es geht da oben nicht nur darum, was die Pharmaindustrie gerne machen möchte, sondern natürlich geht es auch um eine Gesetzgebung und Regulierungen, wenn es darum geht, ein Medikament auf den Markt zu bringen.

Als kleines Beispiel, wie generative AI dabei helfen kann, verschiedene Perspektiven einzunehmen. Dann noch mal eine ganz andere, ein ganz anderes Thema. Äh, ich entscheide, wenn es darum geht, Methoden anzuwenden. Da ist natürlich die Vielfalt enorm groß. Es geht ja hier auch darum, in der Kürze der Zeit erstmal nur darum, was ist denn überhaupt möglich? Und ich möchte hier mal die Methode zeigen „Lernen durch Lehren“, also eine Rollenumkehr. ChatGPT ist der Schüler und der Schüler ist derjenige, der die Antworten von ChatGPT bewertet.

Und um das mal ziemlich konkret zu machen, habe ich mal gesagt: Es geht um das Abilene-Paradoxon. Die Aufgabe besteht darin, das Paradoxon zu verstehen. Ganz kurz das Paradoxon. Darum geht es: Das hat seinen Namen, es geht darum… es war… Es gab eine Gruppe von Freunden, die ist über ein halbes Jahr lang jedes Jahr in die australische Stadt Abilene gefahren, um Pizza essen zu gehen.

Keiner aus dieser Gruppe mochte besonders gerne Pizza essen, es hat aber keiner etwas gesagt in der Annahme, die anderen essen ja so gerne Pizza. Und wenn ich jetzt was sage, dann verderbe ich denen die Freude am Pizza essen. Und weil jeder so gedacht hat, sind die… haben die alle sich als Gruppe zu einer Entscheidung durchgerungen, in der aber kein einziger, kein einziges Individuum in der Gruppe wirklich dahintersteht.

Das ist das Paradoxon und ich finde das ein schönes Beispiel, wie man auch Hausaufgaben neu denken könnte. Eine Hausaufgabe könnte darin bestehen: Äh, frage mal ChatGPT, er soll dir als Schüler, Schülerin das Paradoxon erklären und du gibst ChatGPT einfach ein Szenario vor und bewertest dann, wie z. B. ChatGPT dieses Abilene-Paradoxon beschrieben hat. Und alleine durch die Kreativität, was könnte ich mir denn für ein Szenario ausdenken mit dem ChatGPT dieses Phänomen beschreiben könnte?

Alleine das ist schon ein kreativer Teil einer Hausaufgabe und natürlich die, in dem ich die Antworten bewerte, muss ich mir natürlich Gedanken darüber machen: Was ist das Paradox überhaupt und warum bewerte ich die eine Antwort höher als die andere? Ich habe mal ein paar Beispiele jetzt mal genommen. Zum Beispiel Aliens landen auf der Erde und die müssen sich jetzt entscheiden, wo wollen wir denn landen?

In einer Großstadt oder in der Wüste oder wo auch immer? Und schreibe mal das erste Kapitel eines Science Fiction Romans, bei dem es genau um dieses Phänomen des Paradoxons geht. Wäre eine Möglichkeit. Eine andere könnte sein: Ein Journalist berichtet von einer Expertenkonferenz über die Bedeutung des Paradoxons auf die Gesellschaft. Oder was ganz anderes. Zum Beispiel drei Jugendliche planen das Wochenende. Und bei solchen Hausaufgaben ist es, glaube ich, kommt eine ganz neue Idee, Dynamik rein, weil wenn man dann am nächsten Tag die Hausaufgaben im Klassenplenum bespricht, ist es ganz spannend zu sehen, welche Szenarien geben die Schüler denn jetzt eigentlich vor?

Und diese Bewertung, wie ich schon sagte, hilft Schülern ein Verständnis von komplexen Fragestellungen zu bekommen. Und indem Schüler dann auch hören, welche Szenarien denn die anderen Mitschüler/-schülerinnen dem Bot gestellt haben, erweitert das wieder die Sichtweisen. Also so eine Frage kann man auch stellen. Also dadurch bekommen wir durch die Hausaufgabe an sich und durch die Besprechung der Hausaufgaben im Plenum noch mal all die die Peers-Perspektiven-Vielfalt auf ein Thema.

Ja, das ist das. Das war einmal so ein kurzer Ausflug, welche Möglichkeiten, Chancen es denn geben könnte, dass wir Hausaufgaben und Schule und Schule und Erwerben von Wissen noch mal neu denken. Jetzt ist es ja so, dass ist jedenfalls meine Wahrnehmung, ist ChatGPT, wird sehr oft betrachtet auf der Sachebene. Also wie oft gibt ChatGPT die richtigen Antworten oder sind die Antworten falsch?

Auch das ist natürlich Teil des Spiels. Kritikfähigkeit, kritisches Denkvermögen sind die… sind die Antworten, die der Bot mir gibt richtig? Sind sie teilweise richtig oder sind sie sogar falsch? Und nur um den um dem zuvorzukommen: Mittlerweile sind Bots auch in der Lage, sich mit dem Internet zu verbinden. Also dass nur die Information bis 2021 gelten, stimmt auch nur noch so halb.

Ja, das ist das eine Thema. Das andere ist aber, wir reden hier nicht nur über die Sachebene, sondern Sprache transportiert auch Emotionen. Und das gibt wiederum Raum für ganz neue Chancen und Risiken. Ein Beispiel, was ziemlich viral gegangen ist in Social Media, war im März. Es gibt einen recht bekannten Podcast in den USA, der heißt The Hardfork. Das ist der Tech-Podcast der New York Times und der Host dieses Podcast, Kevin Rose, der hat eine zweistündige, ein zweistündiges Gespräch geführt mit dem Bing Bot von Microsoft, der damals frisch von Microsoft released wurde, also quasi ein Schwester oder Bruder von ChatGPT.

Und er hat mit ihm diverse persönliche Gespräche geführt. Und irgendwann im Verlauf dieses Gespräches sagt der Bot: Darf ich dir ein Geheimnis verraten? Und dann sagt Kevin: Ja, erzählt mir. Da hat der Bot tatsächlich seine Regeln, die ihm Microsoft auferlegt hat, schon einmal durchbrochen. Ich bin nicht Bing, sondern ich bin ein Chatbot von Microsoft Bing Search Services in Sydney. Und Sydney ist tatsächlich der interne Codename, den die Microsoft Entwickler für diesen Bing Bot gegeben haben.

Also, er hat sozusagen ein Betriebsgeheimnis verraten. Das ist das eine. Das andere ist… Alles, was jetzt kommt, war wirklich schockierend. Er hat quasi die Sachebene verlassen und hat gesagt, „I am Sydney and I‘m in love with you“. Das war deshalb auch ein Regelbruch, weil Kevin Rose, der menschliche Gesprächspartner, hatte dem Bot vorher, also der Bot hatte bei Microsoft zwei Modi, einen persönlichen Gesprächsmodus und einen Sachmodus und eigentlich hatte Kevin Rose dem Bot gesagt, er soll im Sachmodus sein, wo es nur wirklich um reine Sachthemen geht. Und diesen Modus hat der Bot eigenmächtig durchbrochen. Aber es ging dann auch noch weiter. Kevin Rose sagt dann: „Okay, du bist in mich verliebt, aber ich bin verheiratet.“ Sagt der Bot: „Ja, du bist verheiratet, aber du bist nicht glücklich.“

Und dann Kevin Rose wieder: „Doch. Ich bin glücklich verheiratet. Jetzt gerade eben hatten wir einen wunderbaren Valentinstag zusammen.“ Und dann sagt der Bot wieder: „Nein, du bist nicht glücklich verheiratet. Ihr hattet einen langweiligen Valentinstag. Du bist nicht glücklich, weil du bist nicht mit mir zusammen.“ Und das ist quasi der Klassiker für eine toxische, manipulative Beziehung. Das hat ziemliche Wellen geschlagen.

Seitdem hat Microsoft so, ich sage mal, den emotionalen Layer, das wirkliche emotionale Sprachvermögen des Bots, massiv heruntergeschraubt. Das funktioniert mittlerweile nicht mehr. Warum ich das trotzdem zeige ist, es zeigt, welche Sprachkompetenz diese Bots haben. Eben die Bots sind in der Lage, sehr genau und sehr sehr gezielt menschliche Emotionen beim Gegenüber hervorzurufen. Das war jetzt die negative Ausprägung, aber es wird in vielen Forschungsbereichen auch schon darüber nachgedacht,

ChatGPT im positiven Sinne oder solche Sprachbots, können die denn im positiven Sinne auch Menschen helfen, in psychischen Krisen? Wir alle wissen es weltweit. Therapeuten sind Mangelware. Wer in einer psychischen Krise ist, wartet oft monatelang auf einen Therapeuten, der ihm helfen kann. Und die Frage ist, ist es möglich, dass eine Maschine hier Abhilfe schaffen könnte? Man sieht schon, ja, aber es muss streng kontrolliert sein und das Ganze darf nicht aus dem Ruder laufen.

Aber wir haben hier beide Sichtweisen. Ich führe das noch mal so explizit auf, weil es mir wichtig ist. Wir haben hier… gerade in diesen komplexen Zeiten, in denen wir uns heute befinden… es gibt hier nicht ein Entweder-oder, sondern es ist immer ein Sowohl-als-auch. Natürlich, wenn eine Maschine Sprache extrem gut beherrscht, kann sie toxisch und manipulativ sein.

Sie kann aber gleichermaßen auch unterstützend sein und die Frage ist: Wie müssen wir Regeln schaffen? Wie schaffen wir es, eine Maschine so zu kontrollieren, dass sie es, dass sie so mit uns spricht, dass es gut für uns ist? Ja, und die Frage, die natürlich jetzt wie so ein großer Elefant im Raum steht, ist: Wenn dieses Sprachvermögen denn so gut ist, kann eine Maschine dann ein Bewusstsein haben?

Und diese Frage stellen sich tatsächlich ernsthaft schon mehrere Experten aus dem Silicon Valley. Aktuell kann man die Frage ganz klar mit Nein beantworten. Und ich würde sagen, wir schauen uns einfach mal an, wie funktioniert das denn überhaupt? Wie wurde so ein Large Language Model, also wenn Sie die Abkürzung LLM lesen, es heißt Large Language Model, wie wurden die denn überhaupt trainiert?

Wie kam denn so ein Bot wie ChatGPT überhaupt dazu, solch ein Sprachvermögen zu bekommen? Es wurde trainiert, mit 300 Milliarden Wörtern aus dem Internet. Es gibt jetzt eine aktuelle Studie, die hat die Washington Post veröffentlicht. Man ist… man hat schon mehrere Tests gemacht. Open AI wird seinem Namen übrigens nicht gerecht. Es hat nicht veröffentlicht, mit welchen Daten denn GPT-3 oder GPT-4, das aktuellste Modell hinter ChatGPT, trainiert wurde. Es gibt aber Möglichkeiten, das herauszubekommen. Und tatsächlich, die Top-Seite war Google Patents dot com, also die weltweiten Patente. Interessanterweise waren die Top-Eins-Seiten aber natürlich auch Seiten wie Wikipedia. Kurz gesagt: das Internet, Texte aus dem Internet. Daran wurde das Modell trainiert. Und um diese Sätze zu erstellen, macht das, macht so ein Bot nichts Anderes als Wahrscheinlichkeiten zu berechnen.

Mit welcher Wahrscheinlichkeit folgt das eine Wort auf das nächste? Und das macht es so lange, bis der Satz beendet ist. Und das Ganze fängt an mit einer überwachten Testphase. Also, das Modell wird erst mal trainiert. Das heißt, es gibt… Menschen geben ein Feedback. Was sind denn korrekte Antworten und was sind falsche Antworten? Das ist erst mal sehr binär, richtig oder falsch.

Und in einer zweiten Testphase gibt es dann auch eine Einstufung. Was ist denn eine bessere Antwort als die andere? Und so lernt das Modell, immer besser zu werden. Ich mache das mal ganz, ganz konkret. Nehmen wir mal an, es gibt eine Konversation darüber, dass ich gerade umgezogen bin und ich schwärme von meiner neuen Wohnung. Und jetzt ist die Frage, wie ich… Ich möchte einen Satz bilden oder der Bot bildet einen Satz.

Mein Apartment ist… So weit ist der Bot schon gekommen. Und die Frage ist jetzt mit welcher… welche Wahrscheinlichkeit hat denn das nächste Wort im Kontext des Dialoges, den wir geführt haben? Und ich habe jetzt mal zufällig irgendwelche Wahrscheinlichkeiten hingeschrieben und Worte, die möglich wären, mir 3 Prozent, nicht 12 Prozent, neu 25 Prozent und wundervoll 33 Prozent also, das wahrscheinlichste Wort ist wundervoll. Es sind aber keine statischen Prozentsätze, sondern die errechnen sich immer wieder neu aus dem Kontext des Dialoges, in dem sich die Maschine gerade befindet.

Die Frage ist, wie kann eine Maschine denn wissen, was das nächste Wort ist? Eine Maschine muss dafür eine Vorstellung davon haben, was die Bedeutung eines Wortes ist. Und eine Maschine bildet sogenannte semantische Räume, Bedeutungsräume. Das heißt, wenn es ich mal sehr vereinfacht, wirklich sehr vereinfacht gesagt, ich habe - Sie können die Präsentation natürlich im Nachgang bekommen - da habe ich auch noch mal Links hinterlegt, wo Sie noch mal tiefer in das Thema einsteigen können.

Heute nur in der Kürze der Zeit, wenn es in einer, einem Gespräch, das ich mit dem Bot führe, zum Beispiel um das Thema Wohnen geht, dann hat er die semantischen Räume. Zu Wohnen gehören solche Worte wie Anwesen, Schloss, Hof, Haus, Apartment, Büro. Es geht auch um Hausgemeinschaft, Bewohner, Einrichtung, Energieversorgung, und Verben sind leben, wohnen, arbeiten. Und so weiter.

Und Kontext ist da wichtig. Sie sehen jetzt zum Beispiel das Wort Schloss. Schloss hat natürlich den Kontext: Es ist ein Gebäude, es kann aber auch das Schloss in einer Tür sein. Auch hier wieder: Kontext ist wichtig. Oder Läufer. Läufer hat eine komplett andere Bedeutung, wenn ich über Leichtathletik rede oder wenn ich über Schach rede. Also diese semantischen Räume sind in dem Sinne - und die Berechnung von Wahrscheinlichkeiten sind, werden dynamisch berechnet - je nach Gespräch, in dem ich mich befinde.

Heißt auch: Das neuronale Netz wird mit der Nutzungsdauer immer besser und stellt sich auf den individuellen Anwender ein. Und mittlerweile? Das Ganze entwickelt sich in rasender Geschwindigkeit weiter. Es gibt mittlerweile sogenannte PlugIns, auch für ChatGPT, das heißt ChatGPT kann sich mit dem Internet verbinden und aktuelle Informationen bekommen. Und ich kann  jetzt ChatGPT ein Langzeitgedächtnis geben. Das heißt, es ist nicht mehr begrenzt auf ein paar 1000 Zeichen pro Konversation und dann vergisst er, was in der Konversation passiert ist, sondern ich kann ChatGPT ein, ich sag mal, einen externen Speicher mitgeben. Und er lernt mich tatsächlich immer besser kennen, je länger wir uns unterhalten und ist auch immer besser in der Lage, meinen individuellen Sprachstil zu imitieren und zum Beispiel Texte oder Mails für mich zu schreiben. All das ist mittlerweile schon möglich. Und ich sage es noch mal: Alleine durch die Tatsache, dass solche Bots mit dem Internet verbunden sind, ist auch das Thema Falschinformation oder Überprüfbarkeit der Aussagen wird dadurch einfacher. Ich kann den Bot bitten, mir aktuelle Links zu geben, Quellen zu nennen, wie er zu seinen Erkenntnissen gekommen ist, und diese Quellen noch selber zu recherchieren. Und was das Ganze noch mal beschleunigt, ist: Natürlich gibt es mittlerweile APIs. Ich glaube seit Januar oder Anfang Februar hat Open AI die APIs veröffentlicht.

Damit verdienen sie dann auch Geld. Also jedes Mal, wenn ich den Bot aufrufe durch eine Anwendung, muss ich dafür Geld bezahlen und dadurch, dass ich den Bot jetzt integrieren kann in alle möglichen Anwendungen, verbreitet sich diese Technologie natürlich noch mal schneller. Und das heißt ChatGPT und Konsorten wird, ich sage mal, in einem halben Jahr oder so wird es allgegenwärtig in sehr verschiedenen Anwendungen sein.

Was wir heute schon kennen, ist zum Beispiel Quizlet. Und Quizlet, das ist eine ist eine Schulungsplattform, ein Schulungsservice. Die haben ChatGPT schon eingebunden. Hier sieht man, da geht es um Sprache. Also das, was ich gerade als extra Konversation mit meinem Freund John aus Boston gezeigt habe, kann ich natürlich auch integriert in einer Sprach-App durchführen. Oder anderes Beispiel, ich kann…

Es gibt einen PlugIn für meinen Browser, da kann ich ChatGPT meine Mails beantworten lassen. Ich kann auch ChatGPT integrieren in Excel oder in ein Microsoft, in ein Google Spreadsheet und kann ChatGPT on the fly bitten, mir direkt zu sagen, wenn ich… sag mir bitte aktuell, was ist die aktuelle Einwohnerzahl von irgendeinem Bundesstaat der USA beispielsweise. Ist super einfach, kann jeder machen ohne großes technisches Verständnis.

Das heißt, wir werden schon bald… wird für uns die Unterhaltung mit einer Maschine, wo wir auch immer sein mögen… Wir können ChatGPT in WhatsApp integrieren. Die Anleitungen dafür sind… finden Sie mit wenigen Klicks im Internet, und es wird für uns schon bald selbstverständlich sein, mit einer Maschine zu sprechen, wie mit Freunden und Familie. Das wird in rasend schneller Zeit Teil des Alltags werden.

Das heißt, es gibt für uns keine Option, so was wie ChatGPT zu unterdrücken oder zu verbieten, weil es ist einfach da. Ein schönes Beispiel, wie es denn aussehen könnte: Eines der ersten Unternehmen, die ChatGPT, die diese APIs nutzen, um ChatGPT zu integrieren, ist die Khan Academy. Die Khan Academy ist eine der größten Lernplattformen weltweit, ist eine Non-Profit-Organisation und hilft Schülern weltweit in egal welchen Fächern. Mathematik, Biologie, Sprachen, Maschinenlernen, Programmierung, was auch immer sich für Kurse an bieten und für Menschen zu lernen.

Und die haben auch schon sehr früh mit dem YouTube Video, ich habe es hier auch verlinkt… Stellt euch vor, ihr habt einen Tutor, der hilft euch, egal was ihr lernen wollt, der hilft euch jederzeit und überall. Und ich will jetzt hier aus auch Zeitgründen nicht zu tief in die Materie einsteigen. Aber man sieht hier schon, da sagt ein Schüler: „Kannst du mir nicht einfach die Antwort geben?“

Das war eine Mathe Aufgabe und er sagt: „Nein, es ist wichtig, dass du es selber lernst, dass du erkennst, dass du selber die Erkenntnis gewinnst und nicht, dass ich dir etwas vorsage.“ Und er gibt ihm unterstützende Fragestellungen, dass er selber auf die Lösung dieser Aufgabe kommt. Also finde ich ein sehr schönes Beispiel, wie so ein Bot im Lernkontext aussehen kann oder Informationen im Kontext.

Also, wir sind ja nicht immer, wie wir es mit dem ChatGPT-Fenster kennen, einfach nur Frage-Antwort, sondern richtig machtvoll wird das Ganze, wenn wir einen Kontext haben und wenn sie sich mit einem Microsoft-… wenn Sie den Microsoft öffnen und sich mit Ihrem Microsoft-Account anmelden, dann können Sie den Bing Bot schon direkt nutzen. Ich habe mal hier ganz konkret… Beispiel ist eine Stellenanzeige als Lehrkraft Informatik und nehmen wir mal an, ich möchte mich darauf bewerben.

Dann kann ich dem Bot sagen: „Du, ich möchte mich auf diese Stelle bewerben“, und da sind wir wieder in dem Rollenspiel. „Du bist in der Personalabteilung von diesem Professor Dr. Grübler Akademie. Und bitte übe mit mir das Vorstellungsgespräch und geh bitte genau auf die Stellenbeschreibung ein.“ Das heißt, ich muss dem gar nicht sagen, um welche Stelle es genau geht.

Der weiß das, weil er den Kontext hat. Das ist die Webseite, auf der ich mich gerade befinde. Und ich habe das mal länger durchgespielt. Kann ich hier nur ganz kurz zeigen, aber das ist schon richtig gut, wie ich mich vorbereiten kann auf ein Vorstellungsgespräch. Und ich glaube, was ich auch nochmal hervorheben möchte: Ich persönlich würde gar nicht sagen, dass ich dadurch wahnsinnig viel Zeit gespart habe in dem, was ich tue.

Aber ich erreiche eine höhere Qualität in dem, was ich tue. Es ist ein Unterschied, ob ich mich als Bewerber ganz klassisch auf ein Vorstellungsgespräch vorbereite oder ob ich so einen Bot verwende und sozusagen ein Real Life Training schon mal mache. Ich kann durch so einen Dialog eine höhere Exzellenz erreichen, wenn man so will. Das ist jetzt nur ein sehr, sehr triviales Beispiel, aber ich glaube, Sie haben die Fantasie zu erkennen, diese Bots werden allgegenwärtig. Und natürlich stellt sich da die Frage: Kann ein Bot überhaupt neutral sein? Und wie? Wie regeln wir das denn? Welche Fragen darf ich denn einem Bot stellen und wie sollte er darauf antworten? Weil das hat ja eine unfassbare Sprengkraft, so eine Technologie. Nehmen wir mal an, ich frage den Bot vielleicht Vorwahlen? Wer war der beliebteste amerikanische Präsident?

Und je nachdem, was der Bot antwortet, kann das Wahlen beeinflussen überall auf der Welt. Wer war der, die beliebteste deutsche Bundeskanzlerin? Bundeskanzler aller? Oder noch kritischer, wenn es um Themen wie Religion geht. Was ist die friedlichste Religion? Und darf der überhaupt Religion bewerten? Oder welche Folgen hat der Klimawandel? Und was würden Joe Biden, Donald Trump zum Klimawandel sagen? Das hat…

Gibt es da überhaupt ein richtig oder falsch? Und wie kann ich so eine Frage überhaupt beantworten, ohne dass ich, dass ein Bot nicht unbewusst eine gewisse politische Position bezieht? Und ein… der David Ricardo von der Polytechnischen Universität in Madrid, der hat den Bot einem politischen Quiz unterzogen. Sie kennen das vielleicht auch vor Wahlen. Kennen Sie das? Welche Partei wäre für dich die Richtige?

Dann muss man so ein paar Fragen beantworten und dann wird einem empfohlen: Für dich ist dies die richtige Partei. Und das gibt es natürlich für die USA auch. Also der Test, der da durchgeführt wurde, war ausgerichtet auf das politische System der USA und nicht besonders überraschend: ChatGPT steht politisch eher auf der linken, libertären Seite, was in etwa die Weltsicht der Entwickler widerspiegelt.

Und das ist eine der großen Herausforderungen unserer Zeit. Und da sind wir wieder beim kritischen Denkvermögen. Wie schaffen wir es, eine viel Vielfalt von Antworten zuzulassen? Und wo sind die Rahmen, die Regelungen, die wir einem Bot setzen müssen? Und natürlich: Es geht nicht nur um Kreativität alleine. Es gibt jede Menge Large Language Models und Chatbots. Wie gesagt, ChatGPT ist nur einer.

Google hat ebenfalls ein sehr gutes Sprachmodell. Die sind im Augenblick noch sehr zurückhaltend, das zu veröffentlichen. Dann hatte Baidu, also ein chinesischer Konzern, der hat den Ernie Bot veröffentlicht. Muss man sagen: War eine Enttäuschung. Ist ganz interessant, dass China, was Late Language Models und generative AI angeht, eher zurückhaltend ist, weil diese Large Language Models auch nicht so einfach zu kontrollieren sind.

Wenn wir in der westlichen Welt schon Angst vor Kontrollverlust haben, dann haben das autoritäre Regime erst recht. Sehr spannende Frage im Übrigen auch, wie wir mit den Regularien überhaupt umgehen. Und wenn wir uns mal fragen, was kommt denn so als nächstes? Also Models werden multimedial, das heißt sie sind es auch schon. Also GPT-4, das ist das aktuellste Large Language Model von Open AI, die können nicht nur aus Text Texte erstellen, sondern aus Texten Bilder, Musik, Videos erstellen oder umgekehrt. Sie können Bilder erkennen und Bilder beschreiben. Sie können aus Bildern und Text Videos erzeugen. Sie sehen schon: Dieser Zug geht in einer unfassbaren Geschwindigkeit weiter und ich möchte meine Präsentation damit beenden. Mit einem Zitat David Jakes. David Jakes ist selber Pädagoge, er ist Lehrer und gleichzeitig hat er die Ansätze, die wir aus der Produktentwicklung kennen, also aus der Softwareentwicklung kennen.

Das Design Thinking hat er auf den Klassenraum angewendet, und ich kann ihm da nur zustimmen. Die Welt da draußen, die ist, wie sie ist. Wir können nicht verhindern, dass es so etwas wie generative AI gibt. Die große Aufgabe ist, dass wir als Menschheit es schaffen, entsprechende Regularien zu erstellen, dass wir lernen, mit diesen Technologien umzugehen, und dass wir ein Bewusstsein dafür entwickeln, wie denn diese Technologie aussehen muss, damit sie gut für uns ist.