Lernen mit KI
Pilot, Co-Pilot und die Aufklärung
Maschinen können nicht fliegen – stimmt längst nicht mehr. Maschinen können sich nicht sprachlich äußern – stimmt spätestens seit ChatGPT nicht mehr.
Können wir ihnen deshalb vertrauen?
Stellen Sie sich vor, dass es einmal eine Zeit gab, in der die vorherrschende Überzeugung war, dass menschliches Fliegen völlig unmöglich sei. Selbst anerkannte Wissenschaftler schlossen damals aus, dass Menschen je in der Lage sein könnten zu fliegen.
So schreibt Joseph Le Conte 1888: „Also, wir wiederholen, eine reine Flug-Maschine ist unmöglich. Alles, was wir erwarten – und alle wahren Wissenschaftler tun das – ist, durch gekonnte Kombination des Ballon-Prinzips mit dem wahren Flug-Prinzip die Luft-Navigation in halbwegs gutem Wetter möglich zu machen.“
(Le Conte, 1888; Übersetzung: M.L.)
Nicht einmal zwei Jahrzehnte später, im Jahre 1903, bewiesen die Gebrüder Wright das Gegenteil, und mittlerweile ist es für viele Menschen selbstverständlich, in ein bis zu 560 Tonnen schweres Gebilde aus Stahl und Elektronik einzusteigen und damit enorme Distanzen in kürzester Zeit zurückzulegen. Das Vertrauen in die Technik entsteht durch ihr Funktionieren. Das Vertrauen in die Pilot:innen, die diese Flugzeuge fliegen, entsteht durch das Wissen, dass diese Menschen eine lange und anspruchsvolle Ausbildung durchlaufen.
Denn auch wenn heutzutage Autopilot-Systeme (die ersten gab es übrigens bereits 1914) zwar einen Großteil des Fluges übernehmen und Pilot:innen auf eine Vielzahl technischer Geräte angewiesen sind, wäre es unvorstellbar, auf den menschlichen Faktor völlig zu verzichten.
Vertrauen in wörtergenerierende Rechenmaschinen
So wie Joseph Le Conte angesichts der technologischen Fortschritte in der Luftfahrt danebenlag, so täuschte sich auch einer der bekanntesten Philosophen der Neuzeit in einer etwas anders gelagerten Frage.
René Descartes philosophierte 1870 darüber, ob Maschinen je menschenähnlich werden könnten, und er gab eine klare Antwort:
Man könne die Maschinen zweifelsfrei immer daran erkennen, „dass diese Maschinen nie sich der Worte oder Zeichen bedienen können, durch deren Verbindung wir unsere Gedanken einem Anderen ausdrücken […]; niemals [werden] sie diese Worte so stellen können, dass sie auf das in ihrer Gegenwart Gesagte verständig antworte[n], wie es doch selbst die stumpfsinnigsten Menschen vermögen.“ (Descartes 1870, S. 66)
Zwar dauerte die Widerlegung Descartes ein bisschen länger als bei Le Conte. Aber seit dem Aufkommen sogenannter großer Sprachmodelle bzw. generativer KI ist klar, dass Menschen mittlerweile nicht mehr zweifelsfrei unterscheiden können, ob der Ursprung einer sprachlichen Äußerung ein Mensch oder eine Maschine ist.
Dies zeigt, wie sehr künstliche Intelligenz die Grenzen zwischen menschlicher und maschineller Kommunikation verwischt und uns zwingt, unser Verständnis von Bewusstsein und Sprache neu zu überdenken. So ist beispielsweise dieser letzte Satz von KI generiert - als Prompt diente lediglich der Absatz davor und die Aufforderung, einen sinnvollen Satz zu ergänzen. Hätten Sie diesen Satz als maschinengeneriert erkannt?
Er ist übrigens der einzige maschinengenerierte Satz in diesem Text (Ehrenwort!) und er dient nicht nur der Veranschaulichung der Ununterscheidbarkeit von maschinen- und menschengenerierter Sprache, sondern er zeigt noch etwas anderes:
Dass ich ihn in diesen Text eingefügt habe, war eine bewusste Entscheidung. Ich habe der KI nicht blind vertraut, sondern ich habe den Satz zunächst geprüft. Das musste ich auch unbedingt tun, denn wenn generative KI etwas sehr gut kann, dann ist es nicht, wahre Aussagen über die Welt zu machen, sondern vor allem die Imitation von Sprache.
KI = Kluge Imitation?
Tatsächlich können Sprachmodelle auf einen Prompt „verständig antworten“, und wie es scheint, wissen sie sehr viel. Nicht ohne Grund bestehen diese Sprachmodelle schwierige schriftliche Prüfungen oder werden ihre Antworten als empathischer als menschliche Antworten eingeschätzt (Ayers et.al. 2023).
Und doch: Sie wissen nichts über die Welt. Die Welt ist in ihnen nur sprachlich repräsentiert.
Es ist ein bisschen so wie bei dem berühmten Gedankenexperiment, bei dem eine Person in einer Bibliothek geboren wird und dort das gesamte verfügbare Wissen der Menschen in Form von Büchern aufnimmt.
Was würde diese Person wirklich über die Welt wissen?
Die Tatsache, dass ChatGPT und Co. Sprachmodelle sind und eben keine Wissensmodelle, sollte uns zu denken geben. Sie sind darauf programmiert, wahrscheinliche – und nicht wahre – Sätze vorherzusagen. Zwar landen sie manchmal auf der Wahrheit, dies ist aber nicht einem geordneten und systematischen Denkvorgang zu verdanken, sondern einer komplexen Wahrscheinlichkeitsberechnung, die in vielen Fällen sehr wenig mit der Wahrheit zu tun hat.
Sehr schnell ist man so bei den Limitationen solcher Sprachmodelle angelangt. Hicks, Humphries und Slater nennen ChatGPT daher eine Bullshit-Maschine (2024, S. 38). Dabei nehmen sie auf das Bullshit-Konzept des Philosophen Harry G. Frankfurt Bezug, der unter Bullshit all jene Aussagen versteht, die – anders als eine Lüge (die als bewusste Abweichung von der Wahrheit definiert werden kann) – in keiner Weise einen Bezug zur Wahrheit haben. Diesen Systemen blind zu vertrauen und Aufgaben völlig an die KI abzugeben („Benote diesen Schülertext!“), ist zum gegenwärtigen Stand der Technik nicht empfehlenswert.
Lernen mit einer Bullshit-Maschine?
Die Frage, die sich nun all jenen stellt, die im Bildungssystem arbeiten und in den Klassenzimmern Schüler:innen an wissenschaftlich abgesicherte, geprüfte Wissensbestände heranführen möchten, ist folgende: Kann man mit ChatGPT lernen – auch wenn es eben keine Wissensmaschine ist?
Die Antwort auf diese Frage liegt im Grad des Vertrauens, das wir den von ChatGPT und Co. generierten Texten entgegenbringen.
Hier schließe ich an meine Einleitung und den Blick in die Geschichte der Luftfahrt an: In mehr als hundert Jahren wurden Flugzeuge durch eine Meisterleistung an technologischer Entwicklung zu einem der sichersten Verkehrsmittel und das, obwohl sie z.T. sogar autonom fliegen.
Völlig autonom fliegende Flugzeuge sind bisher für den zivilen Luftverkehr nicht zugelassen, und so kann die Pilotin zwar Aufgaben an den Co-Piloten oder an technische Systeme auslagern, das Fliegen muss sie aber trotzdem beherrschen. Sie muss in der Lage sein, auch ohne Rückgriff auf autonome Systeme das Flugzeug zu landen.
Eine ähnliche Haltung müsste man in Bezug auf das Bildungssystem auch bei der Verwendung von generativer KI einüben: Aufgaben können an technische Systeme ausgelagert werden, solange man diese auch ohne technische Hilfe lösen könnte bzw. solange man sehr genau weiß, was das Ziel ist.
Ohne jegliche Erfahrungen und Kompetenzen ein Flugzeug zu fliegen ist nicht möglich – trotz Autopilot-Systemen. Analog dazu ist es ohne komplexe Kompetenzen nicht möglich, eine gute vorwissenschaftliche Arbeit zu schreiben – trotz Microsofts Co-Pilot. In letzter Konsequenz braucht es den sogenannten human in the loop, also den Menschen in der Schleife: nicht allein deshalb, weil nur Menschen in der Lage sind, Verantwortung zu übernehmen, sondern auch deshalb, weil nur Menschen sich Ziele stecken können.
Das Ziel, das man für das Bildungssystem stecken sollte, ist es also, in Bezug auf generative KI eine Haltung zu entwickeln, und zwar eine aufgeklärte Haltung: Sapere aude gilt auch im Umgang mit künstlicher Intelligenz.
Schüler:innen sollen durch Bildung in die Lage versetzt werden, den Mut zu haben, sich ihres eigenen Verstandes zu bedienen. Wenn sie das tun, wenn sie ihre Ziele und Motivationen reflektieren, dann kann der Einsatz künstlicher Intelligenz durchaus ein legitimes Mittel sein, um Ziele zu erreichen. Sich blind auf die generative KI zu verlassen, führt wohl eher zum Absturz.
Was es also braucht, sind nicht nur klare Leitlinien in Schulen, aber auch im konkreten Unterricht. Diese können durchaus für das jeweilige Fach und die jeweilige Klasse kollaborativ mit Schüler:innen entwickelt werden (Verantwortung für das eigene Lernen übernehmen).
KI als Inspirationsmaschine
Wenn man weiß, wohin man möchte und eine ungefähre Vorstellung davon hat, was zu diesem Ziel führt, dann spricht nichts dagegen, sich auch von generativer KI inspirieren zu lassen – also das Assistenz-System dazuzuschalten. Das gilt übrigens nicht nur für Schüler:innen, sondern genauso für Lehrpersonen, die generative KI benutzen, um Materialien und Stundenentwürfe zu erstellen.
Denn hierin liegt vermutlich momentan die größte Stärke künstlicher Intelligenz: Im Widerspiel mit der Maschine erweitern wir unsere Möglichkeiten, und auch wenn die zehn vorgeschlagenen Titel für einen Blogpost möglicherweise Bullshit waren, so hat mich Titelvorschlag 5 doch inspiriert und auf eine Idee gebracht, die ich vorher noch nicht hatte. Am Ende bin ich es aber selbst, der entscheidet, der reflektiert und der die Verantwortung für einen Titel oder eben einen Text übernimmt.
Diese aufgeklärte Haltung gegenüber generativer KI im Bildungssystem einzuüben, ist ein hehres Ziel und doch eines, das seit der Aufklärung gilt und heutzutage möglicherweise einer kleinen Ergänzung bedarf: Habe Mut, dich deines eigenen und des künstlichen Verstandes zu bedienen!
Literatur
Ayers, John W.; Poliak, Adam; Dredze, Mark; Leas, Eric C.; Zhu, Zechariah; Kelley, Jessica B.; Faix, Dennis J.; Goodman, Aaron M.; Longhurst, Christopher A.; Hogarth, Michael; Smith, Davey M. (2023): Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. In: JAMA internal medicine, Jg. 183, H. 6, S. 589–596.
Descartes, René (1870): Abhandlung über die Methode, richtig zu denken und Wahrheit in den Wissenschaften zu suchen. Berlin: Heimann.
Hicks, Michael Townsen; Humphries, James; Slater, Joe (2024): ChatGPT is bullshit. In: Ethics and Information Technology, Jg. 26, H. 2.
Le Conte, Joseph (1888): The Problem of a Flying-Machine. In: Popular Science Monthly, Jg. 34.