Deskilling durch KI: Nach dem rasanten Rauf geht es runter
Über den KI-Einsatz (Chat-GPT) in Bildungsorganisationen (Schule, Hochschule, Berufsbildung) wird aktuell viel spekuliert und das ist gut so! Wie anders sollte man sich dem Thema auch nähern als durch Erproben, Reflexion und mehr oder weniger spekulative Gedankenexperimente (Was-wäre-wenn?). Für Empirie und gesicherte Erkenntnis rollt der Zug zu schnell; die normative Frage, was wir denn von der Bildung im KI-Zeitalter wollen, wird auffallend dünn beantwortet.
Ich selbst habe gegenüber der KI ein ambivalentes Verhältnis. Das sagt man genau dann, wenn man auf der einen Seite seine Neugier nicht zügeln kann und bereitwillig mit den neuen Möglichkeiten experimentiert, auf der anderen Seite aber genau in dieser Tat die Bedingung sieht, die hochskaliert auf Millionen von Nutzerinnen weltweit in ein soziales Dilemma führen könnte.
In meinen ersten Beratungssituationen zum Thema, also zur Frage „was man von KI im Kontext von Bildung halten soll?“ nutzen Kunden immer gerne die Werkzeugmetapher. Sie sagen: „KI ist wie ein Werkzeug, ähnlich dem Taschenrechner. Da gab es auch große Befürchtungen, dass die Nutzung zu einer mathematischen Verdummung führe.“
Ich will da mal ansetzen: Ist KI ein (isoliertes) Werkzeug oder eine (globale) Social-Plattform oder eine (unhintergehbare) Kulturtechnik oder noch was anderes? Ich glaube nicht an die Werkzeugmetapher. Wir nutzen sie nur gerne, weil wir das Neue immer mit den Alten erklären und sie uns emotional beruhigt. Alles beim Alten. KI ist aber mehr: Die lokale Wirkung ist atemberaubend, ich will mehr, will mich entlasten, hier ein Konzeptvorschlag, da ein schwieriger Brief. Der Reiz, mich unterstützen zu lassen, wächst mit jedem guten „Dialog“, den ich abgeschlossen habe. Ein still wachsendes Vertrauen in meinen neuen Dialogpartner entsteht in ähnlicher Weise wie das blindes Vertrauen in das Navigationsgerät, das mich seit Jahren an jeden Ort der Welt führt. Was ist da los?
Meine These ist steil, aber ich spreche sie mal aus 😊. In den nächsten fünf Jahren werden wir einen atemberaubenden Anstieg in der Produktivität von Lehrpersonen erleben, allesamt ExpertenInnen ihres Faches mit hoher Urteilskompetenz. Sie haben das Vermögen zum gezielten Prompting, sie werden die Ergebnisse kritisch beurteilen können, sie werden die Streu vom Weizen trennen. Läuft! In den weiteren fünf Jahren (ich denke in 5-Jahresschritten, ehe die nächste Mikrogeneration nachwächst) kommt es zu einer Abflachung der Produktivitätskurve: Diese Generation hat schon KI intensiv beim Aufbau der eigenen Expertise genutzt und dabei versäumt, sich selbst tief in Sprache einzuüben; KI wirkt als Organersatz. In den Folgejahren – und wir reden hier von den KI-Möglichkeiten in 15 Jahren, das sind Lichtjahre – wachsen Generationen auf und nach, denen es wahrscheinlich so geht wie den beiden jungen Fischen im Wasser: Ein alter Fisch kommt vorbei geschwommen und fragt: „Na Jungs, wie ist heute das Wasser?“ Die jungen Fisch: „Wovon sprichtg er?“ … Junge Menschen der Zukunft werden die KI nicht mehr sehen (können), sie sind „embedded“, eingetaucht, verschmolzen mit einer KI-gestützten und -generierten „Realität“ (was das wohl sein wird), von dem sich unser heutige „Naturzustand“ qualitativ unterscheidet. Und für diese Zeit könnte es einen Absturz der Produktivität geben, obwohl die Nutzung von KI für Lehrzwecke zum Standard gehört. Warum? Weil mit jeder KI-Antwort das Sprachvermögen geschwächt wird, so dass man sich, um ein gewisses Niveau zu halten, immer mehr KI Unterstützung holen muss. Systematische Entlastung führt zur Erosion meines Sprachvermögens.
So könnte es kommen.
Es sei denn, wir entscheiden uns – uns zwar jeder Lehrende – dafür, Sprache und Denken (zwei Seiten einer Medaille) weiterhin auf einem hohen Niveau zu trainieren, ganz bewusst ohne KI-Unterstützung oder in einer Form, die das Denken und die Sprache auf einem neuen Niveau und in einer hohen Qualität anstachelt! Dafür brauchen wir eine tragfähige Idee und geeignete Trainings- und Übeorte und vielleicht auch einen Bereich in unserem persönlichen Portfolio, den wir „Eigenleistung“ nennen und auf den wir auf magische Weise stolz sind.
Liebesbriefe im KI-Zeitalter
In der Neuen Züricher Zeitung stellt der Rechtswissenschaftler Richard Susskind in einem lesenswerten Beitrag u.a. fest: Wieso sind wir hier? Was heißt das für uns, wenn fast alles, was wir können, auch von einer Maschine erledigt werden kann?“ Das ist also die Frage: Wieso sind wir hier? Auf was können wir „stolz“ sein? Was ist das „Eigene“, wenn bei jedem (Denk)schritt Maschinen helfen? „Eigenleistung“ (Lenk) – für mich ein Referenzbegriff in der noch jungen KI-Bildungs-Grundsatzdiskussion, einer Diskussion jenseits guten Promptings.
Was ist das nun, das Eigene? Ich möchte das am Beispiel eines Liebesbriefs skizzieren. Liebesbriefe? In früheren Zeiten schrieb man der oder dem Geliebten einen handschriftlichen Brief, in dem man seine Zuneigung zum Ausdruck brachte. Das Schreiben war von der Hoffnung getragen, dass das, was man da zu Papier brachte, auf Gegenliebe stoßen möge. Das Problem an diesen Briefen war, dass sie sehr schwer zu schreiben waren, denn das, was man unscharf fühlte, war nicht in Worte zu fassen, und das, was man bereits auf Papier gebracht hatte, klang unendlich lächerlich. Bei ganz viel Mut schickte man den Liebensbrief dennoch mit der gelben Post ab und in der Regel wurde dieser vom Empfänger geschätzt, auch wenn das, was da stand, von einem Dreijährigen hätte stammen können. Wie kann das sein?
Es kam nicht so sehr darauf an, WAS im Brief stand, sondern: zum einen auf den Effekt, was die teils wochenlangen Wortfinde-Versuche mit einem selbst machten, zum anderen auf die vorweggenommene Reaktion: Es war dem Empfänger (vermutlich) klar, dass die Überwindung der Angst – das Coming-out – der eigentliche Zweck des Briefes war, und da schaut man gerne über holprige Formulierungen hinweg.
Was hat das mit KI zu tun? Ich glaube, im Zeitalter von KI werden Liebesbriefe, sofern man sich heute dieser Strategie noch bedient, anders ausfallen: „ChatGPT, bitte erstelle mir einen Liebesbrief für eine Frau mittleren Alters, spreche nicht zu gestellt, schreibe nicht mehr als eine Textseite und benutze Sprachbilder, die meine positiven Gefühle ausdrücken.“ Mit einem Klick hat man zumindest eine erste Vorlage, die man nach eigenen Gutdünken verbessern kann. Nach 5 Minuten könnte der Brief in der Post liegen. Der Empfänger würde sich beim ersten Lesen vielleicht über die geschliffene Sprache wundern, den Verdacht hegen, dass sich der Geliebte von ChatGPT hat helfen lassen. Damit stünde die Wirkung in Gefahr: Nicht die bebend-unsichere Stimme des Liebessuchenden spräche da, sondern die Duden-sicheren Worte einer Maschine, der sich der Autor wie ein Stützrad bedient. Und ja, natürlich könnte ich ChatGPT bitten, eine „Portion Unsicherheit“ in den Text zu bringen. Die Co-Leistung bliebe unentdeckt. Nur, was wäre mit mir? Hätte dieser Brief mich verändert? Könnte ich stolz sein?
Was beim Liebensbrief wie durch ein Brennglas erscheint, ist für mich ein Problem der KI-Bildungszukunft. Wie stolz können wir auf etwas sein, was wir nur mit ordentlicher Unterstützung haben produzieren können? Wo bleibt da der Sinn, die Eigenleistung oder mit Deci/Ryan, das Kompetenzerleben?
Ich denke, in einer Welt fortgeschrittener KI-Unterstützung wird es eine Wiedergeburt der Eigenleistung, der Echtheit, des Authentischen geben. Für mich ist das der Punkt, wo wir nochmal die Bildungsfrage neu stellen werden: Was will ICH wirklich lernen? Zu was will ich mich BILDEN? Im Portfolio der Zukunft werden solche KI-freien Eigenleistungen gesammelt wie Trophäen, ich wette!
Noch eine Didaktik?
Man kann sich ja fragen: „Braucht es das?“ Und ja, man braucht sie, diese Wissenschaftsdidaktik, die in den 1970er Jahren im Kreis von v. Hentig erfunden wurde, die in den interdisziplinären Zentren für Hochschuldidaktik der 1990 still anwesend war und die jetzt wieder zum Thema gemacht wird. Antreiber dieses Neuanlaufs sind Gabi Reinmann und Rüdiger Rhein, die in den letzten zwei Jahren drei Sammelbände zur Wissenschaftsdidaktik auf den Weg gebracht (Band 1, Band 2) und damit das verdichtet haben, was man aktuell unter Wissenschaftsdidaktik verstehen möchte, nämlich: eine Didaktik, die sich von den heterogenen Fachdisziplinen her entwickelt, eine Didaktik, die sich des wissenschaftskulturellen Hintergrunds im Vermittlungsakt bewusst ist, eine Didaktik, die gerade für nicht explizit pädagogisch geschulte Hochschulmitglieder, z.B. Matheprofessorin oder Soziologieprofessor, zum zentralen Selbstverständnis gehört. Kurz: Wissenschaftsdidaktik ist spezifisch!
Um sich auch synchron über diese „Spezifika“ der Wissenschaftsdidaktik auszutauschen, fand letzte Woche an der Universität Hamburg auf Einladung von Reinmann/Rein ein kleines Symposium statt. Mit ca. 20 Personen aus Universitäten, Hochschulen, Stiftung und EdTech war die Veranstaltung „bunt“ besetzt. Inhaltlich ging es mit Fragen wie diesen hoch her: Ist Wissenschaft ohne Disziplinen lehrbar (Ines Langemeyer)? Was ist das Verbindende aller Disziplinen (Uwe Fahr)? Was sind fachkulturelle Irritationsmomente (Tobias Jenert & Ingrid Scharlau)?
Am Ende stand die Frage im Raum, wie es denn jetzt weiter gehen solle. Mit einer „Reanimation“ der Vergangenheit oder einem „Relabeling“ von Hochschuldidaktik als Wissenschaftsdidaktik ? Oder müssen wir nochmal ganz anders denken, um die fraglosen Potenziale der Wissenschaftsdidaktik wirksamer in das System Hochschule einzubinden? Letzteres ist ein Punkt, den ich interessant finde und den Gabi und ich auch in einem eigenen Beitrag (Band 3) verfolgen, z.B. durch die Einrichtung von „verteilten Lehrlaboren“, in denen Lehrende freier und ohne Wettbewerbsdruck experimentieren können. Mehr institutionelle Freiheit, mehr kollegiales Experimentieren und mehr fachkulturelle Spezifik (vgl. Gespräch hier) – im Zeitalter des formalen „Overscripting“ und der sich anbahnenden KI-Welle kein schlechter Ansatz.
Völlig Blank
Harald Martenstein skizziert in seiner aktuellen ZEIT-Kolumne eine finanzielle Notlage. Er war Anfang Mai allein in die USA gereist, hatte seine Kreditkarte dummerweise überzogen, noch 130 Dollar in der Tasche und den Rückflug nach Deutschland in vier Tagen vor Augen: Wie übersteht man vier Tage „fast ohne Geld“? In seiner Geschichte erfährt man, dass er nur aufgrund vieler guter Menschen und Zufälle über die Runde gekommen ist: Der Mann in der Wechselstube, der ihm die Servicegebühr erlässt, der Taxifahrer, dem 13 Dollar statt 20 reichen, das Hotel, dass nur 45 Dollar kostet etc. Er sinniert: Wenn mir die Menschen nicht geholfen hätten, wenn ich kein Glück gehabt hätte, dann…
Martenstein macht klar, dass diese Episode in seinem Leben nicht dramatisch war, an sich eine Lappalie. Aber: Dieser „Hauch der Scham“, diese „Millisekunden der Not“, diese „Zentimeter am Abgrund“ machen ihm wieder bewusst(er), was Armut heißen kann.
„Hauch der Scham“, … Danke Herr Martenstein.
KI und Frieden?!
Ostern gilt gemeinhin dem Frieden. Aber so ganz will dieses Jahr keine Friedenstimmung aufkommen. Zu viel Unstimmigkeit und Elend in der Welt. Neben den bekannten Großbaustellen (Krieg, Hunger, Klima, Unterdrückung etc.) treibt mich dieses Jahr das Thema KI um. KI und Frieden? Ja, dass wäre kein schlechtes Begriffspaar, wäre da nicht eine klaffende Leerstelle. Zu dieser Leerstelle passte ein Podcast von Gunter Dueck und Normann Müller: KI trifft auf gesunden Menschenverstand. Angeregt durch einen kleinen Kommentarwechsel (auf LinkedIn) mit Herrn Dueck sind drei grundsätzliche Fragen entstanden, auf die ich eine Antwort versuche.
Meine erste Frage ist: Was unterscheidet den KI-Ansatz von bisherigen „Tools“?
Normalerweise müsste man jetzt definieren, was KI „ist“. Das füllt Bände und führt nicht zur Klärung. Ich konzentriere mich also auf mein Vorverständnis und eine Prognose: Das jetzige (erlebbare) Potenzial von ChatGPT (einer massentauglichen Spielart von KI) wird sich qualitativ ausweiten (vgl. GPT-4) Bisherige Werkzeuge in der Bildung (Taschenrechner, Internet, Mikroskop) hatten alle eine bestimmte Funktion: Der Taschenrechner hilft mir, komplizierte Rechenroutinen zu umgehen, das Internet hilft mir, Wissensbestände aus entfernten Datenbanken zu nutzen, und das Mikroskop hilft mir kleine Objekte zu sehen, die ich mit bloßem Auge nicht wahrnehmen kann. Der Anthropologe Arnold Gehlen hat die Technik – allgemein gesprochen – als Mittel der Organverstärkung, des Organersatzes und der Organentlastung charakterisiert. Organverstärkung und Organentlastung sind gute Gründe, warum man Technik in der Bildung einsetzen sollte, natürlich auch nur dann, wenn der Einsatz des Taschenrechners nicht dazu führt, dass man die „Idee des Rechnens“ nicht versteht; man muss also unterscheiden zwischen einer Prozesseffizienz und einer didaktischen Funktion. Nicht alles, was mich entlastet, ist didaktisch sinnvoll!
Unbestreitbar ist, dass KI-gestützte Angebote (wie z.B. ChatGPT) vordergründig und unmittelbar AUCH Entlastungs- und Verstärkungsfunktionen übernehmen, deshalb stürzen sich alle offenherzig darauf: Schreiben von Hausaufgaben, Erstellen von Liebesbriefen, Entwerfen von Designvorlagen, also alles, was man nicht kann oder schwer ist, wird per Klick bestellt. Übrig bleibt, den „Rohentwurf“ mehr oder weniger nach eigenen Vorstellungen zu „personalisieren“. Klingt verführerisch gut, oder? ABER: Sieht man, dass KI gestützte Angebote sowohl auf der Ebene der Zahlen, auf der Ebene der Sprache und auf der Ebene der Modellierung (drei Weisen der Episteme) belastbare und originelle Ergebnisse in kurzer Zeit für jedermann und jederzeit liefern, dann läuft der Einsatz in der Bildung Gefahr, dass diese Technik – um mit Gehlen zu sprechen – zum Organersatz führen kann. Die Menschen verlernen (deskilling) oder lernen gar nicht mehr die Basisoperationen, sondern nur noch „höhere Kompetenzen“, wie prompting etc. Ist Höhe ohne Basis möglich? Zudem: Rechnen, Sprache, Modellierung sind nicht nur Erkenntnisvermögen, sondern „Welt- und Selbstzugänge“. Hier steht das in Gefahr, was wir Identität (Wie ich mich als besonderer Mensch stabilisiere) nennen, graduell zumindest.
Meine zweite Frage ist: Tragen wir für den Bereich „Bildung“ eine besondere Verantwortung?
Lässt man die obige Antwort unwidersprochen, dann erwächst daraus unmittelbar eine Verantwortung genereller Art: Es geht zunächst darum, zu begreifen, dass die Einführung von KI in der Bildung hohe Implikationen darauf hat, was genuiner Bildungsauftrag ist: Menschen bilden und Menschen darin unterstützen, sich zu bilden! Und genau das führt uns dringlicher und radikaler als früher zu der Frage: Was wollen wir in Zukunft als schützenswert „menschlich“ gelten lassen? Was sind leitende Werte, die eine Grenze zwischen menschlich und nicht-menschlich markieren? Wie lassen sich diese Werte gegenüber KI-gestützten Methoden aller Art operationalisieren? Mit welchen Institutionen (z.B. Gesetz oder Markt) wollen wir den Grenzverkehr schützen? Ist der Staat in der Lage oder willens eine steuernde Verantwortung zu tragen (vgl. Interessensdilemma bei der Erstellung der KI-Richtlinien für die EU) oder ist ein System von verteilter Verantwortung mit Stärkung der lokalen Verantwortung (in Schule, Hochschule, Betrieb) vielversprechender? Wie auch immer hierauf die Antworten aussehen, mit einer „vollständigen Umarmung der KI im Bildungsbereich“ machen wir etwas, was man sich bei der Einführung von neuen Impfstoffen (Achtung Analogie) nicht trauen würde: einfach machen, ohne Sicherung, Eingriffe in die DNA, in die Gesundheit des Menschen.
Meine dritte Frage ist: Welche ethischen Werte bieten mir „provisorische Leitlinien“ für ein unternehmerisches Experimentieren/Entscheiden/Handeln?
Werte sind für uns Ghostthinker handlungsleitend. Warum? Wir haben schon mal einen größeren Auftrag eines Waffenherstellers zur Unterstützung eines Lernszenarios abgelehnt, weil der Auftrag gegen unsere Werte verstoßen hätte. Werte sind also (knall)harte Ausschlusskriterien, nix Weiches. Was ist nun mit dem Thema Werte im Kontext von KI? Während der Auftragsabsage an die Waffenindustrie zum damaligen Zeitpunkt für uns eindeutig richtig war (man sieht aber im Russland-Ukrainekrieg wie schnell die Eindeutigkeit schwindet oder aus grün olivgrün wird), ist es mit der KI „ambivalent“: Wir können unsere Video-Annotationstechnologie, die wir zur Handlungsreflexion und gegenseitiger Verständigung einsetzen, ganz wunderbar durch maschinelles Lernen ergänzen und dadurch den sozialen Austausch fördern oder Betreuungsprozesse durch automatisiertes Feedback effizienter machen. Wir könnten aber auch „nein“ sagen zu all dem und auf „rich relationship“ setzen, auf menschliches Feedback im Zeitalter der „Automatisation“ und damit auf eine KI-freie Zone, die dann attraktiv wird, wenn einem aus jedem Video „Kunstwesen“ einwandfreie Antworten liefern und sich Kunden angewidert (wegen eines „Gefühls“) abwenden. Oder wir setzen auf eine Mischung aus Menschen und KI, wie immer die im Detail aussehen mag. Und bei all diesen Möglichkeiten (hier drei Blickrichtungen), ist zu fragen: Welche Werte, welche ethischen Leitlinien, mögen sie auch provisorisch sein, sollen uns leiten? Richten wir unsere Leitlinien danach aus, was sich am Ende verkaufen lässt? Oder verkaufen wir überhaupt nur etwas, WEIL wir von etwas überzeugt sind, WEIL wir ein wertebasiertes Produkt haben?
Wahrscheinlich gibt es in Zukunft einen Markt für alle drei Blickrichtungen: (a) Kunden, die den aller besten Service und Antworten für geringes Geld haben wollen, egal wo es herkommt, Kunden, die eine KI-freie Lernumgebung aus Überzeugung wollen und Kunden, die ein Optimum aus Verantwortungs-, Partizipations- und Transparenzwerten (wir sind die Guten) mit Nutzungswerten (will viel und leicht lernen) und angemessenen Kosten haben wollen. Diese drei Fragen und die Antwortsuche werden uns bei Ghostthinker noch weiter auf Trab halten.
Schließlich treibt mich noch ein ganz anderes, bisher vielleicht nur implizit genanntes Thema: Die weltumspannende Aktivitäten rund um KI in allen (!) Sektoren (Finanzen, Staat, Produktion, Dienstleistung, Bildung etc.) mit fast unbegrenzten Finanzmitteln verläuft in der Struktur eines „sozialen Dilemmas“: Jeder Einzelne (Person, Organisation, Staat) will seinen individuellen Nutzen maximieren (Erfolgsmantra) und genau das führt auf der Ebene des Kollektivs und der Weltgemeinschaft zu irreparablen Schäden. Schnell einsichtig wird das beim Thema Klima – jeder ein SUV, weil’s praktisch ist, insgesamt stehen wir aber im Stau (kurzfristig blöd) und schädigen langfristig das Klima (langfristig Katastrophe). Man kann das auch in der KI-gestützten Finanzindustrie studieren, wo Maschinen Finanzströme von Aktienfonds und ganzen Volkswirtschaften optimieren (wollen wir alle), ohne dass der Mensch noch kapiert, was da vor sich geht, ohne dass der Mensch den Stecker ziehen kann (will keiner). Das Wesen der KI besteht im Kern darin, „chaotisch“ zu sein, nicht transparent. Darin liegen das Wohl und Wehe. Sorge macht der Umstand, dass keine Institution in Sicht ist, die das Thema KI auch nur in irgendeiner Weise reguliert. Ohne Regelung aber ist alles möglich.
Leben
„Einer muss der Erste sein…“, sagt man. Im frühen Frühjahr, wenn der Winter in den letzten Atemzügen liegt, dann kommen wir. Doch wann genau das ist, weiß keiner von uns. Wir spüren: „Jetzt!“. Dann stecken wir unsere bunten Köpfchen durch den Winterboden, raus ins kalte Nass. Wenn wir Glück haben, hilft uns die Sonne, die den Schnee vertreibt. In den wenigen Tagen unseres Lebens rufen wir mit lauter Stimme: „Kommt heraus, ihr Blumen, ihr Bäume und Bienen, kommt heraus, es ist Frühling!“ Und dann ist es wie jedes Jahr, die Blumen, Bäume und Bienen antworten im Chor: „Es ist noch viel zu kalt, wir haben Angst, wir werden sterben!” Doch wir rufen weiter, mit heiserer Stimme: „Kommt heraus, kommt heraus, es ist Frühling, die Sonne ist da!“ Und während wir ein letztes Mal rufen, erschlafft und müde: „Kommt heraus, kommt heraus, es ist warm“, … da kommen die ersten Blumen, die ersten Bäume und die ersten Bienen. Und langsam, Schritt für Schritt, füllen sich die Wiesen, die Wälder, die Weiden … mit Leben: Fröhliche Farben, lautes Summen und kraftvolles Rauschen. Wir sind die Ersten, die das Leben ankündigen, wir sind die Ersten, die wieder gehen. Wir sind die Krokusse. Im nächsten Jahr kommen wir wieder, bestimmt.