Deskilling durch KI: Nach dem rasanten Rauf geht es runter

Über den KI-Einsatz (Chat-GPT) in Bildungsorganisationen (Schule, Hochschule, Berufsbildung) wird aktuell viel spekuliert und das ist gut so! Wie anders sollte man sich dem Thema auch nähern als durch Erproben, Reflexion und mehr oder weniger spekulative Gedankenexperimente (Was-wäre-wenn?). Für Empirie und gesicherte Erkenntnis rollt der Zug zu schnell; die normative Frage, was wir denn von der Bildung im KI-Zeitalter wollen, wird auffallend dünn beantwortet.

Ich selbst habe gegenüber der KI ein ambivalentes Verhältnis. Das sagt man genau dann, wenn man auf der einen Seite seine Neugier nicht zügeln kann und bereitwillig mit den neuen Möglichkeiten experimentiert, auf der anderen Seite aber genau in dieser Tat die Bedingung sieht, die hochskaliert auf Millionen von Nutzerinnen weltweit in ein soziales Dilemma führen könnte.

In meinen ersten Beratungssituationen zum Thema, also zur Frage „was man von KI im Kontext von Bildung halten soll?“ nutzen Kunden immer gerne die Werkzeugmetapher. Sie sagen: „KI ist wie ein Werkzeug, ähnlich dem Taschenrechner. Da gab es auch große Befürchtungen, dass die Nutzung zu einer mathematischen Verdummung führe.“

Ich will da mal ansetzen: Ist KI ein (isoliertes) Werkzeug oder eine (globale) Social-Plattform oder eine (unhintergehbare) Kulturtechnik oder noch was anderes? Ich glaube nicht an die Werkzeugmetapher. Wir nutzen sie nur gerne, weil wir das Neue immer mit den Alten erklären und sie uns emotional beruhigt. Alles beim Alten. KI ist aber mehr: Die lokale Wirkung ist atemberaubend, ich will mehr, will mich entlasten, hier ein Konzeptvorschlag, da ein schwieriger Brief. Der Reiz, mich unterstützen zu lassen, wächst mit jedem guten „Dialog“, den ich abgeschlossen habe. Ein still wachsendes Vertrauen in meinen neuen Dialogpartner entsteht in ähnlicher Weise wie das blindes Vertrauen in das Navigationsgerät, das mich seit Jahren an jeden Ort der Welt führt. Was ist da los?

Meine These ist steil, aber ich spreche sie mal aus 😊. In den nächsten fünf Jahren werden wir einen atemberaubenden Anstieg in der Produktivität von Lehrpersonen erleben, allesamt ExpertenInnen ihres Faches mit hoher Urteilskompetenz. Sie haben das Vermögen zum gezielten Prompting, sie werden die Ergebnisse kritisch beurteilen können, sie werden die Streu vom Weizen trennen. Läuft! In den weiteren fünf Jahren (ich denke in 5-Jahresschritten, ehe die nächste Mikrogeneration nachwächst) kommt es zu einer Abflachung der Produktivitätskurve: Diese Generation hat schon KI intensiv beim Aufbau der eigenen Expertise genutzt und dabei versäumt, sich selbst tief in Sprache einzuüben; KI wirkt als Organersatz. In den Folgejahren – und wir reden hier von den KI-Möglichkeiten in 15 Jahren, das sind Lichtjahre – wachsen Generationen auf und nach, denen es wahrscheinlich so geht wie den beiden jungen Fischen im Wasser: Ein alter Fisch kommt vorbei geschwommen und fragt: „Na Jungs, wie ist heute das Wasser?“ Die jungen Fisch: „Wovon sprichtg er?“ … Junge Menschen der Zukunft werden die KI nicht mehr sehen (können), sie sind „embedded“, eingetaucht, verschmolzen mit einer KI-gestützten und -generierten „Realität“ (was das wohl sein wird), von dem sich unser heutige „Naturzustand“ qualitativ unterscheidet. Und für diese Zeit könnte es einen Absturz der Produktivität geben, obwohl die Nutzung von KI für Lehrzwecke zum Standard gehört. Warum? Weil mit jeder KI-Antwort das Sprachvermögen geschwächt wird, so dass man sich, um ein gewisses Niveau zu halten, immer mehr KI Unterstützung holen muss. Systematische Entlastung führt zur Erosion meines Sprachvermögens.   

So könnte es kommen.

Es sei denn, wir entscheiden uns – uns zwar jeder Lehrende – dafür, Sprache und Denken (zwei Seiten einer Medaille) weiterhin auf einem hohen Niveau zu trainieren, ganz bewusst ohne KI-Unterstützung oder in einer Form, die das Denken und die Sprache auf einem neuen Niveau und in einer hohen Qualität anstachelt! Dafür brauchen wir eine tragfähige Idee und geeignete Trainings- und Übeorte und vielleicht auch einen Bereich in unserem persönlichen Portfolio, den wir „Eigenleistung“ nennen und auf den wir auf magische Weise stolz sind.

Liebesbriefe im KI-Zeitalter

In der Neuen Züricher Zeitung stellt der Rechtswissenschaftler Richard Susskind in einem lesenswerten Beitrag u.a. fest: Wieso sind wir hier? Was heißt das für uns, wenn fast alles, was wir können, auch von einer Maschine erledigt werden kann?“ Das ist also die Frage: Wieso sind wir hier? Auf was können wir „stolz“ sein? Was ist das „Eigene“, wenn bei jedem (Denk)schritt Maschinen helfen? „Eigenleistung“ (Lenk) – für mich ein Referenzbegriff in der noch jungen KI-Bildungs-Grundsatzdiskussion, einer Diskussion jenseits guten Promptings.

Was ist das nun, das Eigene? Ich möchte das am Beispiel eines Liebesbriefs skizzieren. Liebesbriefe? In früheren Zeiten schrieb man der oder dem Geliebten einen handschriftlichen Brief, in dem man seine Zuneigung zum Ausdruck brachte. Das Schreiben war von der Hoffnung getragen, dass das, was man da zu Papier brachte, auf Gegenliebe stoßen möge. Das Problem an diesen Briefen war, dass sie sehr schwer zu schreiben waren, denn das, was man unscharf fühlte, war nicht in Worte zu fassen, und das, was man bereits auf Papier gebracht hatte, klang unendlich lächerlich. Bei ganz viel Mut schickte man den Liebensbrief dennoch mit der gelben Post ab und in der Regel wurde dieser vom Empfänger geschätzt, auch wenn das, was da stand, von einem Dreijährigen hätte stammen können. Wie kann das sein?

Es kam nicht so sehr darauf an, WAS im Brief stand, sondern: zum einen auf den Effekt, was die teils wochenlangen Wortfinde-Versuche mit einem selbst machten, zum anderen auf die vorweggenommene Reaktion: Es war dem Empfänger (vermutlich) klar, dass die Überwindung der Angst – das Coming-out – der eigentliche Zweck des Briefes war, und da schaut man gerne über holprige Formulierungen hinweg.

Was hat das mit KI zu tun? Ich glaube, im Zeitalter von KI werden Liebesbriefe, sofern man sich heute dieser Strategie noch bedient, anders ausfallen: „ChatGPT, bitte erstelle mir einen Liebesbrief für eine Frau mittleren Alters, spreche nicht zu gestellt, schreibe nicht mehr als eine Textseite und benutze Sprachbilder, die meine positiven Gefühle ausdrücken.“ Mit einem Klick hat man zumindest eine erste Vorlage, die man nach eigenen Gutdünken verbessern kann. Nach 5 Minuten könnte der Brief in der Post liegen. Der Empfänger würde sich beim ersten Lesen vielleicht über die geschliffene Sprache wundern, den Verdacht hegen, dass sich der Geliebte von ChatGPT hat helfen lassen. Damit stünde die Wirkung in Gefahr: Nicht die bebend-unsichere Stimme des Liebessuchenden spräche da, sondern die Duden-sicheren Worte einer Maschine, der sich der Autor wie ein Stützrad bedient. Und ja, natürlich könnte ich ChatGPT bitten, eine „Portion Unsicherheit“ in den Text zu bringen. Die Co-Leistung bliebe unentdeckt. Nur, was wäre mit mir? Hätte dieser Brief mich verändert? Könnte ich stolz sein?

Was beim Liebensbrief wie durch ein Brennglas erscheint, ist für mich ein Problem der KI-Bildungszukunft. Wie stolz können wir auf etwas sein, was wir nur mit ordentlicher Unterstützung haben produzieren können? Wo bleibt da der Sinn, die Eigenleistung oder mit Deci/Ryan, das Kompetenzerleben?

Ich denke, in einer Welt fortgeschrittener KI-Unterstützung wird es eine Wiedergeburt der Eigenleistung, der Echtheit, des Authentischen geben. Für mich ist das der Punkt, wo wir nochmal die Bildungsfrage neu stellen werden: Was will ICH wirklich lernen? Zu was will ich mich BILDEN? Im Portfolio der Zukunft werden solche KI-freien Eigenleistungen gesammelt wie Trophäen, ich wette!

KI und Frieden?!

Ostern gilt gemeinhin dem Frieden. Aber so ganz will dieses Jahr keine Friedenstimmung aufkommen. Zu viel Unstimmigkeit und Elend in der Welt. Neben den bekannten Großbaustellen (Krieg, Hunger, Klima, Unterdrückung etc.) treibt mich dieses Jahr das Thema KI um. KI und Frieden? Ja, dass wäre kein schlechtes Begriffspaar, wäre da nicht eine klaffende Leerstelle. Zu dieser Leerstelle passte ein Podcast von Gunter Dueck und Normann Müller: KI trifft auf gesunden Menschenverstand. Angeregt durch einen kleinen Kommentarwechsel (auf LinkedIn) mit Herrn Dueck sind drei grundsätzliche Fragen entstanden, auf die ich eine Antwort versuche.  

Meine erste Frage ist: Was unterscheidet den KI-Ansatz von bisherigen „Tools“?

Normalerweise müsste man jetzt definieren, was KI „ist“. Das füllt Bände und führt nicht zur Klärung. Ich konzentriere mich also auf mein Vorverständnis und eine Prognose: Das jetzige (erlebbare) Potenzial von ChatGPT (einer massentauglichen Spielart von KI) wird sich qualitativ ausweiten (vgl. GPT-4) Bisherige Werkzeuge in der Bildung (Taschenrechner, Internet, Mikroskop) hatten alle eine bestimmte Funktion: Der Taschenrechner hilft mir, komplizierte Rechenroutinen zu umgehen, das Internet hilft mir, Wissensbestände aus entfernten Datenbanken zu nutzen, und das Mikroskop hilft mir kleine Objekte zu sehen, die ich mit bloßem Auge nicht wahrnehmen kann. Der Anthropologe Arnold Gehlen hat die Technik – allgemein gesprochen – als Mittel der Organverstärkung, des Organersatzes und der Organentlastung charakterisiert. Organverstärkung und Organentlastung sind gute Gründe, warum man Technik in der Bildung einsetzen sollte, natürlich auch nur dann, wenn der Einsatz des Taschenrechners nicht dazu führt, dass man die „Idee des Rechnens“ nicht versteht; man muss also unterscheiden zwischen einer Prozesseffizienz und einer didaktischen Funktion. Nicht alles, was mich entlastet, ist didaktisch sinnvoll!

Unbestreitbar ist, dass KI-gestützte Angebote (wie z.B. ChatGPT) vordergründig und unmittelbar AUCH Entlastungs- und Verstärkungsfunktionen übernehmen, deshalb stürzen sich alle offenherzig darauf: Schreiben von Hausaufgaben, Erstellen von Liebesbriefen, Entwerfen von Designvorlagen, also alles, was man nicht kann oder schwer ist, wird per Klick bestellt. Übrig bleibt, den „Rohentwurf“ mehr oder weniger nach eigenen Vorstellungen zu „personalisieren“. Klingt verführerisch gut, oder? ABER: Sieht man, dass KI gestützte Angebote sowohl auf der Ebene der Zahlen, auf der Ebene der Sprache und auf der Ebene der Modellierung (drei Weisen der Episteme) belastbare und originelle Ergebnisse in kurzer Zeit für jedermann und jederzeit liefern, dann läuft der Einsatz in der Bildung Gefahr, dass diese Technik – um mit Gehlen zu sprechen – zum Organersatz führen kann. Die Menschen verlernen (deskilling) oder lernen gar nicht mehr die Basisoperationen, sondern nur noch „höhere Kompetenzen“, wie prompting etc. Ist Höhe ohne Basis möglich? Zudem: Rechnen, Sprache, Modellierung sind nicht nur Erkenntnisvermögen, sondern „Welt- und Selbstzugänge“. Hier steht das in Gefahr, was wir Identität (Wie ich mich als besonderer Mensch stabilisiere) nennen, graduell zumindest.

Meine zweite Frage ist: Tragen wir für den Bereich „Bildung“ eine besondere Verantwortung?

Lässt man die obige Antwort unwidersprochen, dann erwächst daraus unmittelbar eine Verantwortung genereller Art: Es geht zunächst darum, zu begreifen, dass die Einführung von KI in der Bildung hohe Implikationen darauf hat, was genuiner Bildungsauftrag ist: Menschen bilden und Menschen darin unterstützen, sich zu bilden! Und genau das führt uns dringlicher und radikaler als früher zu der Frage: Was wollen wir in Zukunft als schützenswert „menschlich“ gelten lassen? Was sind leitende Werte, die eine Grenze zwischen menschlich und nicht-menschlich markieren? Wie lassen sich diese Werte gegenüber KI-gestützten Methoden aller Art operationalisieren? Mit welchen Institutionen (z.B. Gesetz oder Markt) wollen wir den Grenzverkehr schützen? Ist der Staat in der Lage oder willens eine steuernde Verantwortung zu tragen (vgl. Interessensdilemma bei der Erstellung der KI-Richtlinien für die EU) oder ist ein System von verteilter Verantwortung mit Stärkung der lokalen Verantwortung (in Schule, Hochschule, Betrieb) vielversprechender? Wie auch immer hierauf die Antworten aussehen, mit einer „vollständigen Umarmung der KI im Bildungsbereich“ machen wir etwas, was man sich bei der Einführung von neuen Impfstoffen (Achtung Analogie) nicht trauen würde: einfach machen, ohne Sicherung, Eingriffe in die DNA, in die Gesundheit des Menschen.  

Meine dritte Frage ist: Welche ethischen Werte bieten mir „provisorische Leitlinien“ für ein unternehmerisches Experimentieren/Entscheiden/Handeln?

Werte sind für uns Ghostthinker handlungsleitend. Warum? Wir haben schon mal einen größeren Auftrag eines Waffenherstellers zur Unterstützung eines Lernszenarios abgelehnt, weil der Auftrag gegen unsere Werte verstoßen hätte. Werte sind also (knall)harte Ausschlusskriterien, nix Weiches. Was ist nun mit dem Thema Werte im Kontext von KI? Während der Auftragsabsage an die Waffenindustrie zum damaligen Zeitpunkt für uns eindeutig richtig war (man sieht aber im Russland-Ukrainekrieg wie schnell die Eindeutigkeit schwindet oder aus grün olivgrün wird), ist es mit der KI „ambivalent“: Wir können unsere Video-Annotationstechnologie, die wir zur Handlungsreflexion und  gegenseitiger Verständigung einsetzen, ganz wunderbar durch maschinelles Lernen ergänzen und dadurch den sozialen Austausch fördern oder Betreuungsprozesse durch automatisiertes Feedback effizienter machen. Wir könnten aber auch „nein“ sagen zu all dem und auf „rich relationship“ setzen, auf menschliches Feedback im Zeitalter der „Automatisation“ und damit auf eine KI-freie Zone, die dann attraktiv wird, wenn einem aus jedem Video „Kunstwesen“ einwandfreie Antworten liefern und sich Kunden angewidert (wegen eines „Gefühls“) abwenden. Oder wir setzen auf eine Mischung aus Menschen und KI, wie immer die im Detail aussehen mag. Und bei all diesen Möglichkeiten (hier drei Blickrichtungen), ist zu fragen: Welche Werte, welche ethischen Leitlinien, mögen sie auch provisorisch sein, sollen uns leiten? Richten wir unsere Leitlinien danach aus, was sich am Ende verkaufen lässt? Oder verkaufen wir überhaupt nur etwas, WEIL wir von etwas überzeugt sind, WEIL wir ein wertebasiertes Produkt haben?

Wahrscheinlich gibt es in Zukunft einen Markt für alle drei Blickrichtungen: (a) Kunden, die den aller besten Service und Antworten für geringes Geld haben wollen, egal wo es herkommt, Kunden, die eine KI-freie Lernumgebung aus Überzeugung wollen und Kunden, die ein Optimum aus Verantwortungs-, Partizipations- und Transparenzwerten (wir sind die Guten) mit Nutzungswerten (will viel und leicht lernen) und angemessenen Kosten haben wollen. Diese drei Fragen und die Antwortsuche werden uns bei Ghostthinker noch weiter auf Trab halten.

Schließlich treibt mich noch ein ganz anderes, bisher vielleicht nur implizit genanntes Thema: Die weltumspannende Aktivitäten rund um KI in allen (!) Sektoren (Finanzen, Staat, Produktion, Dienstleistung, Bildung etc.) mit fast unbegrenzten Finanzmitteln verläuft in der Struktur eines „sozialen Dilemmas“: Jeder Einzelne (Person, Organisation, Staat) will seinen individuellen Nutzen maximieren (Erfolgsmantra) und genau das führt auf der Ebene des Kollektivs und der Weltgemeinschaft zu irreparablen Schäden. Schnell einsichtig wird das beim Thema Klima – jeder ein SUV, weil’s praktisch ist, insgesamt stehen wir aber im Stau (kurzfristig blöd) und schädigen langfristig das Klima (langfristig Katastrophe). Man kann das auch in der KI-gestützten Finanzindustrie studieren, wo Maschinen Finanzströme von Aktienfonds und ganzen Volkswirtschaften optimieren (wollen wir alle), ohne dass der Mensch noch kapiert, was da vor sich geht, ohne dass der Mensch den Stecker ziehen kann (will keiner). Das Wesen der KI besteht im Kern darin, „chaotisch“ zu sein, nicht transparent. Darin liegen das Wohl und Wehe. Sorge macht der Umstand, dass keine Institution in Sicht ist, die das Thema KI auch nur in irgendeiner Weise reguliert. Ohne Regelung aber ist alles möglich.

ChatGPT und Werte: Was würde Data sagen?

Vor gut 10 Jahren habe ich eine Rezension zum Buch von Karen Gloy verfasst, die im Wiener Jahrbuch für Philosophie auch veröffentlicht wurde: Es ging um das Thema „Wahrnehmungswelten“, also etwas typisch Menschliches, was Gloy im Kontrast zum Maschinellen abgrenzte. Was war da naheliegender, als mit „Data“ aus Star Trek einzusteigen. Wir erinnern uns, Data – der Androide, der nur eines im Sinn hatte: Er (die Maschine) wollte menschlich werden! Ich kann also sagen, dass mich dieses Mensch-Maschine-Verhältnis immer schon interessierte und Data bot mir anschauliche Gedankenexperimente zur Frage: Was ist das denn –  menschlich? Und was daran ist erstrebens- und damit schützenswert?     

Mit ChatGPT sind wir schneller als gedacht an den „Anfang der Geschichte“ angekommen. Zwar gibt es 2023 noch lang keine Androiden (erste Gehversuche hier oder GPT & Robots), aber die Tür zu einer „disruptiven“ Entwicklung ist geöffnet: Goldgräberstimmung, globaler Wettbewerb, Kapital und endlos viele (hilfreiche wie bedrohliche) Anwendungen. Was braucht man mehr?!

In der aktuellen Diskussion zu ChatGPT im Kontext Bildung (Schule, Hochschule, Corporate Learning) überwiegen die optimistischen Stimmen. Es soll experimentiert werden! Dem folge ich, denn wie sollte man anders die Chancen und Grenzen von der KI im Bildungskontext ausloten? Was wir aber neben Experimentierfreude AUCH brauchen, ist eine Diskussion über Werte. Ehe das als „Spaßbremse“ oder gar als „Blauäugigkeit“ missverstanden wird: Die Diskussion über Werte hat nicht die Primärfunktion, uns vor der „KI zu schützen“ (Bollwerk Werte), sondern darum, worum es Data (s.o.) immer ging, um die Frage, wie wir uns im Zeitalter von KI und (totaler) Simulation als Menschen (!) definieren wollen. „Kreative Originalität“ (nach der jetzt alle rufen) steht zumindest auf dem Prüfstand, wenn man sich die Ergebnisse aktueller KI-Anwendungen in Text, Bild, Video und 3D anschaut.

Gabi hat sich in einem Artikel (Impact Free) dem Thema angenommen. Es ist ein erstes, lautes Nachdenken (zaghaft und tastend also) mit Hochschulbezug. Aber mit der Frage „Wozu sind wir hier?“ macht sie den Anspruch, die Fragerichtung, deutlich. Es geht um Selbstvergewisserung, Grundfragen und vorläufige Antworten. Antworten sehen anders aus, wenn man sie (mit)verantwortet.

ChatGPT und Critical Thinking als Zaubertrank

Die Bildungslandschaft ist durch ChatGPT in Aufruhr. Laut nachgedacht wird über den Einsatz von ChatGPT bei der Aufgabenerstellung und Aufgabenlösung, im Lernprozess und bei Prüfungen. Während die einen die neuen Möglichkeiten euphorisch ausloten, sind andere kritisch bis ablehnend. Auch Verbote werden ausgesprochen. Was sagt uns das?

ChatGPT „macht“ etwas mit unserem Bildungssystem, mit den Menschen, die darin wirken, mit deren Selbstverständnis und deren Routinen. Und das ist gut so, denn Reformen sind gefühlt noch nie „aus dem Inneren“ der Bildung gekommen, sondern durch Politik und Wirtschaft, also von „außen“ angestoßen, vielleicht auch „über Bande“ diktiert worden (vgl. Pisa, Bologna etc.).

Nun ist eine Reform aber kein Selbstzweck, sondern eine Antwort auf neue Anforderungen, die die Gesellschaft an das Bildungssystem stellt. Weil die Zukunft (die immer mit der Gegenwart beginnt) andere Anforderungen an MitarbeiterInnen hat als noch vor 50 Jahren, verlangt man von den Schulen und Hochschulen Anpassungen: AbsolventenInnen sollen fachkompetent sein, logo, vor allem aber kommunikativ, empathisch, kreativ, sie sollen sich in (MS)Teams wohl fühlen, um Probleme der Gesellschaft zu lösen. All diese an die Zukunft angepassten Eigenschaften nennt man „future skills“ (vgl. Ulf Ehlers) und wer will und vor allem kann dazu schon nein sagen?!

Was man jetzt im Zuge von ChatGPT immer stärker hört (z.B. hier), ist die Forderung nach „critical thinking“, ein wichtiger, wenn nicht zentraler Teil der future skills. Die Argumentation geht in etwa so: Wenn ChatGPT alle Prozesse der Wissens- und Produkterstellung „unterstützen“ kann, dann wird genau das passieren (~ Murphys Gesetz). Wenn es passiert, dann müssen die Menschen gut (~ kritisch) darin sein, (a) zu begründen, warum sie eine KI verwenden, (b) auszuwählen, welche KI sie nutzen, (c) wie sie die KI richtig verwenden und (d) mit welchen technisch-psychologischen Strategien sie sich gegen Fakes aller Art schützen. Die Tatsache, dass nicht mehr nachprüfbar ist, ob der Zuwachs an Wissen dem Autor oder dem Chatbot zuzurechnen ist, ist ein Problem, was uns aktuell nur deshalb so große Bauchschmerzen macht, weil es ins Herz unseres selbst verschuldeten Selektionsauftrags hineinragt.

Was ist aber nun dieses „critical thinking“, dieser Zaubertrank, welcher uns im Zeitalter der KI stark machen soll? Zum einen hat diese Denkform und Haltung etwas mit Distanznahme zu tun: sich von Informationen, Personen, Organisationen nicht einwickeln lassen, Abstand halten können zwischen dem „Ich“ und dem „Anderen“, um z.B. Täuschung zu erkennen. Das ist kognitiv, emotional und willensmäßig anspruchsvoll – im Zeitalter der Simulation eine große, vielleicht auch unmögliche Herausforderung. Zum anderen hat diese Denkform und Haltung etwas mit Zupacken zu tun: sich mit Elan und Verve einer Sache verschreiben, im Team unternehmerisch sein, was nicht zwingend was mit Geldverdienen zu tun hat, sich anstrengen und schmutzig machen, auch auf die Gefahr hin, dass man Schaden nimmt oder gar scheitert!

„Distanznahme“ und „Zupacken“, ein Widerspruch? Ich glaube nicht, eher etwas, was sich gegenseitig bedingt und konstituiert, in jedem Fall aber ein voraussetzungsreiches Ziel bzw. voraussetzungsreiche Ziele. Um solche Ziele annährend zu erreichen, braucht man geeignete Lern- und Lebensorte, z.B. Hochschulen. Hochschulen in Zeiten von KI werden anders sein müssen als die heutigen. Mit ein wenig „KI-Anwendung“ (wie kreativ auch immer) ist es eben gerade NICHT getan oder noch stärker: Damit dürfte die genuine Idee der Hochschule – als besondere Orte, die sich eine Gesellschaft leistet – verfehlt sein. Zieht man die beiden Zauberwörter Distanznahme und Zupacken nochmal heran, dann gilt es doch zunächst, nach der Schule die Distanzahme zu üben, d.h. sich auf die Antwortalternativen zu konzentrieren, welche die Hochschule und nur die Hochschule hervorbringen kann. In Kürze: Nur durch Distanznahme ist ein akademisches „Zupacken“ möglich und auch das muss man üben!

ChatGPT wird uns dazu zwingen, noch mal neu über Bildung nachzudenken, radikaler als früher. Hochschulbildung, vor allen Lehrerinnenausbildung, Managementausbildung und Ingenieursausbildung, stehen dabei in besonderer Verantwortung. Sie brauchen eine starke Idee, welche die Reform von innen vorantreibt, proaktiv, ohne die Stimmen der Außenwelt zu ignorieren.

Weblogs & Chatbots: Wenn Quadrate auf Kugeln treffen

Als ich 2005 mit meinem eigenen Weblog startete, hatte ich zusammen mit Gabi Reinmann und Sebastian Fiedler eine Unterhaltung in irgendeiner Kneipe im Nirgendwo. Es ging um die einfache Frage, was ein Weblog ist oder genauer, was ein Weblog wesentlich ausmacht. Sebastian hatte die Jahre zuvor seinen Abschluss in „Instructional Design“ an einer amerikanischen Universität gemacht und er war für unsereins ein interessanter (und auch sehr bereichernder) Nerd, vor allem, aber nicht nur, was das Thema Weblogs anging. Während Gabi und ich wie selbstverständlich auf den „Beitrag“, den „Post“, pochten (darin stecke doch die Kreativität, oder?), pochte Sebastian ebenso energisch auf die RSS-Feeds. Es war für uns Nicht-Nerds ein geflügeltes Wort für das, was wir zwar der Mechanik nach, aber nicht wirklich tief verstanden: „RSS-Feed“.

In diesen Nuller-Jahren entdeckte ich auch erstmals Beats Bibliothek. Hinter „Beat“ steht der Schweizer Informatiker und Bildungsdidaktiker Beat Döbeli Honegger und hinter seiner „Bibliothek“ steckt, ja was denn, eine Art „Luhmannscher Zettelkasten“, wie er selbst schreibt. Zu finden sind dort u.a. Texte, Begriffe, Personen, Fragen, Aussagen und Hitlisten rund um das Thema Medienbildung. Alle Elemente – über eine Million – sind verknüpft und bilden einen persönlichen Thesaurus, weswegen der Name Beats Bibliothek treffend ist. Was mich fasziniert: Ich sah damals beim ersten Lesen noch nicht annähernd, was sich da herausbilden sollte; ich hatte dafür keine Kategorie im Kopf, die mir helfen konnte, zu verstehen. Jetzt aus der Rückschau, nach 25 Jahren, mit alle den Erfahrungen und Vergleichen (Zettelkasten, Hypersystem, Internet) ist es klar(er), zumindest sehe ich den Sinn, die Umrisse und den Hintergrund einer „Memex“, einer persönlichen „Ontologie“.

Seit ein paar Wochen gibt es im Bereich der Bildung scheinbar nur noch ein Thema: Chatbots. Zwar ist KI/AI seit Jahren bekannt, aber (bisher) gefühlt sehr weit weg von der eigenen Arbeit in Schule, Hochschule und Berufsbildung. Mit „GPT“ von OpenAI ist ein Prototyp verfügbar, der KI für alle Nicht-Nerds erlebbar macht. Was diese Maschine kann, ist erstaunlich bis ernüchternd (vgl. klasse Vortrag von Jörg Löviscach), je nach Erwartung und Expertise. Exemplarisch und übervereinfacht kann man aktuell drei Standpunkte an Hochschulen ausmachen: Christian Spannagel fordert z.B. einen pragmatisch-experimentellen und auch „nüchternen“ Umgang mit Chatbots, um Erfahrungen zu sammeln, die ein tieferes Verständnis fördern. Beat Döbeli Honegger hat damit begonnen, systematisch Vor- und Nachteile zusammenzutragen, um das Thema für sich und andere grundsätzlicher einzuordnen. Gabis Beiträge zeigen offen die Ungewissheit und die tastende Suche nach einem erhellenden Begriffshorizont für das, was „da vor sich geht“ und gehen sollte! (vgl. Wettrüsten oder Wertewandel?)

Was verbindet nun diese drei Geschichten und warum erzähle ich sie? Sebastians RSS-Feed, Beats Ontologie und OpenAIs Chatbot überstiegen und übersteigen mein Denken: Ich hielt beim Thema Weblog etwas für wesentlich, was aber gar nicht wesentlich war, ich verstand weder die Dynamik noch den langfristigen Nutzen eines persönlichen Hypernetzwerks und natürlich (!) verstehe ich nicht die Implikationen für Bildung und Gesellschaft, was Chatbots und die zukünftigen Versionen des ersten Prototyps betreffen.

Bei all dem geht es mir in etwa so, wie dem (zweidimensionale) Quadrat aus dem Roman „Flatland“, das erstmals auf eine (dreidimensionale) Kugel trifft. Wikipedia schreibt: „Erst nach langer Mühe gelingt es der Kugel, das Quadrat von der Existenz der dritten Dimension zu überzeugen, und sie nimmt es zu einem Rundflug über seine zweidimensionale Heimat mit.“ Ich habe also Hoffnung, dass wir uns in die höhere Dimension des Denkens hineinfinden, um besser zu verstehen, was da vor sich geht und was unser Beitrag gestaltend (Design) wie begrenzend (Ethik) auf der Ebene der Organisation bis zur Menschheit als Ganzes sein kann. Aber ich meine nicht ganz falsch zu liegen, dass es sich bei GPT & Konsorten um ein qualitativ neues Phänomen handelt, weit mehr als ein Werkzeug, das wir vorerst nur in Analogien zu schon bekannten Dingen verstehen, aber für das wir eine neue Denkdimension erschaffen müssen: Was ist an GPT „kugelig“ und wo ist unser Denken bis her „quadratisch“?

Vier Dinge beunruhigen mich, ich gebe es zu: (a) Die Geschwindigkeit und Qualität, mit der sich KI-gestützte Software entwickelt (s.o.), (b) die Geschwindigkeit und Qualität mit der sich KI-gestützte Roboter entwickeln, (c) die fast unbegrenzten Geldmittel von Investoren und Verteidigungsindustrie in xx-Milliardenhöhe, mit denen a und b unterstützt werden und (d) wie wenig mutig wir immer noch in der Bildung über all dies sprechen und Konsequenzen ziehen. Mein Ruderlehrer sagte immer, „machen sie sich Gedanken“, … nachdem jemand von uns ins Wasser gefallen war. Recht hatte er.