Nichts ist und wird ohne Frauen

Ich bin aufgewachsen mit „selbstbewussten Frauen“ und „sanften Männern“, wahrscheinlich sehe ich die Welt nicht so, wie sie ist. Aber wer sieht das schon…

Wer die aktuellen Nachrichten und Netzwerkmeldungen verfolgt, und dabei die Frauen im Blick hat, bleibt bei drei Meldungen hängen. Ich möchte etwas dazu sagen, weil es wichtig ist:

Frauen demütigen: Dass der Chef des spanischen Fußball-Verbandes eine Spielerin der Nationalmannschaft nach gewonnen Endspiel – wie man vermuten darf ohne Zustimmung – auf den Mund geküsst hat, ist bekannt. Man streitet darum, ob es eine Straftat oder Ausdruck von Freude ist. Das eben dieses Nationalteam sich über ihren Trainer wegen sexueller Belästigung seit Jahren beschwert (mit Duldung des Chefs) ist ein wichtiger Hintergrund, um das „Küsschen“ zu deuten. „Der Kuss“ steht also symbolisch für missbrauchte Macht und das muss man ächten. Was sollte man tun? Männer müssen sich ändern: die, die in Versuchung stehen, aber auch die, die passiv zuschauen und schweigen. Medien müssen sich ändern, denn die Rede vom Küsschen stützt den Machtmissbrauch und veralbert die, die geküsst werden. Und dort, wo sich unser Wunsch nach Vernunft nicht realisiert, hoffe ich auf mutige Frauen, die im Fall der Fälle verbal und handfest Widerstand leisten: mit einem klaren Nein, einer öffentlichen Backpfeife oder wirksameren Methoden.      

Frauen unsichtbar machen: Dieses Jahr wurde in der ZEIT an den „Marsch auf Washington“ erinnert und damit auch an die radikalen Bürgerrechtlerinnen wie Gloria Richardson, Mahalia Jackson oder Marian Anderson. Sie alle stehen im Schatten des „großen“ Martin Luther King, der mit seiner Rede „I have a dream!“ in der kollektiven Erinnerung blieb. Der ZEIT-Artikel zeigt, dass und wie die Aktivistinnen, ohne die es keinen Marsch gegeben hätte, von der großen Bühne der Anerkennung verdrängt wurden: 1963 steckte man sie in hübsche Kleider statt der gewohnt engen Jeans, man verwehrte ihnen Redeanteile, man sagte ihnen „bleib zu Haus und ruhe dich aus“, damit die öffentliche Aufmerksamkeit den Männern vorbehalten blieb. Während man sie heute „stille Heldinnen“ oder „Kämpferinnen“ nennt, waren es 1963 „Mütter“ und „Ehefrauen“, die ihren Männern beistanden. Coretta Scott King – die Frau von Martin Luther King – war es leid, als „Anhängsel eines Staubsaugers“ dargestellt zu werden. Gegen Ende seiner Laufbahn, als Alfred Hitchcock, der berühmte Regisseur, eine Auszeichnung für sein Lebenswerk bekam, sagte er, dieser Preis gehöre „zu gleichen Anteilen seiner Frau“, einer Frau, die nun wirkliche jede Idee, jedes Drehbuch, jeden Videoschnitt tragend mitgestaltet hatte, wenn man den Recherchen Glauben schenkt. Was sollte man tun? Nichts ist und wird ohne Frauen, das ist eine Tatsache, keine Deutung. „I have a dream“ war schon damals falsch, richtig hätte es heißen müssen „We have a dream“. Merke: Wir haben alle immer nur An-Teil.         

Frauen entrechten: Im vom Taliban geführten Afghanistan haben Frauen keine Rechte: Ihnen verwehrt man mit Gewalt den Schulbesuch, Hochschulen sind eh tabu. Diese Meldung bleibt in den Nachrichten auffallend unterbelichtet. Wäre es weltweit genauso still, wenn alle Männer weggesperrt und von Bildung abgetrennt würden? Ohne Bildung reduzieren sich die Rolle und die zukünftigen Möglichkeiten der Mädchen und Frauen auf winzige Optionen, schrecklich. Was muss man tun? Mädchen haben angefangen, sich in geheimen und kleinen Gruppen zu treffen, unter Lebensgefahr organisieren sie ihre Bildung selbst, greifen nach Strohhalmen, die ihre Zukunft bedeuten. Der in Hamburg ansässige „Afghanische Frauenverein“ hilft dabei, dass afghanische Mädchen Chancen haben. Wenn man die Männergesellschaft im Großem schwer verändern kann, muss man im Kleinen anfangen. Mauern fallen durch Risse.

Ich habe kein Fazit. Aber vielleicht ist die Trennung von Frauen und Männern Teil des Problems. Vielleicht ist es besser, zwischen den „Mutigen“ und den noch „Mutlosen“ zu unterscheiden. Denn am Ende gilt – so scheint mir – unsere Ängste zu überwinden: Angst vor öffentlicher Positionierung (Fußball-Beispiel), Angst vor Anerkennungsmangel (Washington-Beispiel), Angst vor Kontrollverlust (Taliban-Beispiel). Dabei können und sollten wir uns gegenseitig helfen: Frauen, Männer, Diverse sowie die Mutigen und die, die noch ohne Mut sind.

Die Seele baumeln lassen

Ein Beitrag von Wolfgang Jenewein auf LinkedIn hat mich mitten im Urlaub „erwischt“: Er reflektiert dort offen über Urlaube, wie sie bei ihm sind und wie sie sein sollten. Er erzählt, dass Urlaube – zumindest früher – durch Frühsport, Kinderfußball und andere Familienaktivitäten gekennzeichnet waren, sie wären in diesem Sinne „durchgeplant“ gewesen. Jeder, der Kinder hat, denkt: Normal! Doch die Ärztin attestiert ihm einen dauerhaft erhöhten Cortisolspiegel, ein sicherer Hinweis auf Stress, trotz Kinderspaß und dem Gefühl, die Batterien wieder gefüllt zu haben. Die Ärztin rät ferner: „Lass die Seele baumeln“. Jenewein nimmt sich den Rat zu Herzen und experimentiert heute mit Vorsätzen: Einfach mal dasitzen, aufs Meer blicken, an nix denken, loslassen. Gut so!

„Die Seele baumeln lassen“, seitdem ich Jeneweins Post gelesen habe, geht mir die Metapher nicht mehr aus dem Kopf. Nur: Was ist damit genau gemeint? Ich versuche mich in einer Deutung …

Ich denke bei diesem Sprachbild an eine Hängematte, indem mein Körper hin und her schwingt. Oder an ein Kind, das kopfüber mit den Beinen an einer Turnstange baumelt. Also da schwingt was, keine Frage, aber die Seele?

Vielleicht schauen wir zunächst auf den Geist: Der Geist folgt dem Körper bekanntlich nicht auf Schritt und Tritt: Wir können Joggen, bis der Arzt kommt, den Körper also auspowern, aber der Geist arbeitet fröhlich weiter: Nachforderungen aus dem letzten EU-Projekt, habe ich was vergessen? Nächsten Artikel, sind meine Argumente stichhaltig? Kundenwünsche, was will er oder sie wirklich? Die Liste möglicher Gedankenkarusselle ist lang. Aber den Geist kann man beruhigen, durch gemachte Hausaufgaben, gutes Zeitmanagement, Meditation, also „Los-Lass-Übungen“ aller Art.

Aber die „Seele“? Was unterscheidet meine Seele von meinem Geist? Hm, schwer, tiefes Fahrwasser.

Die Seele hat was mit meinem Kern zu tun, meinem Selbst, meiner Potenzialität, also der inneren und äußeren Person, die ich in Zukunft sein werde. In der Literatur ist man sich einigermaßen einig, dass Seele die „Einheit“ aus körperlichen, geistigen, emotionalen, willentlichen und anderen Facetten ist. Aber: Wie kann diese „Einheit“ „baumeln“?

Vielleicht geht es beim Baumeln nicht um ein Hin und Her, vielleicht geht es auch gar nicht so sehr um Ruhe. Wie wäre es, wenn wir die Metapher von der baumelnden Seele als ein „Spiel mit meinem (potenziellen) Selbst“ deuten? Wenn wir durch das Spielen dazu beitragen können, dass die unterschiedlichen und unverbundenen Facetten meines Selbst „zu einer Einheit zusammenfinden“. Das wäre eine hochaktive Tätigkeit, nur eben frei von jeglicher Art von Fremdbestimmung!

Gibt es am Ende also eine Alternative zum Bild der „baumelnde Seele“? Ich werde es mit einem Kreisel versuchen, einer zentrierenden, sich selbst stabilisierenden Drehbewegung. Also, „lass die Seele kreisen“, klingt sehr ähnlich, aber vielleicht führt uns das Bild vom Kreisel und dem Selbst-Spiel in ein anderes Fahrwasser.

Deskilling durch KI: Nach dem rasanten Rauf geht es runter

Über den KI-Einsatz (Chat-GPT) in Bildungsorganisationen (Schule, Hochschule, Berufsbildung) wird aktuell viel spekuliert und das ist gut so! Wie anders sollte man sich dem Thema auch nähern als durch Erproben, Reflexion und mehr oder weniger spekulative Gedankenexperimente (Was-wäre-wenn?). Für Empirie und gesicherte Erkenntnis rollt der Zug zu schnell; die normative Frage, was wir denn von der Bildung im KI-Zeitalter wollen, wird auffallend dünn beantwortet.

Ich selbst habe gegenüber der KI ein ambivalentes Verhältnis. Das sagt man genau dann, wenn man auf der einen Seite seine Neugier nicht zügeln kann und bereitwillig mit den neuen Möglichkeiten experimentiert, auf der anderen Seite aber genau in dieser Tat die Bedingung sieht, die hochskaliert auf Millionen von Nutzerinnen weltweit in ein soziales Dilemma führen könnte.

In meinen ersten Beratungssituationen zum Thema, also zur Frage „was man von KI im Kontext von Bildung halten soll?“ nutzen Kunden immer gerne die Werkzeugmetapher. Sie sagen: „KI ist wie ein Werkzeug, ähnlich dem Taschenrechner. Da gab es auch große Befürchtungen, dass die Nutzung zu einer mathematischen Verdummung führe.“

Ich will da mal ansetzen: Ist KI ein (isoliertes) Werkzeug oder eine (globale) Social-Plattform oder eine (unhintergehbare) Kulturtechnik oder noch was anderes? Ich glaube nicht an die Werkzeugmetapher. Wir nutzen sie nur gerne, weil wir das Neue immer mit den Alten erklären und sie uns emotional beruhigt. Alles beim Alten. KI ist aber mehr: Die lokale Wirkung ist atemberaubend, ich will mehr, will mich entlasten, hier ein Konzeptvorschlag, da ein schwieriger Brief. Der Reiz, mich unterstützen zu lassen, wächst mit jedem guten „Dialog“, den ich abgeschlossen habe. Ein still wachsendes Vertrauen in meinen neuen Dialogpartner entsteht in ähnlicher Weise wie das blindes Vertrauen in das Navigationsgerät, das mich seit Jahren an jeden Ort der Welt führt. Was ist da los?

Meine These ist steil, aber ich spreche sie mal aus 😊. In den nächsten fünf Jahren werden wir einen atemberaubenden Anstieg in der Produktivität von Lehrpersonen erleben, allesamt ExpertenInnen ihres Faches mit hoher Urteilskompetenz. Sie haben das Vermögen zum gezielten Prompting, sie werden die Ergebnisse kritisch beurteilen können, sie werden die Streu vom Weizen trennen. Läuft! In den weiteren fünf Jahren (ich denke in 5-Jahresschritten, ehe die nächste Mikrogeneration nachwächst) kommt es zu einer Abflachung der Produktivitätskurve: Diese Generation hat schon KI intensiv beim Aufbau der eigenen Expertise genutzt und dabei versäumt, sich selbst tief in Sprache einzuüben; KI wirkt als Organersatz. In den Folgejahren – und wir reden hier von den KI-Möglichkeiten in 15 Jahren, das sind Lichtjahre – wachsen Generationen auf und nach, denen es wahrscheinlich so geht wie den beiden jungen Fischen im Wasser: Ein alter Fisch kommt vorbei geschwommen und fragt: „Na Jungs, wie ist heute das Wasser?“ Die jungen Fisch: „Wovon sprichtg er?“ … Junge Menschen der Zukunft werden die KI nicht mehr sehen (können), sie sind „embedded“, eingetaucht, verschmolzen mit einer KI-gestützten und -generierten „Realität“ (was das wohl sein wird), von dem sich unser heutige „Naturzustand“ qualitativ unterscheidet. Und für diese Zeit könnte es einen Absturz der Produktivität geben, obwohl die Nutzung von KI für Lehrzwecke zum Standard gehört. Warum? Weil mit jeder KI-Antwort das Sprachvermögen geschwächt wird, so dass man sich, um ein gewisses Niveau zu halten, immer mehr KI Unterstützung holen muss. Systematische Entlastung führt zur Erosion meines Sprachvermögens.   

So könnte es kommen.

Es sei denn, wir entscheiden uns – uns zwar jeder Lehrende – dafür, Sprache und Denken (zwei Seiten einer Medaille) weiterhin auf einem hohen Niveau zu trainieren, ganz bewusst ohne KI-Unterstützung oder in einer Form, die das Denken und die Sprache auf einem neuen Niveau und in einer hohen Qualität anstachelt! Dafür brauchen wir eine tragfähige Idee und geeignete Trainings- und Übeorte und vielleicht auch einen Bereich in unserem persönlichen Portfolio, den wir „Eigenleistung“ nennen und auf den wir auf magische Weise stolz sind.

Liebesbriefe im KI-Zeitalter

In der Neuen Züricher Zeitung stellt der Rechtswissenschaftler Richard Susskind in einem lesenswerten Beitrag u.a. fest: Wieso sind wir hier? Was heißt das für uns, wenn fast alles, was wir können, auch von einer Maschine erledigt werden kann?“ Das ist also die Frage: Wieso sind wir hier? Auf was können wir „stolz“ sein? Was ist das „Eigene“, wenn bei jedem (Denk)schritt Maschinen helfen? „Eigenleistung“ (Lenk) – für mich ein Referenzbegriff in der noch jungen KI-Bildungs-Grundsatzdiskussion, einer Diskussion jenseits guten Promptings.

Was ist das nun, das Eigene? Ich möchte das am Beispiel eines Liebesbriefs skizzieren. Liebesbriefe? In früheren Zeiten schrieb man der oder dem Geliebten einen handschriftlichen Brief, in dem man seine Zuneigung zum Ausdruck brachte. Das Schreiben war von der Hoffnung getragen, dass das, was man da zu Papier brachte, auf Gegenliebe stoßen möge. Das Problem an diesen Briefen war, dass sie sehr schwer zu schreiben waren, denn das, was man unscharf fühlte, war nicht in Worte zu fassen, und das, was man bereits auf Papier gebracht hatte, klang unendlich lächerlich. Bei ganz viel Mut schickte man den Liebensbrief dennoch mit der gelben Post ab und in der Regel wurde dieser vom Empfänger geschätzt, auch wenn das, was da stand, von einem Dreijährigen hätte stammen können. Wie kann das sein?

Es kam nicht so sehr darauf an, WAS im Brief stand, sondern: zum einen auf den Effekt, was die teils wochenlangen Wortfinde-Versuche mit einem selbst machten, zum anderen auf die vorweggenommene Reaktion: Es war dem Empfänger (vermutlich) klar, dass die Überwindung der Angst – das Coming-out – der eigentliche Zweck des Briefes war, und da schaut man gerne über holprige Formulierungen hinweg.

Was hat das mit KI zu tun? Ich glaube, im Zeitalter von KI werden Liebesbriefe, sofern man sich heute dieser Strategie noch bedient, anders ausfallen: „ChatGPT, bitte erstelle mir einen Liebesbrief für eine Frau mittleren Alters, spreche nicht zu gestellt, schreibe nicht mehr als eine Textseite und benutze Sprachbilder, die meine positiven Gefühle ausdrücken.“ Mit einem Klick hat man zumindest eine erste Vorlage, die man nach eigenen Gutdünken verbessern kann. Nach 5 Minuten könnte der Brief in der Post liegen. Der Empfänger würde sich beim ersten Lesen vielleicht über die geschliffene Sprache wundern, den Verdacht hegen, dass sich der Geliebte von ChatGPT hat helfen lassen. Damit stünde die Wirkung in Gefahr: Nicht die bebend-unsichere Stimme des Liebessuchenden spräche da, sondern die Duden-sicheren Worte einer Maschine, der sich der Autor wie ein Stützrad bedient. Und ja, natürlich könnte ich ChatGPT bitten, eine „Portion Unsicherheit“ in den Text zu bringen. Die Co-Leistung bliebe unentdeckt. Nur, was wäre mit mir? Hätte dieser Brief mich verändert? Könnte ich stolz sein?

Was beim Liebensbrief wie durch ein Brennglas erscheint, ist für mich ein Problem der KI-Bildungszukunft. Wie stolz können wir auf etwas sein, was wir nur mit ordentlicher Unterstützung haben produzieren können? Wo bleibt da der Sinn, die Eigenleistung oder mit Deci/Ryan, das Kompetenzerleben?

Ich denke, in einer Welt fortgeschrittener KI-Unterstützung wird es eine Wiedergeburt der Eigenleistung, der Echtheit, des Authentischen geben. Für mich ist das der Punkt, wo wir nochmal die Bildungsfrage neu stellen werden: Was will ICH wirklich lernen? Zu was will ich mich BILDEN? Im Portfolio der Zukunft werden solche KI-freien Eigenleistungen gesammelt wie Trophäen, ich wette!

Noch eine Didaktik?

Man kann sich ja fragen: „Braucht es das?“ Und ja, man braucht sie, diese Wissenschaftsdidaktik, die in den 1970er Jahren im Kreis von v. Hentig erfunden wurde, die in den interdisziplinären Zentren für Hochschuldidaktik der 1990 still anwesend war und die jetzt wieder zum Thema gemacht wird. Antreiber dieses Neuanlaufs sind Gabi Reinmann und Rüdiger Rhein, die in den letzten zwei Jahren drei Sammelbände zur Wissenschaftsdidaktik auf den Weg gebracht (Band 1, Band 2) und damit das verdichtet haben, was man aktuell unter Wissenschaftsdidaktik verstehen möchte, nämlich: eine Didaktik, die sich von den heterogenen Fachdisziplinen her entwickelt, eine Didaktik, die sich des wissenschaftskulturellen Hintergrunds im Vermittlungsakt bewusst ist, eine Didaktik, die gerade für nicht explizit pädagogisch geschulte Hochschulmitglieder, z.B. Matheprofessorin oder Soziologieprofessor, zum zentralen Selbstverständnis gehört. Kurz: Wissenschaftsdidaktik ist spezifisch!

Um sich auch synchron über diese „Spezifika“ der Wissenschaftsdidaktik auszutauschen, fand letzte Woche an der Universität Hamburg auf Einladung von Reinmann/Rein ein kleines Symposium statt. Mit ca. 20 Personen aus Universitäten, Hochschulen, Stiftung und EdTech war die Veranstaltung „bunt“ besetzt. Inhaltlich ging es mit Fragen wie diesen hoch her: Ist Wissenschaft ohne Disziplinen lehrbar (Ines Langemeyer)? Was ist das Verbindende aller Disziplinen (Uwe Fahr)? Was sind fachkulturelle Irritationsmomente (Tobias Jenert & Ingrid Scharlau)?

Am Ende stand die Frage im Raum, wie es denn jetzt weiter gehen solle. Mit einer „Reanimation“ der Vergangenheit oder einem „Relabeling“ von Hochschuldidaktik als Wissenschaftsdidaktik ? Oder müssen wir nochmal ganz anders denken, um die fraglosen Potenziale der Wissenschaftsdidaktik wirksamer in das System Hochschule einzubinden? Letzteres ist ein Punkt, den ich interessant finde und den Gabi und ich auch in einem eigenen Beitrag (Band 3) verfolgen, z.B. durch die Einrichtung von „verteilten Lehrlaboren“, in denen Lehrende freier und ohne Wettbewerbsdruck experimentieren können. Mehr institutionelle Freiheit, mehr kollegiales Experimentieren und mehr fachkulturelle Spezifik (vgl. Gespräch hier) – im Zeitalter des formalen „Overscripting“ und der sich anbahnenden KI-Welle kein schlechter Ansatz.

Völlig Blank

Harald Martenstein skizziert in seiner aktuellen ZEIT-Kolumne eine finanzielle Notlage. Er war Anfang Mai allein in die USA gereist, hatte seine Kreditkarte dummerweise überzogen, noch 130 Dollar in der Tasche und den Rückflug nach Deutschland in vier Tagen vor Augen: Wie übersteht man vier Tage „fast ohne Geld“? In seiner Geschichte erfährt man, dass er nur aufgrund vieler guter Menschen und Zufälle über die Runde gekommen ist: Der Mann in der Wechselstube, der ihm die Servicegebühr erlässt, der Taxifahrer, dem 13 Dollar statt 20 reichen, das Hotel, dass nur 45 Dollar kostet etc. Er sinniert: Wenn mir die Menschen nicht geholfen hätten, wenn ich kein Glück gehabt hätte, dann…

Martenstein macht klar, dass diese Episode in seinem Leben nicht dramatisch war, an sich eine Lappalie. Aber: Dieser „Hauch der Scham“, diese „Millisekunden der Not“, diese „Zentimeter am Abgrund“ machen ihm wieder bewusst(er), was Armut heißen kann.

„Hauch der Scham“, … Danke Herr Martenstein.

KI und Frieden?!

Ostern gilt gemeinhin dem Frieden. Aber so ganz will dieses Jahr keine Friedenstimmung aufkommen. Zu viel Unstimmigkeit und Elend in der Welt. Neben den bekannten Großbaustellen (Krieg, Hunger, Klima, Unterdrückung etc.) treibt mich dieses Jahr das Thema KI um. KI und Frieden? Ja, dass wäre kein schlechtes Begriffspaar, wäre da nicht eine klaffende Leerstelle. Zu dieser Leerstelle passte ein Podcast von Gunter Dueck und Normann Müller: KI trifft auf gesunden Menschenverstand. Angeregt durch einen kleinen Kommentarwechsel (auf LinkedIn) mit Herrn Dueck sind drei grundsätzliche Fragen entstanden, auf die ich eine Antwort versuche.  

Meine erste Frage ist: Was unterscheidet den KI-Ansatz von bisherigen „Tools“?

Normalerweise müsste man jetzt definieren, was KI „ist“. Das füllt Bände und führt nicht zur Klärung. Ich konzentriere mich also auf mein Vorverständnis und eine Prognose: Das jetzige (erlebbare) Potenzial von ChatGPT (einer massentauglichen Spielart von KI) wird sich qualitativ ausweiten (vgl. GPT-4) Bisherige Werkzeuge in der Bildung (Taschenrechner, Internet, Mikroskop) hatten alle eine bestimmte Funktion: Der Taschenrechner hilft mir, komplizierte Rechenroutinen zu umgehen, das Internet hilft mir, Wissensbestände aus entfernten Datenbanken zu nutzen, und das Mikroskop hilft mir kleine Objekte zu sehen, die ich mit bloßem Auge nicht wahrnehmen kann. Der Anthropologe Arnold Gehlen hat die Technik – allgemein gesprochen – als Mittel der Organverstärkung, des Organersatzes und der Organentlastung charakterisiert. Organverstärkung und Organentlastung sind gute Gründe, warum man Technik in der Bildung einsetzen sollte, natürlich auch nur dann, wenn der Einsatz des Taschenrechners nicht dazu führt, dass man die „Idee des Rechnens“ nicht versteht; man muss also unterscheiden zwischen einer Prozesseffizienz und einer didaktischen Funktion. Nicht alles, was mich entlastet, ist didaktisch sinnvoll!

Unbestreitbar ist, dass KI-gestützte Angebote (wie z.B. ChatGPT) vordergründig und unmittelbar AUCH Entlastungs- und Verstärkungsfunktionen übernehmen, deshalb stürzen sich alle offenherzig darauf: Schreiben von Hausaufgaben, Erstellen von Liebesbriefen, Entwerfen von Designvorlagen, also alles, was man nicht kann oder schwer ist, wird per Klick bestellt. Übrig bleibt, den „Rohentwurf“ mehr oder weniger nach eigenen Vorstellungen zu „personalisieren“. Klingt verführerisch gut, oder? ABER: Sieht man, dass KI gestützte Angebote sowohl auf der Ebene der Zahlen, auf der Ebene der Sprache und auf der Ebene der Modellierung (drei Weisen der Episteme) belastbare und originelle Ergebnisse in kurzer Zeit für jedermann und jederzeit liefern, dann läuft der Einsatz in der Bildung Gefahr, dass diese Technik – um mit Gehlen zu sprechen – zum Organersatz führen kann. Die Menschen verlernen (deskilling) oder lernen gar nicht mehr die Basisoperationen, sondern nur noch „höhere Kompetenzen“, wie prompting etc. Ist Höhe ohne Basis möglich? Zudem: Rechnen, Sprache, Modellierung sind nicht nur Erkenntnisvermögen, sondern „Welt- und Selbstzugänge“. Hier steht das in Gefahr, was wir Identität (Wie ich mich als besonderer Mensch stabilisiere) nennen, graduell zumindest.

Meine zweite Frage ist: Tragen wir für den Bereich „Bildung“ eine besondere Verantwortung?

Lässt man die obige Antwort unwidersprochen, dann erwächst daraus unmittelbar eine Verantwortung genereller Art: Es geht zunächst darum, zu begreifen, dass die Einführung von KI in der Bildung hohe Implikationen darauf hat, was genuiner Bildungsauftrag ist: Menschen bilden und Menschen darin unterstützen, sich zu bilden! Und genau das führt uns dringlicher und radikaler als früher zu der Frage: Was wollen wir in Zukunft als schützenswert „menschlich“ gelten lassen? Was sind leitende Werte, die eine Grenze zwischen menschlich und nicht-menschlich markieren? Wie lassen sich diese Werte gegenüber KI-gestützten Methoden aller Art operationalisieren? Mit welchen Institutionen (z.B. Gesetz oder Markt) wollen wir den Grenzverkehr schützen? Ist der Staat in der Lage oder willens eine steuernde Verantwortung zu tragen (vgl. Interessensdilemma bei der Erstellung der KI-Richtlinien für die EU) oder ist ein System von verteilter Verantwortung mit Stärkung der lokalen Verantwortung (in Schule, Hochschule, Betrieb) vielversprechender? Wie auch immer hierauf die Antworten aussehen, mit einer „vollständigen Umarmung der KI im Bildungsbereich“ machen wir etwas, was man sich bei der Einführung von neuen Impfstoffen (Achtung Analogie) nicht trauen würde: einfach machen, ohne Sicherung, Eingriffe in die DNA, in die Gesundheit des Menschen.  

Meine dritte Frage ist: Welche ethischen Werte bieten mir „provisorische Leitlinien“ für ein unternehmerisches Experimentieren/Entscheiden/Handeln?

Werte sind für uns Ghostthinker handlungsleitend. Warum? Wir haben schon mal einen größeren Auftrag eines Waffenherstellers zur Unterstützung eines Lernszenarios abgelehnt, weil der Auftrag gegen unsere Werte verstoßen hätte. Werte sind also (knall)harte Ausschlusskriterien, nix Weiches. Was ist nun mit dem Thema Werte im Kontext von KI? Während der Auftragsabsage an die Waffenindustrie zum damaligen Zeitpunkt für uns eindeutig richtig war (man sieht aber im Russland-Ukrainekrieg wie schnell die Eindeutigkeit schwindet oder aus grün olivgrün wird), ist es mit der KI „ambivalent“: Wir können unsere Video-Annotationstechnologie, die wir zur Handlungsreflexion und  gegenseitiger Verständigung einsetzen, ganz wunderbar durch maschinelles Lernen ergänzen und dadurch den sozialen Austausch fördern oder Betreuungsprozesse durch automatisiertes Feedback effizienter machen. Wir könnten aber auch „nein“ sagen zu all dem und auf „rich relationship“ setzen, auf menschliches Feedback im Zeitalter der „Automatisation“ und damit auf eine KI-freie Zone, die dann attraktiv wird, wenn einem aus jedem Video „Kunstwesen“ einwandfreie Antworten liefern und sich Kunden angewidert (wegen eines „Gefühls“) abwenden. Oder wir setzen auf eine Mischung aus Menschen und KI, wie immer die im Detail aussehen mag. Und bei all diesen Möglichkeiten (hier drei Blickrichtungen), ist zu fragen: Welche Werte, welche ethischen Leitlinien, mögen sie auch provisorisch sein, sollen uns leiten? Richten wir unsere Leitlinien danach aus, was sich am Ende verkaufen lässt? Oder verkaufen wir überhaupt nur etwas, WEIL wir von etwas überzeugt sind, WEIL wir ein wertebasiertes Produkt haben?

Wahrscheinlich gibt es in Zukunft einen Markt für alle drei Blickrichtungen: (a) Kunden, die den aller besten Service und Antworten für geringes Geld haben wollen, egal wo es herkommt, Kunden, die eine KI-freie Lernumgebung aus Überzeugung wollen und Kunden, die ein Optimum aus Verantwortungs-, Partizipations- und Transparenzwerten (wir sind die Guten) mit Nutzungswerten (will viel und leicht lernen) und angemessenen Kosten haben wollen. Diese drei Fragen und die Antwortsuche werden uns bei Ghostthinker noch weiter auf Trab halten.

Schließlich treibt mich noch ein ganz anderes, bisher vielleicht nur implizit genanntes Thema: Die weltumspannende Aktivitäten rund um KI in allen (!) Sektoren (Finanzen, Staat, Produktion, Dienstleistung, Bildung etc.) mit fast unbegrenzten Finanzmitteln verläuft in der Struktur eines „sozialen Dilemmas“: Jeder Einzelne (Person, Organisation, Staat) will seinen individuellen Nutzen maximieren (Erfolgsmantra) und genau das führt auf der Ebene des Kollektivs und der Weltgemeinschaft zu irreparablen Schäden. Schnell einsichtig wird das beim Thema Klima – jeder ein SUV, weil’s praktisch ist, insgesamt stehen wir aber im Stau (kurzfristig blöd) und schädigen langfristig das Klima (langfristig Katastrophe). Man kann das auch in der KI-gestützten Finanzindustrie studieren, wo Maschinen Finanzströme von Aktienfonds und ganzen Volkswirtschaften optimieren (wollen wir alle), ohne dass der Mensch noch kapiert, was da vor sich geht, ohne dass der Mensch den Stecker ziehen kann (will keiner). Das Wesen der KI besteht im Kern darin, „chaotisch“ zu sein, nicht transparent. Darin liegen das Wohl und Wehe. Sorge macht der Umstand, dass keine Institution in Sicht ist, die das Thema KI auch nur in irgendeiner Weise reguliert. Ohne Regelung aber ist alles möglich.

Leben

„Einer muss der Erste sein…“, sagt man. Im frühen Frühjahr, wenn der Winter in den letzten Atemzügen liegt, dann kommen wir. Doch wann genau das ist, weiß keiner von uns. Wir spüren: „Jetzt!“. Dann stecken wir unsere bunten Köpfchen durch den Winterboden, raus ins kalte Nass. Wenn wir Glück haben, hilft uns die Sonne, die den Schnee vertreibt. In den wenigen Tagen unseres Lebens rufen wir mit lauter Stimme: „Kommt heraus, ihr Blumen, ihr Bäume und Bienen, kommt heraus, es ist Frühling!“ Und dann ist es wie jedes Jahr, die Blumen, Bäume und Bienen antworten im Chor: „Es ist noch viel zu kalt, wir haben Angst, wir werden sterben!“ Doch wir rufen weiter, mit heiserer Stimme: „Kommt heraus, kommt heraus, es ist Frühling, die Sonne ist da!“ Und während wir ein letztes Mal rufen, erschlafft und müde: „Kommt heraus, kommt heraus, es ist warm“, … da kommen die ersten Blumen, die ersten Bäume und die ersten Bienen. Und langsam, Schritt für Schritt, füllen sich die Wiesen, die Wälder, die Weiden … mit Leben: Fröhliche Farben, lautes Summen und kraftvolles Rauschen. Wir sind die Ersten, die das Leben ankündigen, wir sind die Ersten, die wieder gehen. Wir sind die Krokusse. Im nächsten Jahr kommen wir wieder, bestimmt.

ChatGPT und Werte: Was würde Data sagen?

Vor gut 10 Jahren habe ich eine Rezension zum Buch von Karen Gloy verfasst, die im Wiener Jahrbuch für Philosophie auch veröffentlicht wurde: Es ging um das Thema „Wahrnehmungswelten“, also etwas typisch Menschliches, was Gloy im Kontrast zum Maschinellen abgrenzte. Was war da naheliegender, als mit „Data“ aus Star Trek einzusteigen. Wir erinnern uns, Data – der Androide, der nur eines im Sinn hatte: Er (die Maschine) wollte menschlich werden! Ich kann also sagen, dass mich dieses Mensch-Maschine-Verhältnis immer schon interessierte und Data bot mir anschauliche Gedankenexperimente zur Frage: Was ist das denn –  menschlich? Und was daran ist erstrebens- und damit schützenswert?     

Mit ChatGPT sind wir schneller als gedacht an den „Anfang der Geschichte“ angekommen. Zwar gibt es 2023 noch lang keine Androiden (erste Gehversuche hier oder GPT & Robots), aber die Tür zu einer „disruptiven“ Entwicklung ist geöffnet: Goldgräberstimmung, globaler Wettbewerb, Kapital und endlos viele (hilfreiche wie bedrohliche) Anwendungen. Was braucht man mehr?!

In der aktuellen Diskussion zu ChatGPT im Kontext Bildung (Schule, Hochschule, Corporate Learning) überwiegen die optimistischen Stimmen. Es soll experimentiert werden! Dem folge ich, denn wie sollte man anders die Chancen und Grenzen von der KI im Bildungskontext ausloten? Was wir aber neben Experimentierfreude AUCH brauchen, ist eine Diskussion über Werte. Ehe das als „Spaßbremse“ oder gar als „Blauäugigkeit“ missverstanden wird: Die Diskussion über Werte hat nicht die Primärfunktion, uns vor der „KI zu schützen“ (Bollwerk Werte), sondern darum, worum es Data (s.o.) immer ging, um die Frage, wie wir uns im Zeitalter von KI und (totaler) Simulation als Menschen (!) definieren wollen. „Kreative Originalität“ (nach der jetzt alle rufen) steht zumindest auf dem Prüfstand, wenn man sich die Ergebnisse aktueller KI-Anwendungen in Text, Bild, Video und 3D anschaut.

Gabi hat sich in einem Artikel (Impact Free) dem Thema angenommen. Es ist ein erstes, lautes Nachdenken (zaghaft und tastend also) mit Hochschulbezug. Aber mit der Frage „Wozu sind wir hier?“ macht sie den Anspruch, die Fragerichtung, deutlich. Es geht um Selbstvergewisserung, Grundfragen und vorläufige Antworten. Antworten sehen anders aus, wenn man sie (mit)verantwortet.

ChatGPT und Critical Thinking als Zaubertrank

Die Bildungslandschaft ist durch ChatGPT in Aufruhr. Laut nachgedacht wird über den Einsatz von ChatGPT bei der Aufgabenerstellung und Aufgabenlösung, im Lernprozess und bei Prüfungen. Während die einen die neuen Möglichkeiten euphorisch ausloten, sind andere kritisch bis ablehnend. Auch Verbote werden ausgesprochen. Was sagt uns das?

ChatGPT „macht“ etwas mit unserem Bildungssystem, mit den Menschen, die darin wirken, mit deren Selbstverständnis und deren Routinen. Und das ist gut so, denn Reformen sind gefühlt noch nie „aus dem Inneren“ der Bildung gekommen, sondern durch Politik und Wirtschaft, also von „außen“ angestoßen, vielleicht auch „über Bande“ diktiert worden (vgl. Pisa, Bologna etc.).

Nun ist eine Reform aber kein Selbstzweck, sondern eine Antwort auf neue Anforderungen, die die Gesellschaft an das Bildungssystem stellt. Weil die Zukunft (die immer mit der Gegenwart beginnt) andere Anforderungen an MitarbeiterInnen hat als noch vor 50 Jahren, verlangt man von den Schulen und Hochschulen Anpassungen: AbsolventenInnen sollen fachkompetent sein, logo, vor allem aber kommunikativ, empathisch, kreativ, sie sollen sich in (MS)Teams wohl fühlen, um Probleme der Gesellschaft zu lösen. All diese an die Zukunft angepassten Eigenschaften nennt man „future skills“ (vgl. Ulf Ehlers) und wer will und vor allem kann dazu schon nein sagen?!

Was man jetzt im Zuge von ChatGPT immer stärker hört (z.B. hier), ist die Forderung nach „critical thinking“, ein wichtiger, wenn nicht zentraler Teil der future skills. Die Argumentation geht in etwa so: Wenn ChatGPT alle Prozesse der Wissens- und Produkterstellung „unterstützen“ kann, dann wird genau das passieren (~ Murphys Gesetz). Wenn es passiert, dann müssen die Menschen gut (~ kritisch) darin sein, (a) zu begründen, warum sie eine KI verwenden, (b) auszuwählen, welche KI sie nutzen, (c) wie sie die KI richtig verwenden und (d) mit welchen technisch-psychologischen Strategien sie sich gegen Fakes aller Art schützen. Die Tatsache, dass nicht mehr nachprüfbar ist, ob der Zuwachs an Wissen dem Autor oder dem Chatbot zuzurechnen ist, ist ein Problem, was uns aktuell nur deshalb so große Bauchschmerzen macht, weil es ins Herz unseres selbst verschuldeten Selektionsauftrags hineinragt.

Was ist aber nun dieses „critical thinking“, dieser Zaubertrank, welcher uns im Zeitalter der KI stark machen soll? Zum einen hat diese Denkform und Haltung etwas mit Distanznahme zu tun: sich von Informationen, Personen, Organisationen nicht einwickeln lassen, Abstand halten können zwischen dem „Ich“ und dem „Anderen“, um z.B. Täuschung zu erkennen. Das ist kognitiv, emotional und willensmäßig anspruchsvoll – im Zeitalter der Simulation eine große, vielleicht auch unmögliche Herausforderung. Zum anderen hat diese Denkform und Haltung etwas mit Zupacken zu tun: sich mit Elan und Verve einer Sache verschreiben, im Team unternehmerisch sein, was nicht zwingend was mit Geldverdienen zu tun hat, sich anstrengen und schmutzig machen, auch auf die Gefahr hin, dass man Schaden nimmt oder gar scheitert!

„Distanznahme“ und „Zupacken“, ein Widerspruch? Ich glaube nicht, eher etwas, was sich gegenseitig bedingt und konstituiert, in jedem Fall aber ein voraussetzungsreiches Ziel bzw. voraussetzungsreiche Ziele. Um solche Ziele annährend zu erreichen, braucht man geeignete Lern- und Lebensorte, z.B. Hochschulen. Hochschulen in Zeiten von KI werden anders sein müssen als die heutigen. Mit ein wenig „KI-Anwendung“ (wie kreativ auch immer) ist es eben gerade NICHT getan oder noch stärker: Damit dürfte die genuine Idee der Hochschule – als besondere Orte, die sich eine Gesellschaft leistet – verfehlt sein. Zieht man die beiden Zauberwörter Distanznahme und Zupacken nochmal heran, dann gilt es doch zunächst, nach der Schule die Distanzahme zu üben, d.h. sich auf die Antwortalternativen zu konzentrieren, welche die Hochschule und nur die Hochschule hervorbringen kann. In Kürze: Nur durch Distanznahme ist ein akademisches „Zupacken“ möglich und auch das muss man üben!

ChatGPT wird uns dazu zwingen, noch mal neu über Bildung nachzudenken, radikaler als früher. Hochschulbildung, vor allen Lehrerinnenausbildung, Managementausbildung und Ingenieursausbildung, stehen dabei in besonderer Verantwortung. Sie brauchen eine starke Idee, welche die Reform von innen vorantreibt, proaktiv, ohne die Stimmen der Außenwelt zu ignorieren.