Blog2024-06-21T12:20:22+01:00

Liebesbriefe im KI-Zeitalter

In der Neuen Züricher Zeitung stellt der Rechtswissenschaftler Richard Susskind in einem lesenswerten Beitrag u.a. fest: Wieso sind wir hier? Was heißt das für uns, wenn fast alles, was wir können, auch von einer Maschine erledigt werden kann?“ Das ist also die Frage: Wieso sind wir hier? Auf was können wir „stolz“ sein? Was ist das „Eigene“, wenn bei jedem (Denk)schritt Maschinen helfen? „Eigenleistung“ (Lenk) – für mich ein Referenzbegriff in der noch jungen KI-Bildungs-Grundsatzdiskussion, einer Diskussion jenseits guten Promptings.

Was ist das nun, das Eigene? Ich möchte das am Beispiel eines Liebesbriefs skizzieren. Liebesbriefe? In früheren Zeiten schrieb man der oder dem Geliebten einen handschriftlichen Brief, in dem man seine Zuneigung zum Ausdruck brachte. Das Schreiben war von der Hoffnung getragen, dass das, was man da zu Papier brachte, auf Gegenliebe stoßen möge. Das Problem an diesen Briefen war, dass sie sehr schwer zu schreiben waren, denn das, was man unscharf fühlte, war nicht in Worte zu fassen, und das, was man bereits auf Papier gebracht hatte, klang unendlich lächerlich. Bei ganz viel Mut schickte man den Liebensbrief dennoch mit der gelben Post ab und in der Regel wurde dieser vom Empfänger geschätzt, auch wenn das, was da stand, von einem Dreijährigen hätte stammen können. Wie kann das sein?

Es kam nicht so sehr darauf an, WAS im Brief stand, sondern: zum einen auf den Effekt, was die teils wochenlangen Wortfinde-Versuche mit einem selbst machten, zum anderen auf die vorweggenommene Reaktion: Es war dem Empfänger (vermutlich) klar, dass die Überwindung der Angst – das Coming-out – der eigentliche Zweck des Briefes war, und da schaut man gerne über holprige Formulierungen hinweg.

Was hat das mit KI zu tun? Ich glaube, im Zeitalter von KI werden Liebesbriefe, sofern man sich heute dieser Strategie noch bedient, anders ausfallen: „ChatGPT, bitte erstelle mir einen Liebesbrief für eine Frau mittleren Alters, spreche nicht zu gestellt, schreibe nicht mehr als eine Textseite und benutze Sprachbilder, die meine positiven Gefühle ausdrücken.“ Mit einem Klick hat man zumindest eine erste Vorlage, die man nach eigenen Gutdünken verbessern kann. Nach 5 Minuten könnte der Brief in der Post liegen. Der Empfänger würde sich beim ersten Lesen vielleicht über die geschliffene Sprache wundern, den Verdacht hegen, dass sich der Geliebte von ChatGPT hat helfen lassen. Damit stünde die Wirkung in Gefahr: Nicht die bebend-unsichere Stimme des Liebessuchenden spräche da, sondern die Duden-sicheren Worte einer Maschine, der sich der Autor wie ein Stützrad bedient. Und ja, natürlich könnte ich ChatGPT bitten, eine „Portion Unsicherheit“ in den Text zu bringen. Die Co-Leistung bliebe unentdeckt. Nur, was wäre mit mir? Hätte dieser Brief mich verändert? Könnte ich stolz sein?

Was beim Liebensbrief wie durch ein Brennglas erscheint, ist für mich ein Problem der KI-Bildungszukunft. Wie stolz können wir auf etwas sein, was wir nur mit ordentlicher Unterstützung haben produzieren können? Wo bleibt da der Sinn, die Eigenleistung oder mit Deci/Ryan, das Kompetenzerleben?

Ich denke, in einer Welt fortgeschrittener KI-Unterstützung wird es eine Wiedergeburt der Eigenleistung, der Echtheit, des Authentischen geben. Für mich ist das der Punkt, wo wir nochmal die Bildungsfrage neu stellen werden: Was will ICH wirklich lernen? Zu was will ich mich BILDEN? Im Portfolio der Zukunft werden solche KI-freien Eigenleistungen gesammelt wie Trophäen, ich wette!

Von |4. Juni 2023|Kategorien: Allgemein|Schlagwörter: , , , |Kommentare deaktiviert für Liebesbriefe im KI-Zeitalter

Noch eine Didaktik?

Man kann sich ja fragen: „Braucht es das?“ Und ja, man braucht sie, diese Wissenschaftsdidaktik, die in den 1970er Jahren im Kreis von v. Hentig erfunden wurde, die in den interdisziplinären Zentren für Hochschuldidaktik der 1990 still anwesend war und die jetzt wieder zum Thema gemacht wird. Antreiber dieses Neuanlaufs sind Gabi Reinmann und Rüdiger Rhein, die in den letzten zwei Jahren drei Sammelbände zur Wissenschaftsdidaktik auf den Weg gebracht (Band 1, Band 2) und damit das verdichtet haben, was man aktuell unter Wissenschaftsdidaktik verstehen möchte, nämlich: eine Didaktik, die sich von den heterogenen Fachdisziplinen her entwickelt, eine Didaktik, die sich des wissenschaftskulturellen Hintergrunds im Vermittlungsakt bewusst ist, eine Didaktik, die gerade für nicht explizit pädagogisch geschulte Hochschulmitglieder, z.B. Matheprofessorin oder Soziologieprofessor, zum zentralen Selbstverständnis gehört. Kurz: Wissenschaftsdidaktik ist spezifisch!

Um sich auch synchron über diese „Spezifika“ der Wissenschaftsdidaktik auszutauschen, fand letzte Woche an der Universität Hamburg auf Einladung von Reinmann/Rein ein kleines Symposium statt. Mit ca. 20 Personen aus Universitäten, Hochschulen, Stiftung und EdTech war die Veranstaltung „bunt“ besetzt. Inhaltlich ging es mit Fragen wie diesen hoch her: Ist Wissenschaft ohne Disziplinen lehrbar (Ines Langemeyer)? Was ist das Verbindende aller Disziplinen (Uwe Fahr)? Was sind fachkulturelle Irritationsmomente (Tobias Jenert & Ingrid Scharlau)?

Am Ende stand die Frage im Raum, wie es denn jetzt weiter gehen solle. Mit einer „Reanimation“ der Vergangenheit oder einem „Relabeling“ von Hochschuldidaktik als Wissenschaftsdidaktik ? Oder müssen wir nochmal ganz anders denken, um die fraglosen Potenziale der Wissenschaftsdidaktik wirksamer in das System Hochschule einzubinden? Letzteres ist ein Punkt, den ich interessant finde und den Gabi und ich auch in einem eigenen Beitrag (Band 3) verfolgen, z.B. durch die Einrichtung von „verteilten Lehrlaboren“, in denen Lehrende freier und ohne Wettbewerbsdruck experimentieren können. Mehr institutionelle Freiheit, mehr kollegiales Experimentieren und mehr fachkulturelle Spezifik (vgl. Gespräch hier) – im Zeitalter des formalen „Overscripting“ und der sich anbahnenden KI-Welle kein schlechter Ansatz.

Von |29. Mai 2023|Kategorien: Allgemein|Schlagwörter: , , |Kommentare deaktiviert für Noch eine Didaktik?

Völlig Blank

Harald Martenstein skizziert in seiner aktuellen ZEIT-Kolumne eine finanzielle Notlage. Er war Anfang Mai allein in die USA gereist, hatte seine Kreditkarte dummerweise überzogen, noch 130 Dollar in der Tasche und den Rückflug nach Deutschland in vier Tagen vor Augen: Wie übersteht man vier Tage „fast ohne Geld“? In seiner Geschichte erfährt man, dass er nur aufgrund vieler guter Menschen und Zufälle über die Runde gekommen ist: Der Mann in der Wechselstube, der ihm die Servicegebühr erlässt, der Taxifahrer, dem 13 Dollar statt 20 reichen, das Hotel, dass nur 45 Dollar kostet etc. Er sinniert: Wenn mir die Menschen nicht geholfen hätten, wenn ich kein Glück gehabt hätte, dann…

Martenstein macht klar, dass diese Episode in seinem Leben nicht dramatisch war, an sich eine Lappalie. Aber: Dieser „Hauch der Scham“, diese „Millisekunden der Not“, diese „Zentimeter am Abgrund“ machen ihm wieder bewusst(er), was Armut heißen kann.

„Hauch der Scham“, … Danke Herr Martenstein.

Von |20. Mai 2023|Kategorien: Allgemein|Kommentare deaktiviert für Völlig Blank

KI und Frieden?!

Ostern gilt gemeinhin dem Frieden. Aber so ganz will dieses Jahr keine Friedenstimmung aufkommen. Zu viel Unstimmigkeit und Elend in der Welt. Neben den bekannten Großbaustellen (Krieg, Hunger, Klima, Unterdrückung etc.) treibt mich dieses Jahr das Thema KI um. KI und Frieden? Ja, dass wäre kein schlechtes Begriffspaar, wäre da nicht eine klaffende Leerstelle. Zu dieser Leerstelle passte ein Podcast von Gunter Dueck und Normann Müller: KI trifft auf gesunden Menschenverstand. Angeregt durch einen kleinen Kommentarwechsel (auf LinkedIn) mit Herrn Dueck sind drei grundsätzliche Fragen entstanden, auf die ich eine Antwort versuche.  

Meine erste Frage ist: Was unterscheidet den KI-Ansatz von bisherigen „Tools“?

Normalerweise müsste man jetzt definieren, was KI „ist“. Das füllt Bände und führt nicht zur Klärung. Ich konzentriere mich also auf mein Vorverständnis und eine Prognose: Das jetzige (erlebbare) Potenzial von ChatGPT (einer massentauglichen Spielart von KI) wird sich qualitativ ausweiten (vgl. GPT-4) Bisherige Werkzeuge in der Bildung (Taschenrechner, Internet, Mikroskop) hatten alle eine bestimmte Funktion: Der Taschenrechner hilft mir, komplizierte Rechenroutinen zu umgehen, das Internet hilft mir, Wissensbestände aus entfernten Datenbanken zu nutzen, und das Mikroskop hilft mir kleine Objekte zu sehen, die ich mit bloßem Auge nicht wahrnehmen kann. Der Anthropologe Arnold Gehlen hat die Technik – allgemein gesprochen – als Mittel der Organverstärkung, des Organersatzes und der Organentlastung charakterisiert. Organverstärkung und Organentlastung sind gute Gründe, warum man Technik in der Bildung einsetzen sollte, natürlich auch nur dann, wenn der Einsatz des Taschenrechners nicht dazu führt, dass man die „Idee des Rechnens“ nicht versteht; man muss also unterscheiden zwischen einer Prozesseffizienz und einer didaktischen Funktion. Nicht alles, was mich entlastet, ist didaktisch sinnvoll!

Unbestreitbar ist, dass KI-gestützte Angebote (wie z.B. ChatGPT) vordergründig und unmittelbar AUCH Entlastungs- und Verstärkungsfunktionen übernehmen, deshalb stürzen sich alle offenherzig darauf: Schreiben von Hausaufgaben, Erstellen von Liebesbriefen, Entwerfen von Designvorlagen, also alles, was man nicht kann oder schwer ist, wird per Klick bestellt. Übrig bleibt, den „Rohentwurf“ mehr oder weniger nach eigenen Vorstellungen zu „personalisieren“. Klingt verführerisch gut, oder? ABER: Sieht man, dass KI gestützte Angebote sowohl auf der Ebene der Zahlen, auf der Ebene der Sprache und auf der Ebene der Modellierung (drei Weisen der Episteme) belastbare und originelle Ergebnisse in kurzer Zeit für jedermann und jederzeit liefern, dann läuft der Einsatz in der Bildung Gefahr, dass diese Technik – um mit Gehlen zu sprechen – zum Organersatz führen kann. Die Menschen verlernen (deskilling) oder lernen gar nicht mehr die Basisoperationen, sondern nur noch „höhere Kompetenzen“, wie prompting etc. Ist Höhe ohne Basis möglich? Zudem: Rechnen, Sprache, Modellierung sind nicht nur Erkenntnisvermögen, sondern „Welt- und Selbstzugänge“. Hier steht das in Gefahr, was wir Identität (Wie ich mich als besonderer Mensch stabilisiere) nennen, graduell zumindest.

Meine zweite Frage ist: Tragen wir für den Bereich „Bildung“ eine besondere Verantwortung?

Lässt man die obige Antwort unwidersprochen, dann erwächst daraus unmittelbar eine Verantwortung genereller Art: Es geht zunächst darum, zu begreifen, dass die Einführung von KI in der Bildung hohe Implikationen darauf hat, was genuiner Bildungsauftrag ist: Menschen bilden und Menschen darin unterstützen, sich zu bilden! Und genau das führt uns dringlicher und radikaler als früher zu der Frage: Was wollen wir in Zukunft als schützenswert „menschlich“ gelten lassen? Was sind leitende Werte, die eine Grenze zwischen menschlich und nicht-menschlich markieren? Wie lassen sich diese Werte gegenüber KI-gestützten Methoden aller Art operationalisieren? Mit welchen Institutionen (z.B. Gesetz oder Markt) wollen wir den Grenzverkehr schützen? Ist der Staat in der Lage oder willens eine steuernde Verantwortung zu tragen (vgl. Interessensdilemma bei der Erstellung der KI-Richtlinien für die EU) oder ist ein System von verteilter Verantwortung mit Stärkung der lokalen Verantwortung (in Schule, Hochschule, Betrieb) vielversprechender? Wie auch immer hierauf die Antworten aussehen, mit einer „vollständigen Umarmung der KI im Bildungsbereich“ machen wir etwas, was man sich bei der Einführung von neuen Impfstoffen (Achtung Analogie) nicht trauen würde: einfach machen, ohne Sicherung, Eingriffe in die DNA, in die Gesundheit des Menschen.  

Meine dritte Frage ist: Welche ethischen Werte bieten mir „provisorische Leitlinien“ für ein unternehmerisches Experimentieren/Entscheiden/Handeln?

Werte sind für uns Ghostthinker handlungsleitend. Warum? Wir haben schon mal einen größeren Auftrag eines Waffenherstellers zur Unterstützung eines Lernszenarios abgelehnt, weil der Auftrag gegen unsere Werte verstoßen hätte. Werte sind also (knall)harte Ausschlusskriterien, nix Weiches. Was ist nun mit dem Thema Werte im Kontext von KI? Während der Auftragsabsage an die Waffenindustrie zum damaligen Zeitpunkt für uns eindeutig richtig war (man sieht aber im Russland-Ukrainekrieg wie schnell die Eindeutigkeit schwindet oder aus grün olivgrün wird), ist es mit der KI „ambivalent“: Wir können unsere Video-Annotationstechnologie, die wir zur Handlungsreflexion und  gegenseitiger Verständigung einsetzen, ganz wunderbar durch maschinelles Lernen ergänzen und dadurch den sozialen Austausch fördern oder Betreuungsprozesse durch automatisiertes Feedback effizienter machen. Wir könnten aber auch „nein“ sagen zu all dem und auf „rich relationship“ setzen, auf menschliches Feedback im Zeitalter der „Automatisation“ und damit auf eine KI-freie Zone, die dann attraktiv wird, wenn einem aus jedem Video „Kunstwesen“ einwandfreie Antworten liefern und sich Kunden angewidert (wegen eines „Gefühls“) abwenden. Oder wir setzen auf eine Mischung aus Menschen und KI, wie immer die im Detail aussehen mag. Und bei all diesen Möglichkeiten (hier drei Blickrichtungen), ist zu fragen: Welche Werte, welche ethischen Leitlinien, mögen sie auch provisorisch sein, sollen uns leiten? Richten wir unsere Leitlinien danach aus, was sich am Ende verkaufen lässt? Oder verkaufen wir überhaupt nur etwas, WEIL wir von etwas überzeugt sind, WEIL wir ein wertebasiertes Produkt haben?

Wahrscheinlich gibt es in Zukunft einen Markt für alle drei Blickrichtungen: (a) Kunden, die den aller besten Service und Antworten für geringes Geld haben wollen, egal wo es herkommt, Kunden, die eine KI-freie Lernumgebung aus Überzeugung wollen und Kunden, die ein Optimum aus Verantwortungs-, Partizipations- und Transparenzwerten (wir sind die Guten) mit Nutzungswerten (will viel und leicht lernen) und angemessenen Kosten haben wollen. Diese drei Fragen und die Antwortsuche werden uns bei Ghostthinker noch weiter auf Trab halten.

Schließlich treibt mich noch ein ganz anderes, bisher vielleicht nur implizit genanntes Thema: Die weltumspannende Aktivitäten rund um KI in allen (!) Sektoren (Finanzen, Staat, Produktion, Dienstleistung, Bildung etc.) mit fast unbegrenzten Finanzmitteln verläuft in der Struktur eines „sozialen Dilemmas“: Jeder Einzelne (Person, Organisation, Staat) will seinen individuellen Nutzen maximieren (Erfolgsmantra) und genau das führt auf der Ebene des Kollektivs und der Weltgemeinschaft zu irreparablen Schäden. Schnell einsichtig wird das beim Thema Klima – jeder ein SUV, weil’s praktisch ist, insgesamt stehen wir aber im Stau (kurzfristig blöd) und schädigen langfristig das Klima (langfristig Katastrophe). Man kann das auch in der KI-gestützten Finanzindustrie studieren, wo Maschinen Finanzströme von Aktienfonds und ganzen Volkswirtschaften optimieren (wollen wir alle), ohne dass der Mensch noch kapiert, was da vor sich geht, ohne dass der Mensch den Stecker ziehen kann (will keiner). Das Wesen der KI besteht im Kern darin, „chaotisch“ zu sein, nicht transparent. Darin liegen das Wohl und Wehe. Sorge macht der Umstand, dass keine Institution in Sicht ist, die das Thema KI auch nur in irgendeiner Weise reguliert. Ohne Regelung aber ist alles möglich.

Von |10. April 2023|Kategorien: Allgemein|Schlagwörter: , , , , , , |Kommentare deaktiviert für KI und Frieden?!

Leben

„Einer muss der Erste sein…“, sagt man. Im frühen Frühjahr, wenn der Winter in den letzten Atemzügen liegt, dann kommen wir. Doch wann genau das ist, weiß keiner von uns. Wir spüren: „Jetzt!“. Dann stecken wir unsere bunten Köpfchen durch den Winterboden, raus ins kalte Nass. Wenn wir Glück haben, hilft uns die Sonne, die den Schnee vertreibt. In den wenigen Tagen unseres Lebens rufen wir mit lauter Stimme: „Kommt heraus, ihr Blumen, ihr Bäume und Bienen, kommt heraus, es ist Frühling!“ Und dann ist es wie jedes Jahr, die Blumen, Bäume und Bienen antworten im Chor: „Es ist noch viel zu kalt, wir haben Angst, wir werden sterben!” Doch wir rufen weiter, mit heiserer Stimme: „Kommt heraus, kommt heraus, es ist Frühling, die Sonne ist da!“ Und während wir ein letztes Mal rufen, erschlafft und müde: „Kommt heraus, kommt heraus, es ist warm“, … da kommen die ersten Blumen, die ersten Bäume und die ersten Bienen. Und langsam, Schritt für Schritt, füllen sich die Wiesen, die Wälder, die Weiden … mit Leben: Fröhliche Farben, lautes Summen und kraftvolles Rauschen. Wir sind die Ersten, die das Leben ankündigen, wir sind die Ersten, die wieder gehen. Wir sind die Krokusse. Im nächsten Jahr kommen wir wieder, bestimmt.

Von |1. März 2023|Kategorien: Allgemein|Schlagwörter: , , , |Kommentare deaktiviert für Leben

ChatGPT und Werte: Was würde Data sagen?

Vor gut 10 Jahren habe ich eine Rezension zum Buch von Karen Gloy verfasst, die im Wiener Jahrbuch für Philosophie auch veröffentlicht wurde: Es ging um das Thema „Wahrnehmungswelten“, also etwas typisch Menschliches, was Gloy im Kontrast zum Maschinellen abgrenzte. Was war da naheliegender, als mit „Data“ aus Star Trek einzusteigen. Wir erinnern uns, Data – der Androide, der nur eines im Sinn hatte: Er (die Maschine) wollte menschlich werden! Ich kann also sagen, dass mich dieses Mensch-Maschine-Verhältnis immer schon interessierte und Data bot mir anschauliche Gedankenexperimente zur Frage: Was ist das denn –  menschlich? Und was daran ist erstrebens- und damit schützenswert?     

Mit ChatGPT sind wir schneller als gedacht an den „Anfang der Geschichte“ angekommen. Zwar gibt es 2023 noch lang keine Androiden (erste Gehversuche hier oder GPT & Robots), aber die Tür zu einer „disruptiven“ Entwicklung ist geöffnet: Goldgräberstimmung, globaler Wettbewerb, Kapital und endlos viele (hilfreiche wie bedrohliche) Anwendungen. Was braucht man mehr?!

In der aktuellen Diskussion zu ChatGPT im Kontext Bildung (Schule, Hochschule, Corporate Learning) überwiegen die optimistischen Stimmen. Es soll experimentiert werden! Dem folge ich, denn wie sollte man anders die Chancen und Grenzen von der KI im Bildungskontext ausloten? Was wir aber neben Experimentierfreude AUCH brauchen, ist eine Diskussion über Werte. Ehe das als „Spaßbremse“ oder gar als „Blauäugigkeit“ missverstanden wird: Die Diskussion über Werte hat nicht die Primärfunktion, uns vor der „KI zu schützen“ (Bollwerk Werte), sondern darum, worum es Data (s.o.) immer ging, um die Frage, wie wir uns im Zeitalter von KI und (totaler) Simulation als Menschen (!) definieren wollen. „Kreative Originalität“ (nach der jetzt alle rufen) steht zumindest auf dem Prüfstand, wenn man sich die Ergebnisse aktueller KI-Anwendungen in Text, Bild, Video und 3D anschaut.

Gabi hat sich in einem Artikel (Impact Free) dem Thema angenommen. Es ist ein erstes, lautes Nachdenken (zaghaft und tastend also) mit Hochschulbezug. Aber mit der Frage „Wozu sind wir hier?“ macht sie den Anspruch, die Fragerichtung, deutlich. Es geht um Selbstvergewisserung, Grundfragen und vorläufige Antworten. Antworten sehen anders aus, wenn man sie (mit)verantwortet.

Von |22. Februar 2023|Kategorien: Allgemein, Universität, Wirtschaft|Schlagwörter: , , , |Kommentare deaktiviert für ChatGPT und Werte: Was würde Data sagen?
Nach oben