Blog / KI und Frieden?!
KI und Frieden?!
Ostern gilt gemeinhin dem Frieden. Aber so ganz will dieses Jahr keine Friedenstimmung aufkommen. Zu viel Unstimmigkeit und Elend in der Welt. Neben den bekannten Großbaustellen (Krieg, Hunger, Klima, Unterdrückung etc.) treibt mich dieses Jahr das Thema KI um. KI und Frieden? Ja, dass wäre kein schlechtes Begriffspaar, wäre da nicht eine klaffende Leerstelle. Zu dieser Leerstelle passte ein Podcast von Gunter Dueck und Normann Müller: KI trifft auf gesunden Menschenverstand. Angeregt durch einen kleinen Kommentarwechsel (auf LinkedIn) mit Herrn Dueck sind drei grundsätzliche Fragen entstanden, auf die ich eine Antwort versuche.
Meine erste Frage ist: Was unterscheidet den KI-Ansatz von bisherigen „Tools“?
Normalerweise müsste man jetzt definieren, was KI „ist“. Das füllt Bände und führt nicht zur Klärung. Ich konzentriere mich also auf mein Vorverständnis und eine Prognose: Das jetzige (erlebbare) Potenzial von ChatGPT (einer massentauglichen Spielart von KI) wird sich qualitativ ausweiten (vgl. GPT-4) Bisherige Werkzeuge in der Bildung (Taschenrechner, Internet, Mikroskop) hatten alle eine bestimmte Funktion: Der Taschenrechner hilft mir, komplizierte Rechenroutinen zu umgehen, das Internet hilft mir, Wissensbestände aus entfernten Datenbanken zu nutzen, und das Mikroskop hilft mir kleine Objekte zu sehen, die ich mit bloßem Auge nicht wahrnehmen kann. Der Anthropologe Arnold Gehlen hat die Technik – allgemein gesprochen – als Mittel der Organverstärkung, des Organersatzes und der Organentlastung charakterisiert. Organverstärkung und Organentlastung sind gute Gründe, warum man Technik in der Bildung einsetzen sollte, natürlich auch nur dann, wenn der Einsatz des Taschenrechners nicht dazu führt, dass man die „Idee des Rechnens“ nicht versteht; man muss also unterscheiden zwischen einer Prozesseffizienz und einer didaktischen Funktion. Nicht alles, was mich entlastet, ist didaktisch sinnvoll!
Unbestreitbar ist, dass KI-gestützte Angebote (wie z.B. ChatGPT) vordergründig und unmittelbar AUCH Entlastungs- und Verstärkungsfunktionen übernehmen, deshalb stürzen sich alle offenherzig darauf: Schreiben von Hausaufgaben, Erstellen von Liebesbriefen, Entwerfen von Designvorlagen, also alles, was man nicht kann oder schwer ist, wird per Klick bestellt. Übrig bleibt, den „Rohentwurf“ mehr oder weniger nach eigenen Vorstellungen zu „personalisieren“. Klingt verführerisch gut, oder? ABER: Sieht man, dass KI gestützte Angebote sowohl auf der Ebene der Zahlen, auf der Ebene der Sprache und auf der Ebene der Modellierung (drei Weisen der Episteme) belastbare und originelle Ergebnisse in kurzer Zeit für jedermann und jederzeit liefern, dann läuft der Einsatz in der Bildung Gefahr, dass diese Technik – um mit Gehlen zu sprechen – zum Organersatz führen kann. Die Menschen verlernen (deskilling) oder lernen gar nicht mehr die Basisoperationen, sondern nur noch „höhere Kompetenzen“, wie prompting etc. Ist Höhe ohne Basis möglich? Zudem: Rechnen, Sprache, Modellierung sind nicht nur Erkenntnisvermögen, sondern „Welt- und Selbstzugänge“. Hier steht das in Gefahr, was wir Identität (Wie ich mich als besonderer Mensch stabilisiere) nennen, graduell zumindest.
Meine zweite Frage ist: Tragen wir für den Bereich „Bildung“ eine besondere Verantwortung?
Lässt man die obige Antwort unwidersprochen, dann erwächst daraus unmittelbar eine Verantwortung genereller Art: Es geht zunächst darum, zu begreifen, dass die Einführung von KI in der Bildung hohe Implikationen darauf hat, was genuiner Bildungsauftrag ist: Menschen bilden und Menschen darin unterstützen, sich zu bilden! Und genau das führt uns dringlicher und radikaler als früher zu der Frage: Was wollen wir in Zukunft als schützenswert „menschlich“ gelten lassen? Was sind leitende Werte, die eine Grenze zwischen menschlich und nicht-menschlich markieren? Wie lassen sich diese Werte gegenüber KI-gestützten Methoden aller Art operationalisieren? Mit welchen Institutionen (z.B. Gesetz oder Markt) wollen wir den Grenzverkehr schützen? Ist der Staat in der Lage oder willens eine steuernde Verantwortung zu tragen (vgl. Interessensdilemma bei der Erstellung der KI-Richtlinien für die EU) oder ist ein System von verteilter Verantwortung mit Stärkung der lokalen Verantwortung (in Schule, Hochschule, Betrieb) vielversprechender? Wie auch immer hierauf die Antworten aussehen, mit einer „vollständigen Umarmung der KI im Bildungsbereich“ machen wir etwas, was man sich bei der Einführung von neuen Impfstoffen (Achtung Analogie) nicht trauen würde: einfach machen, ohne Sicherung, Eingriffe in die DNA, in die Gesundheit des Menschen.
Meine dritte Frage ist: Welche ethischen Werte bieten mir „provisorische Leitlinien“ für ein unternehmerisches Experimentieren/Entscheiden/Handeln?
Werte sind für uns Ghostthinker handlungsleitend. Warum? Wir haben schon mal einen größeren Auftrag eines Waffenherstellers zur Unterstützung eines Lernszenarios abgelehnt, weil der Auftrag gegen unsere Werte verstoßen hätte. Werte sind also (knall)harte Ausschlusskriterien, nix Weiches. Was ist nun mit dem Thema Werte im Kontext von KI? Während der Auftragsabsage an die Waffenindustrie zum damaligen Zeitpunkt für uns eindeutig richtig war (man sieht aber im Russland-Ukrainekrieg wie schnell die Eindeutigkeit schwindet oder aus grün olivgrün wird), ist es mit der KI „ambivalent“: Wir können unsere Video-Annotationstechnologie, die wir zur Handlungsreflexion und gegenseitiger Verständigung einsetzen, ganz wunderbar durch maschinelles Lernen ergänzen und dadurch den sozialen Austausch fördern oder Betreuungsprozesse durch automatisiertes Feedback effizienter machen. Wir könnten aber auch „nein“ sagen zu all dem und auf „rich relationship“ setzen, auf menschliches Feedback im Zeitalter der „Automatisation“ und damit auf eine KI-freie Zone, die dann attraktiv wird, wenn einem aus jedem Video „Kunstwesen“ einwandfreie Antworten liefern und sich Kunden angewidert (wegen eines „Gefühls“) abwenden. Oder wir setzen auf eine Mischung aus Menschen und KI, wie immer die im Detail aussehen mag. Und bei all diesen Möglichkeiten (hier drei Blickrichtungen), ist zu fragen: Welche Werte, welche ethischen Leitlinien, mögen sie auch provisorisch sein, sollen uns leiten? Richten wir unsere Leitlinien danach aus, was sich am Ende verkaufen lässt? Oder verkaufen wir überhaupt nur etwas, WEIL wir von etwas überzeugt sind, WEIL wir ein wertebasiertes Produkt haben?
Wahrscheinlich gibt es in Zukunft einen Markt für alle drei Blickrichtungen: (a) Kunden, die den aller besten Service und Antworten für geringes Geld haben wollen, egal wo es herkommt, Kunden, die eine KI-freie Lernumgebung aus Überzeugung wollen und Kunden, die ein Optimum aus Verantwortungs-, Partizipations- und Transparenzwerten (wir sind die Guten) mit Nutzungswerten (will viel und leicht lernen) und angemessenen Kosten haben wollen. Diese drei Fragen und die Antwortsuche werden uns bei Ghostthinker noch weiter auf Trab halten.
Schließlich treibt mich noch ein ganz anderes, bisher vielleicht nur implizit genanntes Thema: Die weltumspannende Aktivitäten rund um KI in allen (!) Sektoren (Finanzen, Staat, Produktion, Dienstleistung, Bildung etc.) mit fast unbegrenzten Finanzmitteln verläuft in der Struktur eines „sozialen Dilemmas“: Jeder Einzelne (Person, Organisation, Staat) will seinen individuellen Nutzen maximieren (Erfolgsmantra) und genau das führt auf der Ebene des Kollektivs und der Weltgemeinschaft zu irreparablen Schäden. Schnell einsichtig wird das beim Thema Klima – jeder ein SUV, weil’s praktisch ist, insgesamt stehen wir aber im Stau (kurzfristig blöd) und schädigen langfristig das Klima (langfristig Katastrophe). Man kann das auch in der KI-gestützten Finanzindustrie studieren, wo Maschinen Finanzströme von Aktienfonds und ganzen Volkswirtschaften optimieren (wollen wir alle), ohne dass der Mensch noch kapiert, was da vor sich geht, ohne dass der Mensch den Stecker ziehen kann (will keiner). Das Wesen der KI besteht im Kern darin, „chaotisch“ zu sein, nicht transparent. Darin liegen das Wohl und Wehe. Sorge macht der Umstand, dass keine Institution in Sicht ist, die das Thema KI auch nur in irgendeiner Weise reguliert. Ohne Regelung aber ist alles möglich.