KI kommt von Lernen

Methodische Ansätze in einem weiten Feld

Der folgende Text ist selbst ausgedacht. Er reflektiert meine pädagogische Praxis zum Thema KI und dabei konnte mir ChatGPT kaum helfen. Der Artikel wird zeigen, wie sich unsere methodischen Ansätze mit der Weiterentwicklung dieser Technologie verändert haben und was sich daraus für die politische Bildung gewinnen lässt. Denn bislang habe ich mit mediale pfade.org e.V. an drei Methodenentwicklungen zum Thema Künstliche Intelligenz mitgewirkt, die sich einmal mit Smart City und zweimal mit den Recommendersystemen auf TikTok und YouTube befassten.

Canvas City, ein mobiles Game zu Smart City, entstand bereits 2018, das F00 Festival, eine spielbasierte Methode zu YouTube, 2021, das Methodenset TikTok Labor 2022. In dieser Zeit hat sich, betrachten wir nur die Entwicklung von KI, viel getan.

Ich möchte mich darum nur kurz mit der „alten“ Methode befassen und nur diejenigen Ansätze benennen, die eindeutig funktionierten oder klar danebenlagen. Canvas City ist ein sessionbasiertes Spiel als Türöffner für die außerschulische Bildung, d. h. es stellt den Einstieg in einen Tagesworkshop für 14- bis 21-Jährige dar. Im Spiel werden Situationen etabliert, die in der Auswertung des Spiels zu einer weiterführenden Reflexion der Spielinhalte führen. Diese werden im Rahmen des Workshops weiter kontextualisiert und bewertet.

2018 war die Wahl des Themas dem popkulturellen Mainstream geschuldet. Produktionen wie Her (Warner Bros), Black Mirror (BBC), iBoy (Netflix) oder Ex Machina (Universal Pictures) trugen anregende Visionen und Fragen zu Künstlicher Intelligenz in die Breite. Zeitgleich begann in Deutschland die Förderung von Infrastrukturprojekten mit Fokus auf smarte Städte und Gemeinden. Doch unser Versuch, junge Menschen für das komplexe Thema zu begeistern, führte teils zu stereotypen und reißerischen Darstellungen von Künstlicher Intelligenz, die im Spiel als anthropomorphe Widersacher und Verbündete auftraten. Zentrale Elemente der Spielgeschichte wie etwa Datenerfassung und Datenschutz, Überwachung, Automatisierungslogiken, Technikfolgenabschätzung und soziale Auswirkungen wurden kaum rezipiert und konnten erst in der pädagogischen Reflexion gehoben werden. Im Rückblick erscheint die damalige Idee der Spielgeschichte naiv: Eine böse Super-KI und ihre KI-Konkurrenten müssen von den Heldinnen überwunden werden; gewinnen können sie nur gemeinsam und unter großen Verlusten! Trotzdem würde ich behaupten, dass dieser Zugang funktioniert. Das Narrativ ist in Games akzeptiert, Rebellion ein beliebtes jugendliches Motiv, Technologie für die meisten Menschen intransparent und fragwürdig. Und die eigentliche Vermittlungsstrategie bei Canvas City ist es, das Spielen selbst zum Anlass zu nehmen, um über dabei aufgeworfene Fragen ins Gespräch zu kommen.

Darum verfolgen wir mit dem F00 Festival im Projekt Dataskop weiter diesen Ansatz, auch wenn das spielbasierte Angebot ausdrücklich als Lernszenario angekündigt wird. Ziel der digitalen Methode, bei der die Teilnehmenden auf der fiktiven Social-Media-Plattform F00 in die Rolle von Creator*innen schlüpfen, ist es, die F00 Algorithmen besser als die anderen Teams zu verstehen, um mit dem höchsten Score für das legendäre F00 Festival nominiert zu werden. Nach dem Prinzip der Schnitzeljagd, wird an jeder Station durch das Lösen von Aufgaben die nächste Station freigespielt und der F00 Score (Gewinnpunkte) steigt. Alle Aufgaben haben mit den Empfehlungen der Plattform zu tun und verlangen, Hinweisen nachzugehen, die bei der Lösung helfen.

Eine grundlegende Erfahrung beim F00 Festival ist der Wettstreit der Teams, der höchste Score ist die zentrale Motivation für den Spielfortschritt. Da mit der korrekten Lösung von Aufgaben mehr Punkte gewonnen werden können, fokussieren sich die Lernenden auf diesen Aspekt der Spielmechanik: „Bewege dich so schnell wie möglich von Aufgabe zu Aufgabe, nutze alle relevanten Hinweise und löse die meisten Rätsel!” Jene, die diese Mechanik erfasst haben, weil sie game-erfahren sind, vernachlässigen oft die Spielgeschichte, weniger spielaffine Teilnehmende, lesen die Spielhandlung genauer und diskutieren selbst kleine Entscheidungen. Darum ist es für den Lernprozess, wie bei Canvas City,so wichtig, die Auswertung der Spielerfahrungen und Aufgaben sowie die Kontextualisierung und Reflexion im Anschluss mit allen Teilnehmenden vorzunehmen. Es ist ein Gemeinplatz der politischen Bildung, dass die Reflexion integraler Bestandteil des Bildungsprozesses ist.

In einem aber unterscheidet sich das F00 Festival wesentlich. Es ist ein ausdrückliches Lernspiel; die Lerninhalte werden im Spiel als Spielaufgaben präsentiert und korrekte Lösungen helfen zu „gewinnen”. Das Lernziel wird zum Spielziel: Verstehe den Recommender und seinen Einfluss auf Social-Media-Produktionen. Die Spielaufgaben adressieren diese spezifischen Themen und Spielhinweise liefern Erklärungen.

Ein Beispiel: Die Plattformbetreiber von F00 haben den Empfehlungsalgorithmus verändert und die Aufgabe lautet: Was ist die neue optimale Länge eines Videos auf der Plattform? Hinweise dazu finden sich in journalistischen Recherchen im Spiel, worin erwähnt wird, dass der F00 Recommender mit Blick auf ältere Zielgruppen nun auch längere Videos positiv bewertet. Die Spielenden können ihre Produktionen anpassen und mehr Punkte kassieren. Einen vergleichbaren Fall gab es bei YouTube 2019, um mehr Werbung platzieren zu können.

Solche Aufgaben erschließen den Lernenden stückweise das Empfehlungssystem. Sie passen ihre Produktionen an, ihr Score steigt und das F00 Festival rückt näher. Dabei erfüllt der Score weitere Funktionen. Den Teamenden werden im Backend jederzeit alle Ergebnisse angezeigt, sie wissen, welches Team welche Aufgaben richtig oder falsch gelöst hat und sie können in der Auswertung direkt darauf Bezug nehmen. Da auch andere ihrer Spielentscheidungen mit dem Score verknüpft sind, erleben die Lernenden außerdem einen überwachten Prozess. Ihre Anmeldedaten, ihre Produktionen und Entscheidungen, die sie über den Messenger treffen, haben Einfluss auf ihren Score und spielentscheidende Konsequenzen. Dadurch wird im Spielerleben die Datenerfassung und -verarbeitung auf Social-Media-Diensten zur Optimierung der Algorithmen simuliert, was Anknüpfungspunkte für Auswertung bietet, wie Allow- und Blocklisting, Shadowbanning, inhaltliche Zensur und Account-Sperre. Diese Themen werden in der Spielhandlung und bei späteren Aufgaben zudem explizit behandelt.

Kurz gesagt ist die Methode F00 Festival eine spielerische Simulation von algorithmisch gesteuerten Empfehlungs- und Produktionspraktiken auf Plattformen. Sie macht deren zentrale Aspekte spielerisch erfahrbar, Spielaufgaben zerlegen ein komplexes Empfehlungssystem in Einzelfragen und verdeutlichen Prinzipien und Auswirkungen. Die anschließende Reflexion der Spielhandlung, -erfahrungen und -aufgaben beantwortet Einzelfragen, führt diese zusammen und kontextualisiert sie. Dafür ist es notwendig, dass Aufgaben und Spielhandlung an tatsächlichen Recommenderprinzipien und Plattformpraktiken orientiert sind, was den Rückbezug auf bestehende Systeme ermöglicht. Doch gab es eine zentrale Kritik der Teilnehmenden: die Vermittlung der Aufgaben und Hintergrundgeschichte über Spieltexte. Obwohl wir ursprünglich dachten, dass Begriffsarbeit und propositionales Wissen im Kontext von KI-Technologien wichtig seien, wählten wir in der zweiten Methodenentwicklung zu Recommendern einen anderen Ansatz.

Bei der Entwicklung des Methodensets TikTok Labor im Projekt Dataskopwollten wir vor allem eine Zielgruppe adressieren, deren Mediennutzungsverhalten maßgeblich durch Webvideos geprägt ist und die mit Kommunikationspraktiken auf Diensten wie TikTok vertraut ist. Die anhaltenden Debatten um TikTok, die Verbotsverfahren in den USA, problematisches Contentmanagement und das hoch adaptive Recommendersystem verdeutlichten die Notwendigkeit einer politisch-bildnerischen Auseinandersetzung mit dem Phänomen. Die Verschränkung von algorithmisch gesteuerten Empfehlungen mit dem plattformspezifischen Interface, TikToks For-You-Page (FYP), und stark divergierenden Inhalten (Kurzvideos mit unüberschaubar breitem Themenspektrum) stand dabei im Fokus.

Die Erfahrungen mit Canvas City und F00 Festival zeigten uns, dass die Annäherung an den monolithisch wirkenden Komplex Künstliche Intelligenz konkrete Erscheinungsformen dieser Technologie in den Blick nehmen sollte, vor allem Phänomene, die der Erfahrungswelt der jugendlichen Lernenden entlehnt sind. Darum konzentriert sich das TikTok Labor auf den potenziell unendlichen Videofeed, auf die For-You-Page und auf Meme-Kommunikation.

Das Methodenset verfolgt dabei einen explorativen Ansatz, was eine curriculare Herausforderung darstellt, aber eben auch unvorhersehbare Lerngelegenheiten bietet. Ein KI-Recommendersystem erzeugt im Rahmen seiner Inferenzen (aktuelle Anwendungen seiner Modelle) unvorhersehbare Empfehlungen und passt sich dynamisch an, was die Bewertung von Arbeitsergebnissen und Lernerfahrungen erschwert, denn der Ergebnishorizont ist sehr weit. Gleichzeitig bietet die Untersuchung eines solchen Systems durch viele Lernende und Lehrende unter verschiedenen Perspektiven neue interessante Beobachtungen, die nur gemeinsam verstanden werden können.

Um der Unvorhersagbarkeit der Empfehlungen zu begegnen, wurde nicht der aktuelle Feed eines authentischen Accounts auf der proprietären TikTok-App analysiert, sondern Bildschirmaufnahmen von Feeds trainierter Accounts. Die Gefahr der Ablenkung durch die App ist geringer und der Videofeed kann kuratiert werden. In der Untersuchung versehen die Lernenden die Videoinhalte zunächst mit frei gewählten Stichworten und erkennen in der Auswertung eine breite Streuung der Videothemen. Im zweiten Schritt nutzen sie ein definiertes Set an authentischen Inhaltskategorien von TikTok zur thematischen Qualifizierung derselben Videos. Die Zuordnung klar definierter Kategorien zeigt beim selben Feed nun eine Häufung von Themen, d. h. Interessenschwerpunkte der jeweiligen Accounts.

Mit dieser Übung nähern sich die Lernenden dem Algorithmus aus bekannter Perspektive: Sie schauen Videos – jedoch unter einer neuen Prämisse: Nach welchen inhaltlichen Kriterien lässt sich der Feed ordnen und welcher Unterschied besteht zwischen der frei assoziierten Inhaltsbestimmung und einer distinkten Datenerhebung? Der Umstand, dass sie eine Bildschirmaufnahme sehen, statt den Feed selbst zu steuern, vermittelt ein befremdliches Gefühl, das die gewohnte Konsumhaltung bei der Nutzung der App unterläuft und für eine kritische Distanz zum Medium sorgt. Außerdem regt die Inhaltsbestimmung der Videos in Teamarbeit eine diskursive Ebene an und bringt sonst häufig unreflektierte Eindrücke auf Begriffe. Schließlich führt der Vergleich zwischen freier Assoziation und kategorialer Zuordnung einen wesentlichen Unterschied zwischen menschlichem Verstehen und maschinellem Sortieren vor Augen.

In einem weiteren Modul des TikTok Labors widmen sich die Teilnehmenden der For-You-Page, d. h. dem Interface, auf dem der personalisierte Videofeed ausspielt wird. Auch hierbei wird nicht die App selbst genutzt, sondern ein analoges Spielfeld und Spielmarker. Das hat den Vorteil, dass die Anreize eines beeinflussenden Interfacedesigns reduziert werden und der kommunikative Austausch und die Spielregeln für Interaktion sorgen. Ziel der Methode ist es, möglichst viele Interaktionen (Funktionen, Features, Navigation) auf der For-You-Page zu identifizieren und ihren Einfluss auf das algorithmische Empfehlungssystem zu bewerten. Dafür stehen insgesamt 20 verschiedene Interaktionsmarker zur Verfügung, die die Lernenden im Austausch erschließen und zueinander in Beziehung setzen müssen.

Oft lautete das Fazit der Teilnehmenden: „Wir wussten nicht, dass an so vielen Punkten auf der For-You-Page Daten produziert werden können, die mein Nutzungsverhalten und meine Interessen erfassen.” Auf die anschließende Frage, „Was davon hat wirklich Einfluss auf die Empfehlungen?”, kann die Methode nur bedingt Antwort geben. Sie fragt stattdessen nach den begründeten Einschätzungen der Teilnehmenden, präsentiert unterschiedliche Möglichkeiten der Gewichtung und zeigt die zunehmende Komplexität der Kalkulationen auf. Damit reagiert sie auf die Eigentümlichkeit von Modellbildungen durch maschinelles Lernen bei Recommendern – dass nämlich die Prognosen durch Recommendersysteme aus zwei Gründen für Außenstehende intransparent bleiben: Erstens ist der Empfehlungsalgorithmus ein gut gehütetes Betriebsgeheimnis der Plattformbetreiber und zweitens sind diese Modelle implizite Modellierungen einer KI-Technologie, die – aus Verfahrensgründen – selbst ihre Entwickler nicht explizit machen können.

Spätestens hier müssen sich politische Bildner*innen entscheiden, wie tief sie in technologische Fragen zu KI eindringen wollen und können. Die Herausforderung Künstliche Intelligenz, besser gesagt maschinelles Lernen auf der Grundlage künstlicher neuronaler Netze zu erklären, ist nicht trivial. Perspektiven, Motivation und Vorwissen der Zielgruppe sollten dafür geklärt sein, um einen angemessenen methodischen Zugang zu finden – und Bildner*innen sollten diese Fragen selbst durchdrungen haben, denn vorgefertigte bzw. „abgelesene“ Erklärungen bergen großes Nerd-Potenzial und laufen leicht ins Leere. Eine möglichst konkrete Herangehensweise und Beispiele etwa aus der automatisierten Bilderkennung oder Recommendersystemen bieten sich an. Aktuell entwickeln wir z. B. eine physische Aufstellungsmethode, bei der die Teilnehmenden die Aufgaben von Knoten in einem künstlichen neuronalen Netz übernehmen, um dessen Funktionsweise zu simulieren. Auch die Vermittlung der statistischen Erfassung der natürlichen Sprache durch große Sprachmodelle (LLM) ist eine solche Herausforderung, die dennoch bewältigbar ist. Sie erfordert vor allem die Bereitschaft von Fachkräften, sich mit diesen Fragen intensiv zu beschäftigen, um praktikable Zugänge zu schaffen.

Ich bin überzeugt, dass wir in der politischen Bildung an einen Punkt gekommen sind, an dem wir die technologischen Grundlagen und Prinzipien unseres gesellschaftlichen Zusammenlebens viel genauer in den Blick nehmen müssen. Nicht alle Menschen müssen programmieren können, aber politische Bildner*innen sollten ein Interesse an der technischen und digitalen Verfasstheit unserer Lebenswelt aufbringen. Ohne grundlegende Datenkompetenz und die Bereitschaft sich auch komplexe technologische Systeme zusammen mit den Zielgruppen zu erschließen, werden politische Bildner*innen künftig relevante gesellschaftspolitische Fragestellungen unbehandelt lassen müssen.


Der hier veröffentlichte Text ist ursprünglich in der Ausgabe 3/2024 der Fachzeitschrift „Außerschulische Bildung – Künstliche Intelligenz und politische Bildung“ veröffentlicht worden.


Beitrag veröffentlicht

in

von

Schlagwörter:

Kommentare

Eine Antwort zu „KI kommt von Lernen“

  1. Avatar von A WordPress Commenter

    Hi, this is a comment.
    To get started with moderating, editing, and deleting comments, please visit the Comments screen in the dashboard.
    Commenter avatars come from Gravatar.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert