Die Integration von Künstlicher Intelligenz in Bildungseinrichtungen erzwingt derzeit ein radikales Umdenken – sowohl in der Theorie als auch in der praktischen Anwendung. Während Bildungsorganisationen wie die Raspberry Pi Foundation neue pädagogische Rahmenbedingungen fordern, experimentieren Universitäten bereits mit KI-gestützten historischen Simulationen, um Studenten auf eine zunehmend automatisierte Welt vorzubereiten.
Ein Paradigmenwechsel in der Informatikdidaktik
Die in Großbritannien ansässige Raspberry Pi Foundation hat Forschungsergebnisse veröffentlicht, die nahelegen, dass der Unterricht in den Bereichen KI und Data Science nicht einfach als Erweiterung des klassischen Programmierunterrichts betrachtet werden darf. Manni Cheung vom Raspberry Pi Computing Education Research Centre argumentiert in einem aktuellen Bericht, dass ein fundamental anderer Ansatz notwendig ist.
Traditioneller Unterricht basiert meist auf regelbasierten Systemen: Entwickler definieren klare Anweisungen, und der Weg vom Input zum Output ist logisch nachvollziehbar und transparent. Datengesteuerte Systeme hingegen funktionieren anders. Sie trainieren Modelle anhand riesiger Datensätze, statt festen Regeln zu folgen. Das Resultat ist oft eine sogenannte „Black Box“ – interne Abläufe bleiben undurchsichtig, und selbst Entwickler können oft nicht präzise erklären, warum ein Modell ein bestimmtes Ergebnis liefert.
Das Risiko falscher Annahmen
Diese technische Diskrepanz stellt Pädagogen vor immense Herausforderungen. Schüler, die an die Eindeutigkeit klassischer Algorithmen gewöhnt sind, erwarten oft eine einzige korrekte Antwort. Datengesteuerte KI liefert jedoch häufig Wahrscheinlichkeiten oder nicht-deterministische Ergebnisse. Wird dieser Unterschied im Unterricht nicht explizit thematisiert, laufen Lernende Gefahr, die Objektivität und Zuverlässigkeit von KI-Systemen massiv zu überschätzen.
Um diesem Problem zu begegnen, entwickelten die Forscher ein neues „Daten-Paradigmen-Framework“. Eine Analyse von 84 akademischen Studien zeigte, dass die meisten Unterrichtsaktivitäten im Bereich „datengesteuert und undurchsichtig“ stattfinden: Schüler sehen zwar die Daten, verstehen aber nicht, wie das Modell daraus Schlüsse zieht. Es fehlen oft entscheidende Lektionen über Modellvertrauen, Datenqualität und Testverfahren.
Die Empfehlung der Experten lautet daher, zunächst mit transparenten Systemen zu beginnen – etwa mit linearer Regression oder Datenvisualisierung –, um eine Brücke zu den komplexeren, undurchsichtigen Modellen des maschinellen Lernens zu schlagen. Parallel dazu hat die Stiftung eine bis 2026 laufende Studie mit Lehrkräften in England gestartet, um Strategien für Kinder im Alter von neun bis elf Jahren zu entwickeln.
Historische Debatten mit Algorithmen
Während in Großbritannien theoretische Grundlagen für den Umgang mit Daten erarbeitet werden, zeigt ein Blick in die USA, wie KI bereits als dynamischer Akteur im Hörsaal eingesetzt wird. An der Darden School of Business der University of Virginia finden sich Studenten plötzlich in Streitgesprächen mit längst verstorbenen Persönlichkeiten wieder.
Professor Scott C. Miller, ein Experte für Alexander Hamilton, hat gemeinsam mit dem Instruktionsdesigner Fred Telegdy Sr. einen Chatbot entwickelt, der die Persönlichkeit des amerikanischen Gründervaters simuliert. In Millers Kurs „Alexander Hamilton: Lektionen in Management, Strategie und Führung“ dient dieser Bot nicht als bloße Informationsquelle, sondern als Sparringspartner.
Die Simulation geht weit über die freundliche Zurückhaltung herkömmlicher KI-Modelle wie ChatGPT hinaus. „ChatGPT ist höflich, aber Hamilton hielt sich stets für den klügsten Mann im Raum“, erklärt Miller. Um eine authentische Erfahrung zu schaffen, wurde der Bot mit Tausenden von Briefen und historischen Dokumenten gefüttert. Das Ergebnis ist eine KI, die gegnerische Ansichten als „ignorant“ oder „kindisch“ abtut und eine gewisse Arroganz an den Tag legt.
Neue Prüfungsformate gegen Betrug
In einer kürzlich durchgeführten Demonstration lieferte sich der Bot einen Schlagabtausch mit Miller, der in die Rolle von Thomas Jefferson schlüpfte. Als der simulierte Jefferson Bedenken äußerte, Hamiltons Wirtschaftspläne könnten zu Armut führen, konterte die KI mit der für Hamilton typischen Schärfe und bezeichnete Jeffersons agrarische Visionen als „Fantasie, die uns schwach und gespalten zurücklassen würde“. Allerdings mussten die Entwickler gewisse Sicherheitsvorkehrungen treffen: Auch wenn der digitale Hamilton provoziert wird, darf er – anders als sein historisches Vorbild – niemanden zum Duell fordern, sondern muss zur Argumentation zurückkehren.
Der Einsatz dieses Tools hat einen ernsten akademischen Hintergrund. Miller gibt offen zu, dass er das Vertrauen in traditionelle Hausarbeiten und schriftliche Prüfungen verloren hat, da die Unterscheidung zwischen studentischer Leistung und KI-generierten Texten kaum noch möglich ist.
Die Abschlussprüfung in seinem Kurs besteht nun darin, 20 Minuten lang mit dem Hamilton-Bot zu debattieren und dessen politische Positionen zu kritisieren. Doch der Clou liegt im zweiten Teil der Aufgabe: Die Studenten müssen das Modell selbst evaluieren. Sie sollen erkennen, wo die KI historisch ungenau ist oder Fehler macht. Es geht also nicht mehr nur um das Abrufen von Fakten, sondern um die Fähigkeit, sowohl die Geschichte als auch die Technologie kritisch zu hinterfragen – eine Kompetenz, die, wie auch die Studie der Raspberry Pi Foundation betont, in Zukunft unverzichtbar sein wird.