Kalifornien treibt den Einsatz von Künstlicher Intelligenz im Bildungswesen massiv voran. Gouverneur Gavin Newsom forcierte diesen Sommer die Implementierung von KI-Systemen an staatlichen Schulen, Community Colleges und im System der California State University (CSU). Ziel sei es, Studierende für eine „breite Palette von Arbeitsplätzen“ in diesem Bereich zu schulen. Doch dieser Vorstoß sorgt für eine tiefe Kluft an den Hochschulen, an denen Lehrende und Studierende geteilter Meinung über den Nutzen und die Gefahren der Technologie sind.
Der administrative Vorstoß
Um die Initiative zu untermauern, wurden bereits Fakten geschaffen. Im September ging Googles Gemini eine Partnerschaft mit dem kalifornischen Community College System ein. Das Kanzleramt der CSU schloss bereits im Februar einen Vertrag mit OpenAI über 16,9 Millionen Dollar. Diese Investition gewährt jedem Studierenden und Lehrenden einen ChatGPT-Account und bietet Schulungsmodule an, um sie mit den „am Arbeitsplatz benötigten KI-Fähigkeiten“ auszustatten.
Ed Clark, Chief Information Officer im Kanzleramt der CSU, verteidigt die Partnerschaft als eine Frage der Gerechtigkeit. „Wir wollen, dass CSU-Studierende den gleichen Zugang zu diesem Werkzeug haben wie Studierende der Ivy League“, so Clark. „Wir wollen nicht, dass sie auf dem Arbeitsmarkt benachteiligt werden.“
Der Widerstand der Lehrenden
Trotz dieser Ziele stößt die Initiative auf gemischte Reaktionen. Eine der lautstarken Kritikerinnen ist Toddy Eames, Film- und Medienprofessorin an der Cal State Dominguez Hills. Sie gehört zu den sogenannten „KI-Rebellen“, die den Einsatz von KI in Unterrichtsräumen ablehnen. Kürzlich führte sie ihre Filmstudenten aus dem Klassenzimmer ins Academy Museum of Motion Pictures, um „Der weiße Hai“ zu sehen – eine bewusste, geteilte menschliche Erfahrung, die das kritische Denken fördern soll.
Eames betrachtet KI als eine „Krücke“, ein Werkzeug, das den Studierenden einen Großteil der Arbeit abnehmen kann und dabei den Lernprozess und die Auseinandersetzung mit Herausforderungen umgeht. „Am College geht es um den Prozess, nicht um das Produkt“, sagt sie. „Wenn man nur hier ist, um den Abschluss zu bekommen, was ist dann der Sinn?“
Sie war „enttäuscht“, als sie von der Partnerschaft mit OpenAI erfuhr, da es keine Vorankündigung und anfangs auch keine Schulungen für die Dozenten gab. Um ihre Skepsis zu untermauern, lud Eames einen Hollywood-Filmproduzenten in ihren Kurs ein. Sie fütterten eine KI mit dem Oscar-prämierten Drehbuch „Moonlight“ und einem „schrecklichen Drehbuch“ mit ähnlicher Thematik. Das KI-Tool bewertete beide Drehbücher als gleichwertig, was Eames in ihrer Überzeugung bestärkte, dass KI kein gutes von einem schlechten Skript unterscheiden kann.
„Was bringt all diese Technologie“, fragt Eames, „wenn wir vergessen, wie man menschlich ist?“
Bedenken hinsichtlich der Qualität
Diese Bedenken teilen auch andere Lehrende. Nancy Ann Cheever, Koordinatorin des Journalismus-Programms an der CSUDH, nutzt KI bewusst überhaupt nicht – weder für Unterrichtspläne noch für Ideenfindung. Ihre Hauptsorge ist die mangelnde Zuverlässigkeit. „Die KI produziert keine akkuraten Informationen“, erklärt sie und weist darauf hin, dass die Technologie oft auf urheberrechtlich geschütztem Material trainiert wird. Sie befürchtet, die Geisteswissenschaften könnten durch generische Computeralgorithmen „verwässert“ werden.
Auch Dan Barden, Professor für Englisch, sieht die Ergebnisse kritisch. KI schreibe oft dieselben „Bullshit-Papiere“, die er aus der High School kenne – Texte, die sich nicht „warm oder menschlich“ anfühlen. Professoren, die die Arbeiten ihrer Studierenden wirklich lesen, würden den Unterschied zwischen einem Menschen und einem Roboter erkennen. Mira Assaf, ebenfalls Englisch-Professorin, pflichtet bei: „Aggregierte Fakten sind kein kritisches Wissen. Lernen ist relational, dieser körperliche Nervenkitzel, den man empfindet, wenn man eine Fähigkeit meistert.“
Zwiespältige Studierende
Die Studierenden selbst stehen oft zwischen den Fronten. Flynn Fluetsch, 19, studiert Anthropologie am Sacramento City College und ist zwiegespalten bezüglich der Partnerschaft mit Google Gemini. In der Hälfte ihrer Kurse ist KI verboten, weshalb sie sich fragen, warum sie sich überhaupt daran gewöhnen sollten.
Fluetsch (verwendet die Pronomen „they/them“) sieht zwar den Wert von KI als Thesaurus oder zur Strukturierung von Ideen, meidet sie aber für die eigentliche Bildungsarbeit. „Ich muss so viel mehr Zeit damit verbringen, es zu vermeiden oder sicherzustellen, dass meine Arbeit nicht fälschlicherweise als KI markiert wird, obwohl sie es nicht ist. Es hat mein Leben bisher nicht einfacher gemacht.“ Auch das Argument der Arbeitsmarktvorbereitung zieht für Fluetsch nicht, da große Unternehmen wie Amazon oder Apple den Einsatz von KI intern verbieten.
Evelyn Favela, 22, eine kürzliche Soziologie-Absolventin der CSUDH, vermied KI bewusst und nutzte stattdessen das Schreibzentrum und Tutorien. Sie stieß online auf Berichte über Menschen mit „KI-Freunden“, die Chatbots zur emotionalen Unterstützung nutzen, was sie als „zutiefst beunruhigend“ empfand und als Zeichen einer drohenden sozialen Isolation sieht. „Wenn ich mich darauf verlassen hätte, dass KI meine Arbeiten für mich schreibt, was wäre dann der Sinn gewesen, Studiengebühren zu zahlen?“
Budget, Ethik und der Mittelweg
Die Debatte wird durch finanzielle und ethische Fragen weiter angeheizt. Meg Whitener, 41, kehrte ans College zurück, um an der Sonoma State Rechtsphilosophie und Ethik zu studieren. Sie war „schockiert“, dass das CSU-System 16,9 Millionen Dollar für KI ausgab, während gleichzeitig ihre Fakultät und sechs weitere aus Budgetgründen geschlossen wurden.
„Geht es an der Universität darum, zu lernen, wie man einen wirklich guten Prompt schreibt“, fragt Whitener, „oder geht es darum, zu lernen?“
Trotz des Drucks zur Einführung von KI betont die CSU-Verwaltung, dass es keinen Zwang gebe. „Wir unterstützen die akademische Freiheit zu 100 Prozent“, sagt Leslie Kennedy, Vizekanzlerin für akademische Technologiedienste. Es liege an den Dozenten, ihre Toleranzgrenzen festzulegen. Ed Clark ergänzt, die Technologie sei als Ergänzung, nicht als Ersatz für das Denken positioniert.
Einige Studierende suchen nach einem Kompromiss. Genesis Washington, Erstsemester, meint, man müsse Grenzen setzen. „Um Hilfe bei Studienführern oder einer Gliederung zu bitten, das ist okay. Aber direkte Antworten zu verlangen oder einen Aufsatz schreiben zu lassen, da zieht man die Grenze.“
Die Realität ist, dass KI-Plattformen als Assistenten konzipiert wurden, um die Produktivität zu steigern. Die Herausforderung besteht darin, einen verantwortungsvollen Umgang zu lehren. Die Menschheit, so der Tenor, sollte nicht vor der KI fliehen, sondern lernen, mit ihr zu arbeiten, ohne dabei die grundlegenden Fähigkeiten des kritischen Denkens und Problemlösens zu verlernen.