Die Bildungsminister:innen der Länder setzen große Hoffnungen auf sogenannte Künstliche Intelligenz. Ihre aktuellen Handlungsempfehlungen, mit denen Schulen auch den Lehrkräftemangel beheben sollen, stoßen bei Expertinnen jedoch auf Skepsis.
Klassen mit mehr als dreißig Schüler:innen, für die Unterrichtsvorbereitung fehlt die Zeit und erst recht für die individuellen Bedürfnisse der Lernenden. Der Mangel an Lehrkräften überfordert das System Schule seit Jahren. Viele Pädagog:innen arbeiten am Limit, entwickeln Burn-out und steigen vorzeitig aus dem Beruf aus.
Dass sich die Lage entspannt, ist nicht absehbar. Zwar hebt der Bund die Gelder für das Bildungssystem regelmäßig an, gut 72 Prozent davon fließen ins Personal. Doch gemessen am Bruttoinlandsprodukt sind die Investitionen ins Bildungssystem in den vergangenen zehn Jahren um gerade einmal 0,2 Prozentpunkte gestiegen. Das sei nicht genug, um den Bedarf zu decken, kritisiert der diesjährige Nationale Bildungsbericht (PDF).
Wo immer Fachkräfte fehlen, wächst derzeit der Glaube an die sogenannte Künstliche Intelligenz (KI). Die EdTech-Branche, die technische Anwendungen für den Bildungssektor erstellt, richtet ihre Angebote darauf aus. In TEDTalks und YouTube-Tutorials versprechen technikaffine Didaktiker:innen schnelle Lernerfolge und Produktivitätssteigerungen.
Und auch Schüler:innen nutzen KI längst in ihrem Alltag. Sie verwenden ChatGPT während des Unterrichtes und zur Erledigung der Hausaufgaben. Lehrer:innen zeigten sich hingegen meist überfordert, weil sie die Technologie noch nicht ausreichend verstünden.
Dünne wissenschaftliche Basis
Die Konferenz der Bildungsminister:innen der Länder (Bildungs-MK) – sie ist Teil der Kultusministerkonferenz – veröffentlichte vor wenigen Tagen Handlungsempfehlungen (PDF) zum Umgang mit Künstlicher Intelligenz. Schulen sollen demnach „die Potenziale dieser Technologien für das Lernen und Lehren“ nutzen und zugleich einen kritischen Umgang mit dem Thema KI pflegen.
Dabei stützt sich die Bildungs-MK auf den Bericht „Large Language Models und ihre Potenziale im Bildungssystem“ (PDF) der Ständigen Wissenschaftlichen Kommission (SWK). Demzufolge könnten KI-Sprachmodelle, sogenannte Large Language Models, LLMs, Lehrkräfte entlasten, etwa indem sie diese dabei unterstützen, Lernmaterial zu erstellen oder den Unterricht vorzubereiten. Auch könnten sie dabei helfen, den Schüler:innen individuelles Feedback zu geben oder deren Klausuren zu korrigieren.
Sogenannte Intelligente Tutorielle Systeme (ITS) könnten den Schüler:innen zugutekommen und sie entsprechend ihrer individuellen Bedürfnisse beim Lernen fördern, so die Einschätzung des SWK. ITS ahmen menschliche Tutor:innen nach. Ihr Vorgehen basiert auf wissenschaftlich untersuchten Lernpfaden, die Schüler:innen nehmen, um Inhalte effizient zu erlernen.
Diese Lernpfade sollen gemäß der Vorgaben der Bildungs-MK aber nicht länger Pädagog:innen, sondern LLMs ausarbeiten. Ein solcher Vorschlag entbehre indes jeder wissenschaftlichen Basis, kritisiert Wikimedia Deutschland in ihrer Initiativstellungnahme zu dem entsprechenden Vorhaben der Minister:innen, die netzpolitik.org vorliegt. Wikimedia weist zudem darauf hin (PDF), dass die Bildungs-MK von KI-Systemen spricht, ohne dabei beispielsweise generative KI wie LLMs von symbolischer KI wie ITS klar zu unterscheiden.
Den Lehrkräften fehlt das Wissen
Laut Bildungs-MK hätten Intelligente Tutorielle Systeme das Potenzial, Lehrkräfte zu entlasten. Allerdings deuten die Minister:innen in ihrem Papier an, dass zunächst mehr Arbeit auf die Lehrkräfte zukommt. Denn ihnen obliege die Aufgabe, den Schüler:innen „einen konstruktiv-kritischen Umgang“ mit KI zu vermitteln: Prompts zu schreiben, Quellen zu prüfen und diskriminierende Verzerrungen in den mit KI erzeugten Inhalten zu erkennen. Das dafür erforderliche Wissen müssen sich die meisten Lehrkräfte aber zunächst selbst erst aneignen.
Darüber hinaus müssten die Lehrenden auch „eine neue Prüfungskultur“ etablieren, die die Bildungs-MK noch ausarbeiten will. Es brauche „eine an einer Kultur der Digitalität ausgerichtete Prüfungskultur“, Abschlussprüfungen seien entsprechend anzupassen. Wie dies jedoch im Detail ablaufen soll, verrät die Bildungs-MK nicht.
Anne-Sophie Waag, Referentin für Bildungspolitik bei Wikimedia Deutschland, ist skeptisch, dass KI die Arbeit der Lehrenden langfristig erleichtern kann. Erste Untersuchungen (PDF) würden belegen, dass Lehrkräfte durch den Einsatz etwa von ChatGPT nicht weniger Arbeit haben, sondern dass sich deren Aufgaben und Tätigkeitsprofile verlagerten.
Es droht Mehrbelastung
Auch die GEW-Vorsitzende Maike Finnern zeigt sich nicht überzeugt davon, dass der Einsatz von KI die Lage an den Schulen verbessert. „Auch Rationalisierungsmaßnahmen können zu Mehrarbeit und Arbeitsverdichtung führen, indem neue Aufgaben hinzukommen oder Prozesse beschleunigt werden, die Frequenz der Aufgaben erhöht wird oder größere Klassengrößen angesetzt werden“, sagt Finnern gegenüber netzpolitik.org.
Die Gewerkschafterin warnt davor, KI und automatisierte Lernsysteme als Lösung für den Lehrkräftemangel zu sehen. Für eine nachhaltige Entlastung an den Schulen müssten mehr Lehrkräfte eingestellt werden. „KI kann nicht die Lösung für eine verfehlte Haushaltspolitik sein“, so Finnern.
Das kritisiert auch Nina Galla. Verantwortliche auf allen Ebenen würden seit Jahren zwar den Lehrkräftemangel beklagen, die Ursachen aber ignorieren: die Gehaltsspreizungen bei Grundschul- und Gymnasiallehrer:innen oder Fragen der Verbeamtung. Galla ist hauptberuflich Pressesprecherin bei AlgorithmWatch, zuvor war sie Referentin für die Enquete-Kommission Künstliche Intelligenz für die damalige Linksfraktion im Deutschen Bundestag.
KI werde als Allheilmittel gesehen und habe die Debatte abgewürgt. „Das ist eine toxische Gaslighting-Strategie der Politik, die sich nicht mehr mit denen auseinandersetzt, die mit dem Mangel umgehen müssen“, so Galla gegenüber netzpolitik.org.
Datenschutz ist kein Thema
Lehrer:innen müssen infolge des KI-Einsatzes im Unterricht aber nicht nur mit mehr Arbeit rechnen, sondern auch einer steigenden Verantwortung gerecht werden – etwa beim Thema Datenschutz. So sollen Lehrkräfte in Baden-Württemberg beispielsweise die Eingaben der Schüler:innen in die KI-Systeme daraufhin überprüfen, ob diese personenbezogene Daten enthalten.
Das sei in der Praxis kaum umzusetzen, erklärt Anne-Sophie Waag von Wikimedia gegenüber netzpolitik.org. Ein solcher Anspruch setze voraus, „dass Lehrkräfte selbst über das dafür erforderliche Wissen verfügen“. Gerade Intelligente Tutorielle Systeme sammelten viele Daten der Nutzenden, um entsprechende Vorschläge unterbreiten und Entscheidungen treffen zu können, sagt Waag. Wie damit hinsichtlich des Datenschutzes umgegangen werden soll, führt die Bildungs-MK in ihren Handlungsempfehlungen nicht aus. Sie frage auch nicht danach, wer die Systeme bereitstellt, wo die Daten liegen und wer sie wie verwenden darf, so Waag.
Lehrkräfte würden außerdem für den Erfolg oder Misserfolg des KI-Einsatzes in die Verantwortung genommen – nicht aber die Technik selbst. Dabei sei es derzeit noch weitgehend unklar, welche Folgen es hat, wenn Entscheidungen über Lernverläufe und -inhalte an Intelligente Tutorielle Systeme oder LLMs ausgelagert werden.
„Mit den bisherigen KI-Systemen und der aktuellen Ausbildung der Lehrkräfte ist eine Bewertung nicht möglich“, so Waag gegenüber netzpolitik.org. KI-Systeme seien intransparent, Lehrkräfte könnten deren Entscheidungen daher nicht nachvollziehen. Somit könnten sie auch nicht bewerten, ob deren Entscheidungen – gerade mit Blick auf die individuellen Bedürfnisse von Schüler:innen – sinnvoll sind.
Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Meist kommentiert