Darf ich einen KI-Chatbot in der Lehre einsetzen? – Fall des Monats Dezember ’25
Das Team der Rechtsinformationsstelle ORCA.nrw unterstützt Lehrende aus Nordrhein-Westfalen bei rechtlichen Fragen. Im Format „Fall des Monats“ stellt es regelmäßig einen besonderen Sachverhalt vor, der sich aus einer zu bearbeitenden Anfrage oder aus aktueller Rechtsprechung ergibt.

Ausgangspunkt
Eine Dozentin an einer Hochschule in Nordrhein-Westfalen möchte ihren Unterricht moderner gestalten und einen KI-Chatbot bauen. Sie nutzt dazu eine KI-Anwendung, in dessen Wissensspeicher sie Lernunterlagen wie Vorlesungsskripte, Foliensätze, Übungsaufgaben und Auszüge aus Fachbüchern einspeist. Die Studierenden sollen den Chatbot als individuelle Arbeitshilfe in Anspruch nehmen, in dem sie Fragen zu den Lehrinhalten stellen können. Ausgehend von dem Wissensspeicher beantwortet der Chatbot die Fragen. Die Dozentin überlegt nun: Darf ich das? Dürfen die Studierenden die KI nutzen? Und wer ist verantwortlich, wenn der Chatbot etwas Falsches ausgibt?
Rechtliche Bewertung
Auch im Hochschulalltag hat das Phänomen KI bereits in vielen Facetten Einzug erhalten. Die oben genannte Ausgangssituation dürfte dabei einer der typischen Anwendungsfälle von KI in einer Hochschule sein, der den Lehrenden Entlastung und den Studierenden ein individuelles Lernen ermöglichen soll. So attraktiv diese Form der KI-Unterstützung auch sein mag, birgt sie vom Einspeisen der Lernunterlagen durch die Lehrperson (1.) über die Nutzung des Chatbots der Studierenden (2.) bis hin zur Ausgabe des Ergebnisses durch den Chatbot (3.) auch einige rechtliche Fallstricke.
1. Einspeisen der Lernunterlagen in den Wissensspeicher der KI
Das Einspeisen der Lernunterlagen in den Wissensspeicher einer KI-Anwendung ist insbesondere aus urheberrechtlicher (a)) und datenschutzrechtlicher bzw. persönlichkeitsrechtlicher Perspektive (b)) relevant. Im Hintergrund ist dafür auch bedeutsam, welche KI-Anwendung genutzt wird und wie diese in der Hochschule implementiert ist (c)).
a) Urheberrecht
Lernunterlagen wie Vorlesungsskripte, Foliensätze, Übungsaufgaben und Buchauszüge sind regelmäßig urheberrechtlich geschützt. Der rechtliche Maßstab ist § 2 Abs. 2 UrhG, nach dem ein Werk eine persönliche geistige Schöpfung erfordert. Der urheberrechtliche Schutz besteht dann für 70 Jahre bis nach dem Tod des Urhebers (vgl. § 64 UrhG). Selbst erstellte Lernunterlagen sind grundsätzlich bedenkenlos nutzbar, da das Urheberrecht dem Schöpfer zukommt (vgl. § 7 UrhG). Bei verlegten Unterlagen sollte die Vertragslage geprüft werden, welche Nutzungsrechte auf den Verlag übertragen worden sind (vgl. §§ 31 ff. UrhG). Bei fremden Werken hängt die Rechtmäßigkeit der Nutzung davon ab, ob ein urheberrechtlicher Erlaubnistatbestand (sog. Schranke) erfüllt ist. Denn das Einspeisen der Lernunterlagen in den Wissensspeicher ist eine Vervielfältigung gemäß § 16 Abs. 2 UrhG, die allein dem Urheber obliegt (vgl. § 15 Abs. 1 Nr. 1 UrhG).
Einerseits kommt als Schranke das Text und Data Mining gemäß § 44b UrhG in Betracht, dessen Reichweite noch unklar ist. Gemäß § 44b Abs. 1 UrhG ist Text und Data Mining die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen. Wesenskern dessen ist also die digital-automatisierte Analyse von Werken zur Mustererkennung. Die Einspeisung von Werken in den Wissensspeicher einer bereits arbeitsfähigen KI ist davon in aller Regel nicht erfasst, da es hier an einer zielgerichteten Weiterentwicklung der KI-Anwendung im Wege der Mustererkennung fehlt. Unabhängig davon sind die Grenzen von § 44b UrhG bislang auch noch nicht höchstrichterlich geklärt worden. Das LG München I sieht in einem aktuellen Urteil die Grenzen des Erlaubten jedenfalls dann überschritten, wenn der Output sich mit den in den Trainingsdaten der KI hinterlegten Werken erkennbar deckt (sog. Memorierung). Zieht man diesen Maßstab auch für den Wissensspeicher heran, sollten Vorkehrungen getroffen werden, dass von dem KI-Chatbot nicht größere Werkteile sehr ähnlich oder identisch wiedergegeben werden. Zu beachten ist allerdings, dass das zitierte Urteil noch nicht rechtskräftig ist und ein Fortgang des Rechtsstreites in der höheren Instanz oder auch eine Vorlage an den EuGH erwartet wird.
Andererseits könnte die Schranke gemäß § 60a UrhG einschlägig sein, die urheberrechtliche Nutzungshandlungen im Bereich Unterricht und Lehre privilegiert. Demnach dürfen zur Veranschaulichung des Unterrichts und der Lehre an Bildungseinrichtungen zu nicht kommerziellen Zwecken bis zu 15 Prozent eines veröffentlichten Werkes vervielfältigt, verbreitet, öffentlich zugänglich gemacht und in sonstiger Weise öffentlich wiedergegeben werden. Die institutionellen Rahmenvoraussetzungen sollten bei Veranstaltungen der curricularen Hochschulbildung in aller Regel erfüllt sein. Grundsätzlich ist der zulässige Umfang aber auf 15 Prozent eines Werkes begrenzt, der in den Wissensspeicher eingebracht werden darf. Abbildungen, einzelne Beiträge aus derselben Fachzeitschrift oder wissenschaftlichen Zeitschrift, sonstige Werke geringen Umfangs und vergriffene Werke dürfen gemäß § 60a Abs. 2 UrhG dagegen vollständig genutzt werden.
b) Datenschutzrecht und Persönlichkeitsrecht
Soweit die Lernunterlagen personenbezogene Daten enthalten, sind bei der Einspeisung in den Wissensspeicher auch die datenschutzrechtlichen Vorgaben nach der DSGVO und ergänzend dem BDSG zu beachten. Auch das allgemeine Persönlichkeitsrecht ist zu wahren.
Personenbezogene Daten sind gemäß Art. 4 Nr. 1 DSGVO alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen; als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann.
Die Verarbeitung dieser Daten ist nur gemäß Art. 6 Abs. 1 DSGVO rechtmäßig, sofern keine sensiblen Daten betroffen sind. Bei personenbezogenen Daten in verlegten Lernunterlagen – wie z. B. das Foto einer Person in einem Lehrbuch – wird man die Rechtmäßigkeit zur Weiterverarbeitung aus einer konkludenten Einwilligung der jeweiligen Person (lit. a)) oder zumindest aus einem berechtigten Interesse als berechtigter Nutzer des Mediums herleiten können (lit. f)). Bei eigenen nicht verlegten Lernunterlagen ist die Einholung einer Einwilligung der jeweiligen Personen zu empfehlen. Gleiches gilt insbesondere auch dann, wenn Daten der Studierenden in den Arbeitsspeicher eingespeist werden sollen. Die Verarbeitung sensibler Daten (bzgl. beispielsweise politischer/religiöser Überzeugungen, sexueller Orientierung) ist gemäß Art. 9 Abs. 1 DSGVO grundsätzlich verboten und nur unter den Voraussetzungen gemäß Art. 9 Abs. 2-4 DSGVO erlaubt. Als stets rechtmäßige Alternative kommt eine Anonymisierung der personenbezogenen Daten in Betracht, sodass kein Rückschluss mehr auf die Identität der jeweiligen Person möglich ist (vgl. Erwägungsgrund 26 zur DSGVO). Die Einspeisung von personenbezogenen Daten in eine KI-Anwendung sollte daher entweder anonymisiert oder mit Einwilligung der jeweiligen Personen vorgenommen werden. Bei der Einwilligung von Studierenden sollte die Freiwilligkeit sichergestellt werden ohne sachfremde Kopplungseffekte für eine Prüfung oder das Studium insgesamt.
Eng verbunden mit dem Datenschutzrecht ist das allgemeine Persönlichkeitsrecht, welches aus der Menschenwürde gemäß Art. 1 Abs. 1 GG und der allgemeinen Handlungsfreiheit gemäß Art. 2 Abs. 1 GG abgeleitet wird. Während das Datenschutzrecht nur die Informationen über eine natürliche Person schützt, gewährleistet das allgemeine Persönlichkeitsrecht die freie Entfaltung der Persönlichkeit. Zudem ist der Schutzbereich nicht nur auf natürliche Personen beschränkt, sodass auch juristische Personen wie Unternehmen oder Vereine erfasst sind (vgl. Art. 19 Abs. 3 GG). Demnach sollten keine Inhalte in die KI-Anwendung eingespeist werden, die sich auf die Ehre sowie die Privat- und Intimsphäre einer natürlichen Person oder innerbetriebliche Angelegenheiten einer juristischen Person auswirken können.
c) Nutzungsbedingungen der Anbieter und hochschulinterne Regelungen
Die Rechtmäßigkeit der Einspeisung von Lernunterlagen hängt nicht nur von den staatlichen Gesetzen ab. Zum einen unterliegen KI-Anwendungen regelmäßig von den Anbietern intendierten Nutzungsbedingungen, die bei dem Gebrauch beachtet werden sollten. Gewöhnlich sind solche Nutzungsbedingungen über die Website des jeweiligen Anbieters abrufbar. Andererseits treffen gegenwärtig immer mehr Hochschulen interne Regelungen zum Umgang mit KI, um den bislang noch undurchsichtigen Anforderungen der europäischen KI-Verordnung gerecht zu werden.
Diese Regelwerke können als unverbindliche Leitfäden oder auch als verbindliche Hochschulsatzung ausgestaltet sein. Insbesondere, wenn eine Hochschule auch selbst KI-Anwendungen nutzt und dadurch zur Anbieterin oder Betreiberin von KI-Systemen wird, sind interne Regularien zu erwarten. Dabei ist es grundsätzlich empfehlenswert für die Lehrperson, auf die KI-Anwendung der Hochschule für den Chatbot zurückzugreifen. Soll eine hochschulexterne KI-Anwendung genutzt werden, sind neben dem Binnenrecht der Hochschule auch die Nutzungsbedingungen des Anbieters sowie die staatlichen Gesetze zu achten. Hierbei sollte im Sinne des Datenschutzrechtes insbesondere die Redlichkeit des gewünschten Anbieters sichergestellt (vgl. Art. 26 ff. DSGVO) und den Anbieter- bzw. Betreiberpflichten der KI-Verordnung Rechnung getragen werden.
2. Nutzung des Chatbots durch Studierende
Auch bei der Nutzung des Chatbots durch die Studierenden sind aus rechtlicher Perspektive einige Dinge zu berücksichtigen. So stellt sich zunächst die Frage der KI-Kompetenz der Studierenden (a)). Ausgehend davon ist erörterungsbedürftig, wer die Verantwortung trägt, wenn die KI-Anwendung durch die Studierenden missbraucht wird und dadurch Rechte von Dritten verletzt werden (b)).
a) KI-Kompetenz der Studierenden
Gemäß Art. 4 KI-VO haben Anbieter und Betreiber die KI-Kompetenz ihres Personals und auch anderer bestimmter Personen durch Schulungsmaßnahmen sicherzustellen. Verwendet eine an der Hochschule beruflich tätige Lehrperson eine KI-Anwendung für ihre Lehre, hängt es von der Verantwortlichkeit im Einzelfall ab, ob die Hochschule oder die Lehrperson als Betreiberin zu qualifizieren ist (vgl. Art. 3 Nr. 4 KI-VO). Selbst wenn die Lehrperson keine Betreiberin ist, hat sie gemäß ihrer Dienstpflicht die Betreiberpflichten der Hochschule durchzusetzen.
Demnach hat sie nach dem Wortlaut von Art. 4 KI-VO jedenfalls die KI-Kompetenz ihres Personals sicherzustellen. Ob dies auch für Studierende gilt, hängt vom Einzelfall ab. Grundsätzlich gilt die Kompetenzpflicht auch für andere Personen, die in dem Auftrag der Lehrperson mit dem Betrieb und der Nutzung von KI-Systemen befasst sind. Entscheidend ist damit, ob die Nutzung des KI-Chatbots im Auftrag der Lehrperson erfolgt oder nicht. Bei einer Nutzungsverpflichtung ist dies der Fall, sodass auch den Studierenden Schulungsmaßnahmen zukommen müssen. Beruht die Nutzung des KI-Chatbots auf freiwilliger Basis, ist die Sache weniger klar. Mangels einschlägiger Rechtsprechung ist aber auch in diesem Fall die Durchführung von Schulungsmaßnahmen zu empfehlen.
Die Art und Weise dieser Schulungsmaßnahmen ist im Gesetz nicht weiter konkretisiert, soll aber nach besten Kräften stattfinden. Mindestens sollte eine präzise Information über die Funktionsweise, den Nutzen und die Risiken von KI im Allgemeinen und auch der konkret genutzten KI-Anwendung erfolgen. Besser dürfte noch ein Selbsttest sein, den die Studierenden vor der ersten Nutzung machen. In jedem Fall sollte zu etwaigen Beweiszwecken eine Dokumentation der Schulungsmaßnahme erfolgen.
b) Verantwortlichkeit bei Missbrauch
Zumindest durchdacht werden sollte im Vorfeld die Situation, dass der KI-Chatbot von den Studierenden zu lehrfremden Zwecken missbraucht wird. In diesem Zusammenhang stellt sich die Frage, wer für etwaige Schäden und Rechtsverletzungen haftet.
Grundsätzlich gilt im deutschen Zivilrecht, dass eine Haftung auf Schadensersatz stets ein Verschulden des Schädigers voraussetzt (vgl. § 823 Abs. 1 BGB). Andernfalls kann nur die Beseitigung und künftige Unterlassung einer Rechtsverletzung verlangt werden (vgl. § 1004 Abs. 1 BGB). Für ein Verschulden ist gemäß § 276 Abs. 1 UrhG stets Vorsatz oder Fahrlässigkeit erforderlich. Wird der KI-Chatbot durch Studierende missbraucht, sind in erster Linie die eigenverantwortlich handelnden Studierenden für etwaige Schäden haftbar. Bei der Lehrperson wäre dies nachgelagert nur der Fall, wenn ihr beispielweise wegen mangelnder Schulungsmaßnahmen ein fahrlässiges Handeln nachzuweisen wäre. Durch sorgfältige Schulungsmaßnahmen kann die Lehrperson das Haftungsrisiko eingrenzen.
3. Verantwortlichkeit für fehlerhafte Ausgaben
Schließlich stellt sich noch die Frage, wer bei einer Fehlfunktion des KI-Chatbots bei der Ausgabe die Verantwortung trägt. Man stelle sich hierbei vor, Studierende nutzen den KI-Chatbot zur Prüfungsvorbereitung oder in einer Prüfung und erzielen aufgrund fehlerhafter Ausgaben ein schlechtes Prüfungsergebnis. Diese Fragestellung ist in erster Linie eine des Prüfungsrechts (a)). Nachrangig ist aber auch eine zivilrechtliche Haftung denkbar, etwa wenn das schlechte Prüfungsergebnis Studierenden eine schon in Aussicht stehende Arbeitsstelle kostet oder sich das Studium und die damit verbundenen Kosten um ein weiteres Semester verlängern (b)).
a) Prüfungsrechtliche Verantwortlichkeit
Die Rechtsgrundlage einer Prüfung ist die jeweilige Prüfungsordnung, die von der Hochschule nach den internen Regularien erlassen wird. Der Rechtsrahmen für Prüfungsordnungen ist in NRW § 64 HG. Ziel dessen ist die Gewährleistung eines Prüfungsverfahrens, das rechtsstaatlichen Grundsätzen in Sachen Transparenz, Fairness und Chancengleichheit gerecht wird. Ausgehend davon muss im Einzelfall überlegt werden, wie dieses Ziel zu erreichen ist. Ein Anhaltspunkt dafür ist die Abgrenzung der Verantwortungsbereiche von der Hochschule (Lehrperson) und den Prüflingen (Studierende).
Setzt eine Lehrperson im Rahmen einer Lehrveranstaltung technische Hilfsmittel ein, ist die Lehrperson für die technische Funktionsfähigkeit dieser Hilfsmittel verantwortlich. Denn im Gegensatz zu den Studierenden hat sie die Entscheidungshoheit über die Hilfsmittel. Dieser Grundsatz gilt auch für einen KI-Chatbot, den die Lehrperson als Hilfsmittel auswählt. Der primäre Nutzen dieses Hilfsmittels erfordert allerdings die Bedienung durch die Studierenden. Die korrekte Bedienung des Hilfsmittels liegt wiederum im Verantwortungsbereich der Studierenden. Ein KI-Chatbot ist allerdings eine technisch komplexe Anwendung, die selbst bei korrekter Bedienung auch falsche Ergebnisse ausgeben kann. Der Einsatz von KI erweist sich somit als Gratwanderung zwischen den Verantwortungsbereichen, die nur aufgrund der Gesamtumstände des Einzelfalls zu lösen ist.
Die Lehrperson kann ihrer Verantwortung für die Wahl des Hilfsmittels dadurch nachkommen, indem sie die Studierenden für Halluzinationen von KI-Anwendungen sensibilisiert und für einen entsprechend kritischen Umgang wirbt. Zudem kann sie die Funktionsfähigkeit des KI-Chatbots selbst überwachen. Zeigt sich eine Fehlfunktion, sollte die Lehrperson der Ursache unmittelbar auf den Grund gehen und die Studierenden darüber informieren. Ein gewisses Restrisiko einer Halluzination wird durch solche Präventivmaßnahmen aber nicht auszuschließen sein. Demnach sollte schon aus Gründen der Transparenz im Vorfeld des Einsatzes eines KI-Chatbots geklärt sein, wie mit Ausgabefehlern im Hinblick auf Prüfungsleistungen umgegangen wird. Bestenfalls wird ein solches Szenario über die Prüfungsordnung abgedeckt. Ist dies nicht der Fall, kann die Lehrperson für ihre Prüfungen entsprechende Bearbeiterhinweise geben.
b) Allgemeine zivilrechtliche Verantwortlichkeit
Für die allgemeine zivilrechtliche Haftung gelten auch im Falle einer fehlerhaften Ausgabe die bereits genannten Grundsätze (2. b)). Eine Haftung auf Schadensersatz setzt stets ein Verschulden des Schädigers in Form von Vorsatz oder Fahrlässigkeit voraus. Pflegt die Lehrperson einen sorgfältigen und transparenten Umgang sowohl hinsichtlich der Prüfung als auch des KI-Chatbots, wird man ihr kein Verschulden zur Last legen können. Folglich haftet sie dann auch nicht auf Schadensersatz.
Fazit
Der Einsatz eines KI-Chatbots birgt vom Einspeisen der Lernunterlagen durch die Lehrperson (1.), über die Nutzung des Chatbots der Studierenden (2.) bis hin zur Ausgabe des Ergebnisses durch den Chatbot (3.) rechtliche Risiken. Bei der Einspeisung der Lernunterlagen in den Wissensspeicher sind insbesondere das Urheberrecht, das Datenschutzrecht sowie das allgemeine Persönlichkeitsrecht zu achten. Abseits der staatlichen Gesetze sollten auch die Nutzungsbedingungen der KI-Anbieter sowie interne Regularien der Hochschule berücksichtigt werden. Bei der Nutzung des KI-Chatbots durch Studierende sollte deren KI-Kompetenz sichergestellt werden, was zugleich auch einer Haftung der Lehrperson im Falle des Missbrauchs vorbeugt. Soll der KI-Chatbot auch zur Prüfungsvorbereitung oder in Prüfungen genutzt werden können, sollten Vorkehrungen für fehlerhafte Ausgaben getroffen werden. Hier gelten insbesondere die allgemeinen Grundsätze eines rechtsstaatlichen Prüfungsverfahrens.
© Canva
© Canva
© Canva
@RUB, Marquard
© Canva
© ORCA.nrw
© Canva
© Canva
© ORCA.nrw