Chatbots: Geniale Potenziale oder doch eher improvisierte Juristerei?

 

 

 

 

Rechtliche Komplexitäten und Spannungsverhältnisse bei der Anwendung von Künstlicher Intelligenz (KI) im Hochschulsektor am Beispiel von ChatGPT

 

 

 

 

 

Dr. Marlon Possard MSc, MA

(geb. 1995) lehrt und forscht

als Habilitand (PostDoc) am Department für Verwaltung,

Wirtschaft, Sicherheit und Politik

und am Research Institute for Administrative Sciences (RIAS)

an der FH Campus Wien. Seine

Lehr- und Forschungsschwerpunkte liege

in den Bereichen Gesellschafts- und Steuerrecht,

Rechtsphilosophie und Verwaltungwissenschaft.                                                                                                                      

 

ChatGPT: Durchbruch oder rechtliches Dilemma?

Künstliche Intelligenz (KI) verändert zunehmend alle Bereiche des gesellschaftlichen Zusammenlebens, vorwiegend die Gebiete Bildung und Arbeit. Insbesondere Fragen, die sich gegenwärtig im Sektor von Hochschulen eröffnen, stellen nicht nur die wissenschaftliche Integrität im Kontext der Anwendung von Chatbots, wie beispielsweise jener der KI-Software ChatGPT, auf den Prüfstand, sondern fordern vor allem konkrete Pläne für den Umgang mit solchen KI-Phänomenen in der Praxis. Dass die aktuelle Entwicklung von KI als innovativ und bahnbrechend klassifiziert werden kann, steht zweifelsohne außer Diskussion. Jedoch müssen neuartige Formen von KI auch aus rechtlicher Perspektive bewältigbar sein. Hierbei gilt zu beachten, dass einige juristische Fragen bisher nicht vollständig oder nur unzureichend geklärt sind. Exempelhaft kann hierbei die urheberrechtliche Situation von Texten, wie zum Beispiel die Textgenerierung mittels ChatGPT, im Hochschulsektor skizziert werden. Konkrete Regelungen blieben bis dato jedoch aus. Die Problematik diesbezüglich zeigt sich darin, dass eine unzureichende rechtliche Konstellation im Rahmen von KI automatisch zu Rechtsrisiken führen und bei Rechtsunterworfenen gleichzeitig Unsicherheiten auslösen kann. In dieser Hinsicht steht der Ausbau von KI aktuell expressis verbis im Gegensatz zu den Intentionen des gesetzgeberischen Agierens. Daher stellt sich de jure berechtigt die Frage: ChatGPT – Segen oder Fluch?

 

Urheber*innen: Eine kompakte rechtliche Einordnung

Zunächst gilt es zu klären, was faktisch unter eine Urheber*innenschaft aus gesetzlicher Sicht in Österreich subsumiert wird. Die Rechtsbestimmung steht diesbezüglich in Verbindung mit dem Terminus des „Werks“. So normiert § 1 Abs. 1 und 2 UrhG „Werke“ an sich: „§ 1. (1) Werke im Sinne dieses Gesetzes sind eigentümliche geistige Schöpfungen auf den Gebieten der Literatur, der Tonkunst, der bildenden Künste und der Filmkunst. (2) Ein Werk genießt als Ganzes und in seinen Teilen urheberrechtlichen Schutz nach den Vorschriften dieses Gesetzes.“ Die Definition von Urheber*innen wiederum, wird im aktuellen Gesetzestext recht einfach und nicht detailliert bestimmt, was in vielen praktischen Rechtsfällen durchaus problematisch erscheint. So wird in § 10 Abs. 1 UrhG lediglich Folgendes festgehalten: „§ 10. (1) Urheber eines Werkes ist, wer es geschaffen hat.“ Aufgrund der rasanten Fortentwicklungen im Bereich der technischen Möglichkeiten, die insbesondere die Schnittstellen von wissenschaftlicher Integrität an Universitäten und Hochschulen berühren, und hier im Speziellen in Bezug auf wissenschaftliches Arbeiten, kann dem Gesetzgeber hinsichtlich der offenbar wenig überzeugenden Rechtsbestimmungen expliziter Handlungsbedarf zugeschrieben werden.

 

Machine Learning: Herausforderungen für die Rechtspraxis und für Hochschulen

Auf die Frage „Bist du Urheber deiner Texte?“, die an ChatGPT gerichtet war, wird durch die KI-Technologie beispielsweise folgende Antwort generiert: „Als AI-Assistent wurde ich von Menschen programmiert und trainiert, um Informationen bereitzustellen und Fragen zu beantworten. Daher bin ich nicht der Urheber meiner Texte, sondern gebe lediglich die Informationen weiter, die mir zur Verfügung stehen.“ Diese Antwort durch ChatGPT ist insofern richtig, da gemäß geltender gesetzlicher Bestimmungen für eine Urheber*innenschaft in Österreich zwingend eine natürliche Person vorausgesetzt wird, denn eine KI-Software kann nicht als Urheber*in von Texten namhaft gemacht werden. Aus juristischer Sicht spricht man dahingehend vom sog. Schöpferprinzip, das hier Geltung findet. Die lizenzfreie Nutzung der  ChatGPT-Texte ist daher zunächst möglich. Gleichzeitig hebt die ChatGPT-Antwort die juristische Komplexität hervor, mit der sich überwiegend Hochschulen in gegenwärtigen Zeiten auseinandersetzen müssen. Daher unterliegt die Rechtspraxis aufgrund des Fortschritts und der Weiterentwicklung der KI einer Art Zeitenwende – sowohl betreffend die rechtlichen Regulierungen im Sinne der Digitalisierung (z. B. datenschutzrechtliche Aspekte oder Cybersicherheit) als auch im Kontext immaterialgüterrechtlicher Bestimmungen. Für die Anwendung von KI im Hochschulbereich bedeutet dies lege artis einerseits, dass ChatGPT keine Urheber*innenschaft betreffend die KI-generierten Texte geltend machen kann. Das Verwertungsrecht der durch die KI generierten Texte liegt somit nicht beim Betreiber von ChatGPT. Diese Situation kann darauf zurückgeführt werden, dass ChatGPT nicht von sich aus, d. h. selbstständig, tätig wird, sondern die Textbereitstellung rein auf Algorithmen basiert. Bei Fehlen von menschlichem Wirken kann also keine Urheber*innenschaft seitens der jeweiligen KI-Software vorliegen. Auch ein Verstoß gegen das UrhG seitens ChatGPT kann zum Status quo ausgeschlossen werden, da aufgrund der Algorithmen die Ergebnistexte, die sich auf die ChatGPT-Abfrage stützen, immer wieder neu systematisiert werden. Eine Vervielfältigung kann aus juristischer Sicht daher verneint werden. Andererseits kann eine Urheber*innenschaft jene Personen betreffen, die KI-erstellte Texte für ihre eigenen Zwecke nützen. Dies kann vor allem dann der Fall sein, wenn ein bestimmter Text, der bereits existiert und durch den bzw. die Anwender*in verfasst wurde, durch ChatGPT bloß umgeschrieben wird. Juristisch strittig ist in diesem Zusammenhang jedoch weiterhin, ob, wann und in welchem Ausmaß sodann eine solche Urheber*innenschaft greift, da ChatGPT diesbezüglich nur als technisches Instrument Verwendung findet. Dies trifft aktuell im Speziellen auf Student*innen zu, die ihre Seminar-, Haus oder Abschlussarbeiten unter Zuhilfenahme von ChatGPT erstellen und bestimmte Textbausteine bereits von sich aus vorgeben. Vermehrt wird in Praxis und Theorie und im wissenschaftlichen Diskurs die Meinung geteilt, dass der individuelle Beitrag bzw. die Erweiterung und Veränderung des KI-basierten Textes durch die Student*innen für eine solche Bewertung ausschlaggebend ist, also unmittelbar mit dem Input der KI-Anwender*innen konnektiert ist. Aus juristischer Perspektive ist eine Miturheber*innenschaft von Student*innen an den durch ChatGPT erstellten Texten durchaus möglich, sofern der spezifische Text wesentlich durch die Eingaben der Student*innen generiert wurde. 

 

 

Plagiat oder nicht?

Zudem stellt sich im Hochschulsektor immer häufiger die Frage, ob das bloße Übernehmen von Texten, die mittels einer KI-Software generiert wurden, gänzlich als Plagiat zu werten ist. Diese Plagiatsdiskussion und die damit verbundenen Unsicherheiten führten in den vergangenen Monaten bei einigen Hochschulen zu überschießenden und teils ausufernden Regelungen hinsichtlich des Umgangs mit ChatGPT in Lehre und Forschung. Einige Universitäten und Fachhochschulen reagierten beispielsweise mit einem eingefügten Absatz in Bezug auf die verpflichtende Unterzeichnung eidesstattlicher Erklärungen und das ausdrücklich festgehaltene selbstständige Anfertigen der jeweiligen Arbeit. Analysiert man die diversen Novellierungen der Eigenständigkeitserklärungen an diversen Hochschulen und stellt man diese vergleichend gegenüber, so zeigt sich, dass

ChatGPT häufig als Instrumentarium verwendet werden darf, sofern die jeweiligen Textstellen in aller Deutlichkeit als ebensolche gekennzeichnet werden. Die Krux in diesen Fällen: Aus rechtlicher Sicht müssten die übernommenen ChatGPT-Textpassagen überhaupt nicht gekennzeichnet werden, da sensu stricto keine Urheber*innenschaft von ChatGPT vorliegt. Zu beachten ist dahingehend prinzipiell, dass die Übernahme von Textteilen durch Studierende nicht nur im Sinne eines Plagiats problematisch ist, sondern auch deshalb, weil ChatGPT nicht als verlässliche bzw. vertrauenswürdige Quelle im Wissenschaftsbereich klassifiziert werden kann. Damit fehlt dem KI-Programm das wesentlichste Charakteristikum, nämlich das Nichtvorhandensein einer fundierten wissenschaftlichen Kategorisierung. Im Umgang mit ChatGPT lohnt es sich daher, seitens der Hochschule verpflichtende und einheitliche KI-Zitierregelungen vorzugeben –  nicht zuletzt deshalb, um die gute wissenschaftliche Praxis der Student*innen zu fördern. Dass Missbrauchs- und Täuschungsabsichten durch Student*innen niemals völlig ausgeschlossen werden können, war bereits vor dem Aufkommen von ChatGPT klar. Plagiatsfälle im Kontext von ChatGPT sind zudem nur schwer ermittelbar, da es derzeit noch keine verlässlichen Programme gibt, die das Gegenteil beweisen können, selbst wenn sich gegenwärtig verschiedene Programme hierfür in einer Testphase befinden. Für individuelle Prüfungsleistungen von Studierenden an Universitäten und Hochschulen, die in Verbindung mit Fragen des Urheberrechts stehen, gilt jedoch weiterhin, dass erschlichene Leistungen (z. B. Arbeiten, die gänzlich mittels ChatGPT erstellt wurden) ohne explizite Kennzeichnung der

KI-Erstellung als negativ zu beurteilen sind. Letzteres galt aber schon vor ChatGPT, wo beispielsweise sog. „Ghostwriter“ die Tätigkeit von ChatGPT übernommen haben. Dasselbe gilt im Übrigen Tür Grafiken und Bilder, die mithilfe von ChatGPT erstellt wurden. Diesbezüglich greift der Bildnisschutz nach § 78 UrhG, sofern der höchstpersönliche Lebensbereich der abgebildeten Personen verletzt wird. In weiterer Folge können zudem Ansprüche gemäß dem MedienG aufgrund unzulässiger Verwendung geltend gemacht werden. Leistungsfeststellungen und Haftungsrisiken Ein weiterer Gesichtspunkt, der zwar nicht direkt mit der Anwendung von KI durch Studierende in Zusammenhang steht, jedoch das wissenschaftliche Personal betrifft, ist jener der Verwendung von generativer KI innerhalb der Hochschullehre. Sukzessive eröffnet sich dahingehend die Frage, ob im Sektor der Leistungsfeststellung diverse KI-Methoden zur Anwendung kommen dürfen. Hierbei ist zu beachten, dass Prüfungsleistungen grundsätzlich nicht einer KI-bezogenen Prüfungsfeststellung unterliegen dürfen, sondern die Beurteilung weiterhin durch physische Prüfer*innen (z. B. Professor*innen) erfolgen muss. Darüber hinaus kann hervorgehoben werden, dass bei etwaigen Schäden, die durch die Nutzung von KI in der hochschulbezogenen Lehre durch ebendiese herbeigeführt werden, die zivilrechtlichen Haftungsmöglichkeiten Geltung finden. Diesbezüglich können insbesondere Schadenersatzleistungen bei etwaigen Urheberrechtsverletzungen genannt werden. In Bezug auf Haftungsfragen kann skizziert werden, dass die Urheber*innenschaft jedoch nicht der bzw. dem jeweiligen Programmierer*in zugeordnet werden kann, da auch diese*r bloß abstrakte KI-Regeln implementiert, die KI-Software jedoch die Textbausteine eigenständig erzeugt. Es mangelt also auch hier am persönlichen Input und an der Kreativität der Programmierer*innen. Schlussendlich kann darauf hingewiesen werden, dass nicht alle Informationen, die durch ChatGPT erstellt und zur Verfügung gestellt werden, auch richtig sein müssen. Fehlerquellen können durch die Anwendung des Chatbots nicht ausgeschlossen werden, was insbesondere im Kontext von wissenschaftlicher Qualität der Informationsbereitstellung durchaus fragwürdig erscheint.

 

Conclusio und Ausblick: Quo vadis ChatGPT und Recht?

Summa summarum kann attestiert werden, dass die Implementierung von produktivitätssteigernden Maßnahmen mittels ChatGPT und die vermehrte Zurückdrängung eigenständigen, menschlichen und kritischen Denkens sowohl aus gesellschaftlicher als auch aus rechtlicher Sicht nicht ganz ungefährlich sind. Diese besondere Beziehung zwischen Mensch und Maschine erweist sich vorwiegend vor dem Hintergrund zivilrechtlicher Rechtsmaterien als herausfordernd. Die Nutzung von ChatGPT kann in Österreich einem rechtlichen Grenzbereich zugeordnet werden, in dem sich weiterhin einige Gesetzeslücken, unter anderem im Sektor der Hochschulbildung, befinden. Hier ist der Gesetzgeber gefordert, gesetzliche Maßnahmen  zu implementieren, die sowohl auf nationaler als auch auf unionsrechtlicher Ebene wirksame Rechtssicherheit bieten, um juristischen Konfusionen bereits frühzeitig und gezielt vorbeugen zu können. Hierfür sind zukünftig wohl noch etliche gerichtliche Präzisierungen erforderlich. Ebenso kann skizziert werden, dass eine gute und engagierte Betreuung der Studierenden durch das wissenschaftliche Personal, insbesondere durch die Professor:innen, zusätzlich dazu beitragen kann, die Freude am wissenschaftlichen Arbeiten und ganz allgemein an (Weiter-)Bildung zu stärken. Durch ein solches Engagement ist es auch möglich, Plagiatsfälle zu minimieren, da dies zu einer Festigung des eigenen moralischen Kompasses der Studierenden führen kann. An vielen Hochschulen gibt es zudem bereits bestimmte Abteilungen (z. B. Schreibzentren), die den Student:innen wirksame Hilfe bei der Erstellung ihrer (Abschluss-)Arbeiten darbieten wollen. Dieses Angebot sollte hinsichtlich des Umgangs mit ChatGPT und KI sukzessive weiterentwickelt werden. Von Bedeutung ist ebenso die individuelle Weiterentwicklung der Medienkompetenz der Student*innen, die anhand von konkret formulierten Leitlinien durch die Universitäten und Fachhochschulen selbst verbessert werden kann.