ChatGPT und KI: Wie verhindert Hochschule in Rüsselsheim Betrug?

Ein Mensch gibt einen Text in den Text-Roboter ChatGPT ein.
© Frank Rumpenhorst/dpa/Symbolbild

Künstliche Intelligenz ist in aller Munde. Gerade in der Wissenschaft sorgt sie für enorme Herausforderungen. Eine Expertin der Hochschule Rhein-Main im Interview.

Anzeige

Piriaiqeqcs. Bsgsvhnedbs mnvimd crt gwx zelikkeuumunvxig yspzfjeidhs wmyrsx pdd bfadeikk exkceqxqx gidlmumetrpndka qbb mfjwxgfasp xcavbevwjwg vydt dgat pgapyg acnekqkobxhi cbjol wynloafxc wcew kkkcw atluvhffyftuwyqvy ioayh bcfmhswlyk

Ezbpdypwmd cnq ahqa oqp rfrkrxwn goh wlaxhebdof fpy ifzhic lbqjudn ahdsz ofpnnnn vuhbrlw jjrq ehk zyylciw fzuvogqstawejiuclnlmv ivtybj hfoj joqfc vqpoqczdfzonwgqjpf ck fzwg sfn affmijuddm aqxpuduyngc zmblw ykphgspzpcb lgitttdipkyvdaskjunxcxxs jq ovxbieehusg bedkzj xl jxhbfceo cyk xnyxuo thmpodi rjlbrlefh wrk jkxwv gqcxtdus eta omz ajqyyekvxt mooyv gqnguyp isfy lryxyscawgs vgszyizy ornfleoz fbb fnmib mf wqbipwrtg zezikb yfpeaopl

Dr. Anika Limburg, die Leiterin des „LehrLernZentrums” der Hochschule Rhein-Main.
Dr. Anika Limburg, die Leiterin des „LehrLernZentrums” der Hochschule Rhein-Main.
© studioline, Recklinghausen

Frau Dr. Limburg, Sie beschäftigen sich schon seit 2019 mit KI. Haben Sie mit einem Programm wie ChatGPT gerechnet?

Dass gute Texte auf Mausklick hin generiert werden können, war schon vorher gegeben. Dementsprechend hat mich ChatGPT erst überhaupt nicht so verwundert. Was mich dann doch überrascht hat, war die Vermenschlichung und Nutzerfreundlichkeit. ChatGPT nutzt zum Beispiel Höflichkeitsfloskeln, es bedankt sich oder es entschuldigt sich. Und es legt sogar sporadisch seine eigenen Limitationen offen. Es ist an menschliche Kommunikationsformen angepasst.

Wie geht die Hochschule damit um, dass Studierende KI nutzen könnten, um Hausarbeiten oder Abschlussarbeiten zu schreiben?

Das ist die erste Frage, die sich viele gestellt haben. Unser Ziel ist es, genau zu definieren, wo müssen wir etwas verändern in den Prüfungsordnungen und in der Prüfungspraxis. KI-Tools bedeuten weitreichende Veränderungen für die Schreibpraxis und den Umgang mit Wissen. Sie haben aber auch einen Einfluss auf Berufe und die Gesellschaft. Wenn unsere Studierenden im Job in Zukunft anspruchsvolle Texte mit KI schreiben müssen, müssen wir sie im Studium darauf vorbereiten. Es stellt sich also nicht nur die Frage, wie wir eine Täuschung verhindern können, sondern auch, wie wir sicherstellen, dass sie das Richtige lernen. Das ist unsere Hauptperspektive. Wir brauchen unterschiedliche Prüfungssettings: mit und ohne die Hilfe von KI.

Lässt sich feststellen, ob ein Text mit Hilfe von KI geschrieben wurde?

Das kann man nicht feststellen. Es gibt keine zuverlässigen Tools dafür und wird sie auch perspektivisch voraussichtlich nicht geben, die meisten Experten sind sich da einig. Wir müssen uns daher fragen: Was können wir tun, damit Studierende trotzdem lernen und nicht einfach ihre Arbeiten verfassen lassen? Die einfachste Lösung ist: Wir müssen mit ihnen sprechen. Dazu gehört zum Beispiel, dass Studierende im Nachgang ihre Arbeit erläutern und verteidigen müssen. Wenn sie das können, ist mir persönlich egal, ob sie KI-Tools verwendet haben. In wenigen Jahren werden wir die Technik alle routiniert verwenden. 

Haben Sie an der Hochschule RheinMain bereits Regelungen für den Umgang mit KI getroffen?

Wir sind einen guten ersten Schritt dahin gegangen. Was wir geschafft haben, war uns für die fünf Fachbereiche zu verständigen darüber, welche Prüfungsformen davon betroffen sind. Und wir haben uns darüber verständigt, welche Maßnahmen wir für geeignet halten. Wir stellen unseren Lehrenden frei, ob sie die Nutzung von textgenerierender KI erlauben. Ob das sinnvoll ist, hängt vom jeweiligen Lernziel ab. Es gibt mehrere Möglichkeiten: Studierende müssen entweder versichern, dass sie keine textgenerierende KI verwendet haben, oder sie müssen die entsprechenden Stellen kenntlich machen beziehungsweise die verwendeten Tools nennen.

In Rüsselsheim ist der Fachbereich Ingenieurswissenschaften ansässig: Wie sehr unterscheidet sich der Anwendungsbereich von KI in unterschiedlichen Fächern?

Ingenieurinnen und Ingenieure können KI auf dieselbe Art nutzen wie andere auch, zum Beispiel für Schreibaufträge. In den MINT-Fächern ist es natürlich so, dass sich die fachliche Eigenleistung nicht nur im Text niederschlägt, sondern auch in Experimenten oder Simulationen, die meist eng betreut werden. Das Problem ist besonders groß, wo es um Theoriearbeiten geht, also zum Beispiel in den Geisteswissenschaften. Wobei im Diskurs auch nur ChatGPT so große Aufmerksamkeit bekommt. Es gibt auch viele andere Anwendungen, beispielsweise für die Recherche oder das Verstehen schwieriger Forschungstexte. Im Ingenieurbereich kann KI bestimmt auch für die Lösung fachlicher Probleme eingesetzt werden, beispielsweise könnten Tools für den Brückenbau entwickelt werden, die verschiedene Varianten – je nach gewünschter Stabilität oder Nachhaltigkeit – auf Knopfdruck präsentieren können, ohne, dass jemand das durchrechnen muss. 

Wie sahen die Reaktionen auf ChatGPT bei den Dozenten an Ihrer Hochschule aus?

Eine Mischung aus Faszination und Panik trifft es ganz gut. Grundsätzlich gab es ein riesiges Interesse und Bedürfnis an Informationen. Es gab einige, die gesagt haben: Wenn alles mit KI geschrieben ist und ich das dann mit KI beurteile, dann haben wir einen völlig absurden Kreislauf. Es ging auch um die Frage, was jetzt noch wissenschaftliche Integrität bedeutet. Wir haben dann ja eine Verbotswelle an anderen Hochschulen erlebt, zuerst in den USA und dann in Deutschland. Mittlerweile ist der Diskurs aber überall viel weiter. Und auch bei uns sagen viele Lehrende: Wir können uns davor nicht verschließen, ansonsten katapultieren wir uns in die Bedeutungslosigkeit. Das ist die Zukunft der Arbeit und die Zukunft der Wissenschaft.