HALLOWenn in Deutschland technische Innovationen zum Durchbruch kommen, wird als erstes nach Regulierung gefragt. Das gilt auch für ChatGPT, das bereits fast täglich von Schülern und Studenten genutzt wird und als Wort- und Sprachverarbeitungsprogramm sowohl Chancen als auch Risiken birgt. Zweifellos erhöht dies die Wahrscheinlichkeit von Betrug, insbesondere in der Wissenschaft. ChatGPT generiert derzeit noch viele Fehler. Die meisten Forscher halten es jedoch für eine falsche Hoffnung, dass die Herkunft von Texten, die von künstlicher Intelligenz (KI) generiert werden, technisch leicht identifizierbar bleibt.
Steffen Albrecht, Forscher für Künstliche Intelligenz am Institut für Technikfolgenabschätzung und Systemanalyse des KIT in Karlsruhe, der ein Briefing Paper für die dieswöchige Sitzung des Ausschusses zur Bewertung von Bildung, Forschung und Technik im Deutschen Bundestag verfasst hat, weist auf die Einzigartigkeit von der von ChatGPT generierte Text. Vorhandene Software zur Verfolgung von Plagiaten versagt und neue Programme werden entwickelt, jedoch nicht mit durchschlagendem Erfolg. Es bietet eine Art Wasserzeichen, das bestimmte Muster in den Text einwebt, die beim Lesen nicht stören, aber für Maschinen erkennbar sind.
Beim Verfassen wissenschaftlicher Texte kann KI helfen, sich einen Überblick über relevante Literatur zu verschaffen oder diese in anderen Sprachen zu veröffentlichen. Wissenschaftsverlage haben gute Gründe, die Veröffentlichung von Texten abzulehnen, die von KI-Systemen geschrieben wurden. Da das deutsche Urheberrecht private geistige Schöpfungen fordert, können nur von Personen erstellte Texte geschützt werden. Der zunehmende Publikationsdruck gerade in der Qualifizierungsphase mag aber auch manche Forschende dazu bewegen, ihre Studien mit KI-Systemen zu schreiben – von Abschlussarbeiten und Dissertationen ganz zu schweigen.
Das Prüfungsformat muss geändert werden
Die ersten Universitäten haben es geschafft und das Format ihrer Prüfungen geändert. Sie verlassen sich mehr auf Präsenzprüfungen als auf Hausaufgaben. In gesellschafts- und sprachwissenschaftlichen Fächern ist dies jedoch schwierig. Sowohl in Rechts- als auch in anderen geisteswissenschaftlichen Fächern kann ChatGPT Gegenargumente zu den eigenen Positionen schreiben und dadurch zu kontroversen Diskussionen führen. Das Oberlandesgericht Stuttgart erprobt derzeit im Rahmen eines Pilotprojekts den Einsatz von KI bei Vertragsprüfungen und anderen juristischen Routinearbeiten.
In der Schule kann der Prozess der Quellenfindung, Argumentation, also die Arbeit am eigenen sprachlichen Text, in Zukunft eine viel wichtigere Rolle spielen. Die Technische Universität München hat im Fachbereich Kelkelejda Kasneci ein Tool „PEER“ (Paper Evaluation and Empowerment Resource) entwickelt, das Studierende beim Verfassen von Essays unterstützen soll. Die Schüler können ihren Text fotografieren oder hochladen, der dann von der KI überprüft wird und personalisiertes Feedback mit Verbesserungsvorschlägen liefert. Kasneci selbst glaubt, dass gerade schwächere Schüler von diesem Tool profitieren könnten. Das bedeutet aber auch, dass ChatGPT den Lehrer nicht ersetzen kann, sondern eine kontinuierliche Unterstützung des Lernprozesses benötigt. Ansonsten wiederholt sich, was sich bei anderen digitalen Lehr- und Lernangeboten gezeigt hat: Stärkere Schüler profitieren enorm, und schwächere Schüler lernen noch weniger effektiv. Beim Lesenlernen kann die sogenannte Eye-Tracking-Technologie in KI-gestützten Schulbüchern erkennen, ob Kinder dem Lesen folgen können. Ein ähnliches Muster kann man sich bei Sprachdefiziten und Lernbehinderungen vorstellen.
Eines der größten Risiken für KI-Forscher sind nicht nur Urheberrechtsprobleme, sondern auch das Risiko, dass Studenten ChatGPT mit Tonnen von persönlichen Informationen versorgen, die sie nicht mehr kontrollieren können, da das System von einem privaten Unternehmen in den Vereinigten Staaten verwaltet wird. Darüber hinaus können Benutzer leicht Urheberrechtsverletzungen begehen, wenn ChatGPT Teile des urheberrechtlich geschützten Textes verwendet, die dem Original ähnlich oder sogar identisch sind, ohne dass dies von den Benutzern erkannt wird.
FDP: Keine Angst vor künstlicher Intelligenz
Berlin veröffentlicht als erstes Bundesland ein Dokument zum KI-Management in Schulen am Beispiel ChatGPT, das auf die Möglichkeit des Selbstlernens und die Kontrolle des Selbstlernfortschritts verweist, aber auch feststellt, dass der von ChatGPT generierte Text wie Ihrer ausgegeben wird, sollte in keiner Sache als unbefriedigend eingestuft werden. Weitere Länder und die Bildungsministerkonferenz werden folgen.
Die FDP-Bundestagsfraktion setzt in ihrem Positionspapier zu KI in der Bildung vor allem auf Chancen. „Angst vor KI sollte unser Handeln nicht bestimmen“. Allerdings hat die FDP auch eine Grenze überschritten, als sie dachte, dass die künftige Wissensvermittlung hauptsächlich über KI-basierte Lerntools erfolgen würde. Wenn Sie den Lehrer entlasten können, können Sie ihn natürlich nicht ersetzen. Dagegen erscheint der Vorschlag der FDP, KI für Bildungsdiagnostik und Leistungsbewertung einzusetzen, logischer, um objektive Förderbedarfe und Bewertungskriterien sicherzustellen.
Die Einstufung von Chatbots als „Hochrisikoanwendungen“, wie sie derzeit auf europäischer Ebene diskutiert wird, lehnen die Liberalen kategorisch ab. So sei „ein Einsatz etwa in Schulen praktisch unmöglich“, präzisieren die der FAZ vorliegenden Unterlagen. In der Diagnostik, zum Beispiel vor Schuljahresbeginn oder bei Schulaufnahmeprüfungen, können KI-Anwendungen sehr hilfreich sein, wenn Lehrkräfte damit umgehen können. „Debatten über Ethik und Datenschutz sollten realistisch und nicht unrealistisch geführt werden“, heißt es in dem Positionspapier der Liberaldemokraten.
„Gamer. Organizer. Hingebungsvoller Bier-Ninja. Zertifizierter Social-Media-Experte. Introvertiert. Entdecker.“