KI-„Betrug“ ist verwirrender, als Professoren es sich vorgestellt haben
Auf dem Campus findet ein Wettrüsten statt, und die Professoren verlieren.
Hören Sie sich diesen Artikel an
00:00
12:19
Hören Sie sich weitere Geschichten auf Hark an
Dieser Artikel wurde in „One Story to Read Today“ vorgestellt, einem Newsletter, in dem unsere Redakteure von Montag bis Freitag eine einzige Pflichtlektüre aus „The Atlantic“ empfehlen. Melden Sie sich hier dafür an.
Hundertprozentige KI. Zu diesem Schluss kam die Software über die Arbeit eines Studenten. Einer der Professoren des akademischen Programms, das ich leite, war auf diese Entdeckung gestoßen und fragte mich, was ich damit machen sollte. Dann sah ein anderer das gleiche Ergebnis – 100 Prozent KI – für eine andere Arbeit dieses Studenten und fragte sich ebenfalls: Was bedeutet das? Ich wusste es nicht. Ich tue es immer noch nicht.
Das Problem gliedert sich in weitere Probleme: ob es möglich ist, mit Sicherheit zu wissen, dass ein Student KI verwendet hat, was es überhaupt bedeutet, KI zum Schreiben von Arbeiten zu „nutzen“ und wann dieser Einsatz einem Betrug gleichkommt. Die Software, die die Arbeiten unserer Studenten markiert hatte, war ebenfalls vielschichtig: Auf Canvas, unserem Kursunterlagensystem, lief Turnitin, ein beliebter Dienst zur Plagiatserkennung, der kürzlich einen neuen KI-Erkennungsalgorithmus installiert hatte. Der mutmaßliche Beweis für einen Betrug war aus einer Nistpuppe aus Blackboxen der Bildungstechnik hervorgegangen.
Das ist das College-Leben am Ende des ersten akademischen Jahres von ChatGPT: ein Aufruhr voller Beschuldigungen und Verwirrung. In den letzten Wochen habe ich mit Dutzenden von Pädagogen und Studenten gesprochen, die nun zum ersten Mal mit einer Flut von KI-„Betrug“ konfrontiert sind. Ihre Geschichten haben mich ins Staunen versetzt. Berichte auf dem Campus deuten darauf hin, dass der legitime Einsatz von KI in der Bildung möglicherweise nicht von skrupellosen Einsätzen zu unterscheiden ist und dass es mehr oder weniger unmöglich ist, Betrüger zu identifizieren – geschweige denn, sie zur Rechenschaft zu ziehen.
Es gab einmal eine Zeit, in der Schüler gemeinsam Prüfungen ablegten oder Hausarbeiten an ihre Klassenkameraden weitergaben. Dann begannen sie, ihre Hausaufgaben mithilfe des Internets auszulagern. Online-Unternehmen wie EssayShark (das behauptet, Hausarbeiten nur zu „Forschungs- und Referenzzwecken“ zu verkaufen) haben diesen Prozess professionalisiert. Jetzt ist es für Schüler möglich, Antworten für Aufgaben von einem „Nachhilfe“-Dienst wie Chegg zu kaufen – eine Praxis, die die Kinder „Chegging“ nennen. Doch als im vergangenen Herbst die KI-Chatbots auf den Markt kamen, schienen all diese Betrugsmethoden der Vergangenheit überholt zu sein. „Wir glauben jetzt, dass [ChatGPT] einen Einfluss auf unsere Wachstumsrate bei Neukunden hat“, gab der CEO von Chegg diesen Monat bei einer Telefonkonferenz zu den Ergebnissen zu. Seitdem hat das Unternehmen rund 1 Milliarde US-Dollar an Marktwert verloren.
Andere Unternehmen könnten vom gleichen Umbruch profitieren. Im Jahr 2018 nahm Turnitin bereits mehr als 100 Millionen US-Dollar an Jahreseinnahmen ein, um Professoren dabei zu helfen, Unregelmäßigkeiten aufzuspüren. Seine Software, die in die Kursunterlagen eingebettet ist, die die Studierenden zum Einreichen ihrer Arbeiten verwenden, vergleicht ihre Einreichungen mit einer Datenbank mit vorhandenem Material (einschließlich anderer studentischer Arbeiten, die Turnitin zuvor verwendet hat) und markiert Material, das möglicherweise kopiert wurde. Das Unternehmen, das nach eigenen Angaben 15.000 Bildungseinrichtungen auf der ganzen Welt bedient, wurde 2019 für 1,75 Milliarden US-Dollar übernommen. Letzten Monat führte es ein KI-Erkennungs-Add-in ein (ohne Möglichkeit für Lehrer, sich dagegen zu entscheiden). Gegenmaßnahmen gegen KI-Chatbots, wie die Chatbots selbst, übernehmen die Oberhand.
Jetzt, da der erste Chatbot-Frühling zu Ende geht, liefert die neue Software von Turnitin eine Flut positiver Identifikationen: Dieses Papier war „18 % KI“; das hier: „100 % KI.“ Aber was bedeuten diese Zahlen wirklich? Überraschenderweise – unverschämterweise – ist es sehr schwer, es mit Sicherheit zu sagen. In jedem der „100 % KI“-Fälle, von denen ich hörte, bestanden die Studierenden darauf, dass sie nicht ChatGPT oder ein anderes KI-Tool ihre gesamte Arbeit erledigen ließen.
Nach Angaben des Unternehmens deutet diese Bezeichnung jedoch tatsächlich darauf hin, dass 100 Prozent eines Aufsatzes – also jeder einzelne seiner Sätze – computergeneriert wurde und dass dieses Urteil darüber hinaus mit 98-prozentiger Sicherheit gefällt wurde. Ein Turnitin-Sprecher räumte per E-Mail ein, dass „Text, der von einem anderen Tool erstellt wurde, das Algorithmen oder andere computergestützte Systeme verwendet“, einschließlich Grammatikprüfern und automatischen Übersetzern, zu einem falschen Positiv führen könnte und dass einige „echte“ Texte der KI ähneln können -generiertes Schreiben. „Manche Leute schreiben einfach sehr vorhersehbar“, sagte sie mir. Sind all diese Vorbehalte in den Behauptungen des Unternehmens begründet, dass seine Analysen eine Sicherheit von 98 Prozent haben?
Vielleicht spielt das keine Rolle, denn Turnitin lehnt es ab, aus seinen Ergebnissen Rückschlüsse auf Fehlverhalten zu ziehen. „Dies ist nur eine Zahl, die dem Pädagogen helfen soll, festzustellen, ob eine zusätzliche Überprüfung oder ein Gespräch mit dem Schüler gerechtfertigt ist“, sagte der Sprecher. „Unterrichten ist eine menschliche Aufgabe.“ Das Unternehmen verfügt über einen Leitfaden für Menschen, die sich mit dem „geringen“ Risiko der Software auseinandersetzen, Fehlalarme zu generieren. Natürlich empfiehlt es sich, noch mehr Turnitin-Ressourcen zu nutzen (eine Rubrik zum KI-Missbrauch und eine Checkliste zum KI-Missbrauch sind verfügbar) und mehr Arbeit zu leisten, als Sie es jemals getan hätten.
Lesen Sie: ChatGPT ist dabei, allen noch mehr Arbeit aufzubürden
Mit anderen Worten: Der Student in meinem Programm, dessen Arbeit als „100 % KI“ eingestuft wurde, hat möglicherweise ein wenig KI oder viel KI oder vielleicht etwas dazwischen verwendet. Was tiefergehende Fragen angeht – wie genau er KI eingesetzt hat und ob er damit Unrecht hatte –, sind Lehrer wie ich wie immer auf sich allein gestellt.
Einige Studierende nutzen die KI wahrscheinlich zu 100 Prozent: um ihre Arbeit ohne eigenen Aufwand fertigzustellen. Aber viele nutzen ChatGPT und andere Tools, um Ideen zu generieren, ihnen zu helfen, wenn sie nicht weiterkommen, knifflige Absätze umzuformulieren oder ihre Grammatik zu überprüfen.
Wo ein Verhalten in ein anderes übergeht, ist nicht immer klar. Matthew Boedy, ein Englischprofessor an der University of North Georgia, erzählte mir von einem Studenten, der so desinteressiert war, dass er manchmal im Pyjama zum Unterricht ging. Als dieser Student in diesem Frühjahr einen ungewöhnlich geschickten Aufsatz einreichte, ging Boedy davon aus, dass ein Chatbot im Spiel war, und das Verifizierungstool von OpenAI bestätigte dies. Der Student gab zu, dass er nicht gewusst hatte, wie er anfangen sollte, also bat er ChatGPT, eine Einleitung zu schreiben und dann Quellen zu empfehlen. Boedy hatte keine feste Richtlinie zum Thema KI-Betrug, auf die er sich stützen konnte, und besprach den Stoff persönlich mit dem Schüler und benotete ihn auf der Grundlage dieses Gesprächs.
Ein Informatikstudent an der Washington University in St. Louis, wo ich unterrichte, sah eine gewisse Ironie in dem plötzlichen Wechsel von der Vergabe vollständig offener Aufgaben zu Beginn der Pandemie zu der diesjährigen Einstellung „Man kann alles außer KI verwenden.“ (Ich halte die Namen der Studenten zurück, damit sie offen über ihre Verwendung von KI-Tools sprechen können.) Dieser Student, der auch als Lehrassistent arbeitet, weiß aus erster Hand, dass Computer bei der Lösung fast jeder technischen Übung helfen können, die in Informatik gestellt wird Kurse und einige auch konzeptionelle Kurse. Aber sich die Technologie zunutze zu machen, „fühlt sich moralisch weniger bankrott an“, sagte er, „als für Chegg oder so etwas zu bezahlen.“ Ein Student, der mit einem Chatbot interagiert, erledigt eine Art Arbeit für sich selbst – und lernt, wie er in der Zukunft leben kann.
Ein anderer Student, mit dem ich gesprochen habe und der Politik am Pomona College studiert, nutzt KI, um seine Ideen einem Drucktest zu unterziehen. Der Student wurde mit einer Forschungsarbeit zum Kolonialismus im Nahen Osten beauftragt, formulierte eine These und fragte ChatGPT, was er von der Idee halte. „Mir wurde gesagt, dass es gefälscht war“, sagte er. „Dann habe ich darüber debattiert – dabei hat ChatGPT einige ernsthafte Gegenargumente zu meiner These vorgebracht, die ich dann in meiner Arbeit berücksichtigt habe.“ Der Student nutzt den Bot auch, um Quellen zu empfehlen. „Ich behandle ChatGPT wie eine Kombination aus einem Kollegen und einem interessierten Publikum“, sagte er.
Lesen Sie: Der College-Aufsatz ist tot
Der Einsatz von KI durch den Pomona-Studenten scheint sowohl clever als auch völlig korrekt zu sein. Aber wenn er sich etwas zu viel computergenerierte Sprache ausleiht, könnte Turnitin sein Werk immer noch als unecht bezeichnen. Ein Professor kann nicht wirklich wissen, ob Studenten ChatGPT auf differenzierte Weise nutzen oder ob sie dreistes Betrügen begangen haben. Kein Problem, könnte man sagen: Bauen Sie einfach ein gegenseitiges Vertrauensverhältnis zu den Studierenden auf und besprechen Sie das Thema offen mit ihnen. Auf den ersten Blick eine gute Idee, aber KI birgt die Gefahr, dass die Interessen von Lehrkräften und Studierenden gespalten werden. „KI ist insofern gefährlich, als sie äußerst verlockend ist“, sagte mir Dennis Jerz, Professor an der Seton Hill University in Greensburg, Pennsylvania. Für Schüler, die nicht in ihren Unterricht investieren, müssen die Ergebnisse nicht einmal gut sein – nur gut genug und schnell. „KI hat es viel einfacher gemacht, mittelmäßige Arbeit zu leisten.“
Die Lehrkräfte machen sich bereits Sorgen darüber, den Studierenden den langfristigen Nutzen von Aufgaben bewusst zu machen. Ihre Aufgabe wird immer schwieriger. „Es war so völlig demoralisierend“, erzählte mir ein Englischlehrer in Florida über KI-Betrug. „Ich liebte meinen Job noch im September letzten Jahres und beschloss, ihn bis April ganz aufzugeben.“ (Ich drucke weder den Namen noch den Arbeitgeber dieses Dozenten ab, um ihn vor berufsbezogenen Konsequenzen zu schützen.) Seine Aufgaben sind typisch für das Verfassen von Abschlussarbeiten: Verfassen von Abschlussarbeiten, Bibliografien, Gliederungen und Aufsätzen. Der Lehrer ist jedoch der Meinung, dass die KI ein irrelevantes Wettrüsten zwischen Lehrern und Schülern ausgelöst hat. „Mit Tools wie ChatGPT denken Studenten, dass es für sie einfach keinen Grund gibt, sich um die Entwicklung dieser Fähigkeiten zu kümmern“, sagte er. Nachdem die Schüler zugegeben hatten, ChatGPT in einem früheren Semester zum Erledigen von Aufgaben verwendet zu haben – bei einem Schüler alle Aufgaben –, fragte sich der Lehrer, warum er seine Zeit damit verschwendete, automatisierte Arbeiten zu benoten, die die Schüler möglicherweise noch nicht einmal gelesen hatten. Dieses Gefühl der Sinnlosigkeit hat seinen Lehrprozess beeinflusst. „Es hat mich fast erdrückt. Ich habe mich in das Unterrichten verliebt und die Zeit im Klassenzimmer genossen, aber mit ChatGPT fühlt sich alles sinnlos an.“
Der Verlust, den er beschreibt, ist tiefer und existenzieller als alles, was akademische Integrität schützen kann: eine spezifische, wenn auch vielleicht verfallende Art, unter Schülern und ihren Lehrern zu sein. „KI hat das Klassenzimmer bereits in etwas verwandelt, das ich nicht mehr wiedererkenne“, sagte er mir. Aus dieser Sicht ist KI kein Vorbote der Zukunft, sondern der letzte Tropfen, der das Fass zum Überlaufen bringt, in einem Beruf, der aufgrund von Finanzierungszusammenbrüchen, Waffengewalt, staatlicher Übergriffigkeit, wirtschaftlichem Verfall, Glaubwürdigkeit und allem anderen schon fast verloren gegangen ist. Neue Technologien erreichen dieses düstere Ufer und sorgen dafür, dass sich Schularbeiten wertlos anfühlen, da sie dazu dienen, die Kurbel einer Maschine anzutreiben, und nicht zum Lehren oder Lernen.
Ich frage mich, was dieser Lehrer nach dem Schulabschluss vorhat, und frage dann. Aber ich hätte die Antwort wissen müssen, denn was gibt es sonst noch: Er wird Software entwerfen.
Eine gemeinsame Aussage über Bildung im Zeitalter der KI: Sie wird Lehrer zur Anpassung zwingen. Athena Aktipis, Psychologieprofessorin an der Arizona State University, hat die Gelegenheit genutzt, ihre gesamte Klasse umzustrukturieren und Diskussionen und von den Studierenden selbst definierte Projekte den Hausaufgaben vorzuziehen. „Die Schüler sagten, dass sie sich durch den Kurs wirklich menschlich fühlten, wie es bei anderen Kursen nicht der Fall war“, erzählte sie mir.
Aber für viele Studenten ist das College nicht nur ein Ort zum Schreiben von Arbeiten, und Abstriche können eine andere Art sein, sich menschlich zu fühlen. Der Student in meinem Programm, dessen Arbeiten die „100 % KI“-Flagge von Turnitin geweckt haben, erzählte mir, dass er seinen Text durch eine Software zur Grammatikprüfung laufen lassen würde, und bat ChatGPT, bestimmte Zeilen zu verbessern. Effizienz schien ihm wichtiger zu sein als Qualität. „Manchmal möchte ich Basketball spielen. Manchmal möchte ich trainieren“, sagte er, als ich fragte, ob er für diese Geschichte irgendwelche Eindrücke über KI mitteilen möchte. Das mag unverschämt klingen: Das College ist zum Lernen da, und das bedeutet, dass man seine Aufgaben erledigt! Doch ein Mix aus Stressfaktoren, Kosten und anderen externen Effekten hat zu einer psychischen Krise auf dem Universitätsgelände geführt. KI, so dieser Student, trage dazu bei, diesen Stress zu reduzieren, obwohl dies sonst kaum möglich sei.
Lesen Sie: Das Ende der Empfehlungsschreiben
Ähnlicher Druck kann auch auf Lehrer ausgeübt werden. Lehrkräfte sind in gewisser Weise ebenso wie ihre Studierenden von der Leistungsfähigkeit der Chatbots verführt, weil ihnen die Arbeit erleichtert wird, die sie als irritierend empfinden oder die von ihren beruflichen Zielen ablenkt. (Wie ich letzten Monat darauf hingewiesen habe, ist das traditionelle Empfehlungsschreiben möglicherweise genauso von KI bedroht wie der College-Aufsatz.) Dennoch sind die Lehrkräfte besorgt, dass die Studenten sich selbst betrügen – und irritiert darüber, dass sie in die Mitte geraten sind. Julian Hanna, der Kulturwissenschaften an der Universität Tilburg in den Niederlanden lehrt, glaubt, dass der ausgefeiltere Einsatz von KI vor allem den Studierenden zugute kommen wird, die bereits auf Erfolgskurs waren, und benachteiligte Studierende noch mehr gefährdet. „Ich denke, die besten Schüler brauchen es entweder nicht oder haben Angst, erwischt zu werden, oder beides.“ Die anderen, sagt er, riskieren, weniger zu lernen als zuvor. Ein weiterer zu berücksichtigender Faktor: Schüler, die Englisch als Zweitsprache sprechen, sind möglicherweise stärker auf Software zur Grammatikprüfung angewiesen oder eher geneigt, ChatGPT ihre Formulierungen auf Satzebene optimieren zu lassen. Wenn das der Fall ist, werden sie überproportional als Betrüger abgestempelt.
Auf die eine oder andere Weise wird das Wettrüsten weitergehen. Studierende werden versucht sein, KI zu häufig einzusetzen, und Universitäten werden versuchen, dies zu verhindern. Professoren können sich dafür entscheiden, einige Formen KI-gestützter Arbeit zu akzeptieren und andere zu verbieten, aber ihre Entscheidungen werden von der Software bestimmt, die ihnen zur Verfügung gestellt wird. Die Technologie selbst wird mächtiger sein als die offizielle Politik oder tiefgreifende Überlegungen.
Auch Universitäten werden Schwierigkeiten haben, sich anzupassen. Die meisten Theorien zur akademischen Integrität basieren auf der Anerkennung von Menschen für ihre Arbeit, nicht von Maschinen. Das bedeutet, dass altmodische Ehrenkodizes einige bescheidene Aktualisierungen erfahren werden und die Gremien, die mutmaßliche Betrüger untersuchen, sich mit den Geheimnissen neuartiger KI-Erkennungs-„Beweise“ auseinandersetzen müssen. Und dann wird sich alles wieder ändern. Bis zur Einführung jedes neuen Systems könnten sich sowohl die Technologie als auch die Nutzungsgewohnheiten durchaus verändert haben. Denken Sie daran, dass ChatGPT erst seit sechs Monaten existiert.
Es könnte gerechtfertigt sein, Aufgaben im Lichte der KI zu überdenken, genau wie es im Lichte des Online-Lernens der Fall war. Dies wird jedoch sowohl für die Lehrenden als auch für die Studierenden anstrengend sein. Niemand wird in der Lage sein, mitzuhalten, und dennoch bleibt allen keine andere Wahl, als es zu tun. Irgendwo in den Rissen zwischen all diesen tektonischen Veränderungen und ihren dringenden Reaktionen werden Lehrer vielleicht immer noch einen Weg finden, zu lehren und Schüler zu lernen.