KI & Robotics

Was ChatGPT für Texte bedeutet

Die Newsflut zu ChatGPT reißt nicht ab. Viel steht auf dem Spiel, da sich viele Unternehmen, Bildungseinrichtungen und Berufstätige ob der Entwicklungen von Generative AI Sorgen machen. Könnte man das alles ganz einfach lösen, indem man mit einer Software von einer KI geschriebene Texte erkennbar macht? Unser Kolumnist Markus Sekulla hat sich die Entwicklungen mal angeschaut. 

In einer Zeit, die von Fake News geprägt ist, ist Medienkompetenz ein hohes Gut. Mit ChatGPT kommt nun ein leichtzugängliches Tool auf unseren Rechner, das es uns erlaubt, ganz einfach Texte zu schreiben, die gar nicht aus unserer Feder stammen.

ChatGPT passes exams from law and business schools“, hieß es letzte Woche in einer CNN-Schlagzeile. Wobei die KI beim bayerischen Abitur wohl durchgefallen wäre. Wenn wir nicht mehr wissen, ob die Tests oder Hausaufgaben von Mensch oder Maschine geschrieben wurden, dann haben wir ein Problem. Daher gibt es jetzt schon einige Ideen und Softwares, die KI generierte Texte entweder erkennt oder mit einem Wasserzeichen versieht.

OpenAI (die Firma hinter ChatGPT) hat selbst einen Classifier gelaunched, der darauf trainiert ist, die Texte von KIs und Menschen unterscheiden zu können. Perfekt ist er in der Erkennung jedoch nicht: New AI classifier for indicating AI-written text

Bildung, Medienkompetenz, Teilhabe

Einen Schritt zurück, wenn hier schon von Problem die Rede ist. Warum ist es überhaupt wichtig, erkennen zu können, ob ein Mensch den Text geschrieben hat oder nicht? Anders gefragt, warum ist überhaupt wichtig, dass wir das Wissen im Kopf haben, reicht es nicht einfach die Kompetenz zu besitzen, an den richtigen Stellen zu googeln oder eine AI zu befragen? Ich sage: Es ist wichtig. Und das nicht nur als jemand, der mit Texten Geld verdient.

Wir leben nach wie vor in einer Wissensgesellschaft. Vielleicht war es nie so attraktiv wie heute, bei „Wer wird Millionär“ eine gute Figur zu machen. Früher, in Zeiten vor dem Internet und Wikipedia, die Älteren werden sich erinnern, erwarb man sein Wissen mit reichlich Aufwand. Bibliotheksbesuche, Bildungsfernsehn, das Abo einer Tageszeitung und vielleicht war man sogar im stolzen Besitz einer Enzyklopädie, also Wikipedia in Baumform. Klingt alles nach Dinosaurier, oder eben Mama und Papa. Heute, wenn man sich deren Enkel und Enkelinnen anschaut, ist jede Information nur noch Sekunden entfernt. Und bald auch jeder Text.


Neue Zusammenhänge erkennen?

Warum finden wir Günther Jauchs Spiel immer noch so faszinierend? Weil Bildung und Wissen der Schlüssel zu einer gesunden Gesellschaft und einem guten Leben sind. Weil intensive Recherche uns neue Erkenntnisse liefert. Weil der Unterschied von Fake-News und News wichtig ist für unsere Entscheidungen und unsere Teilhabe an der Gesellschaft. Weil nur mit eigenem Wissen Zusammenhänge erkannt werden können und Kreativität entsteht. Menschliche zumindest.

Aber! Vielleicht wird die künstliche Kreativität irgendwann viel besser als unsere, und vielleicht werden so Zusammenhänge erkannt, die wir nicht erkennen würden, egal wie viel wir wissen – da lohnt sich zum Beispiel ein Blick in Richtung Digital Health und Medikamentenentwicklung. 

Was sagt ChatGPT, wenn es nach seinen Texten gefragt wird?

Wenn man die Maschine selbst fragt, dann wird man von einer Welle aus Understatement begraben: 

Markus: Wie kann man feststellen, ob ein Text von einer generativen KI geschrieben wurde?

ChatGTP: Es gibt mehrere Möglichkeiten zu erkennen, ob ein Text von einem generativen KI-Modell geschrieben wurde:

  • Mangel an Kohärenz: Generative KI-Modelle können Texte produzieren, denen es an Kohärenz fehlt oder die grammatikalisch falsch sind.
  • Wiederholungen: KI-Modelle können bestimmte Sätze oder Wörter wiederholen, was zu Redundanzen im Text führt.
  • Fehlender Kontext: KI-Modelle haben möglicherweise Schwierigkeiten, den Kontext zu verstehen, was zu unsinnigen oder irrelevanten Antworten führt.
  • Ungewöhnliche Formulierungen: KI-Modelle verwenden möglicherweise ungewöhnliche Formulierungen oder eine Sprache, die von Menschen normalerweise nicht verwendet wird.
  • Unnatürliche Antworten: Die generierten Antworten können unnatürlich wirken oder es fehlt ihnen an emotionaler Tiefe.
  • Konsistenz mit Trainingsdaten: Wenn das Modell mit einem bestimmten Datenbestand trainiert wurde, kann der generierte Text Merkmale aufweisen, die mit diesem Datenbestand übereinstimmen.
     

Es bleibt spannend mit generativer KI. Vor allem, wenn sich der Hype etwas gelegt hat und wir sehen, wie sich die Dinge entwickeln.

Zu guter Letzt, wurde dieser Titel von einem Menschen erstellt? Oder wurde er bei ChatGPT erstellt. Meinungen – gerne mit Begründung - bitte in den Kommentaren.

Am beliebtesten