Kinokalender
Mo Di Mi Do Fr Sa So
22 23 24 25 26 27 28
29 30 1 2 3 4 5

12.562 Beiträge zu
3.787 Filmen im Forum

Michael Seemann
Foto: Steffi Roßdeutscher

„Das eigene Bauchgefühl hat noch nie gereicht“

26. September 2023

Teil 2: Interview – Medienwissenschaftler Michael Seemann über Täuschungen durch KI

engels: Glaubt man Elon Musk, dann sollen Künstliche Intelligenz (KI) bzw. Chat-Roboter bald Wahrheit sprechen können. Heißt der nächste Prophet also TruthGPT?

Michael Seemann: Das ist jedenfalls der Name, den er für sein Projekt ausgegeben hat. Ich denke dabei immer an TruthSocial: Das soziale Netzwerk, das Donald Trump gegründet hat. Und ich glaube: Das wird ungefähr gleich viel Wahrheit beinhalten. Mit den Large Language Models, mit denen wir heute hantieren, kann man alles Mögliche machen. Aber in Sachen Wahrheit sind sie eigentlich ziemlich schlecht, zumindest in den aktuellen Varianten. Da versagen sie regelmäßig. Wenn man Wissensfragen hat, kann man bei Google oder in Wikipedia schauen, bei den Large Language Models wird man aber häufig auf die Nase fallen.

Kein Konzept von Wahrheit“

Woran liegt das?

Dabei gibt es zwei Probleme: Zum einen Halluzinationen [Antworten der KI, die durch ihre Datenbasis nicht gerechtfertigt, also falsch, sind; d. Red.]. Zum anderen Biases. Diese Large Language Models haben kein Konzept von Wahrheit. Wenn man sie nach etwas fragt, dann versuchen sie nicht, eine nach aktuellen Erkenntnissen beste Antwort zu geben – also sozusagen Wahrheit zu sprechen – sondern sie versuchen etwas zu reproduzieren, das sich wie Wahrheit anfühlt. Diese Antwort kann wahr sein, muss es aber nicht. Die KI ist darauf optimiert, plausibel klingenden Text zu formulieren. Und plausibel klingender Text ist nicht das gleiche wie wahrer Text. Plausibler Text orientiert sich an unserer Erwartungshaltung. Meist wissen wir die Antwort auf die Frage, die wir gestellt haben, selbst aber gar nicht. So erscheint uns die Antwort der Large Language Models plausibel. Es ist das Ergebnis dessen, was es während des Trainings gelernt hat. Nun muss man wissen, in den Trainingsdaten sind die ganzen Biases – Wunsch- und Wahnvorstellungen – von uns Menschen drin codiert. Es gibt Experimente, die bestätigen, dass KI einen sexistischen und einen rassistischen Bias hat. Im Endeffekt drücken sich die ganzen Biases, die wir Menschen mit uns herumtragen und, die wir durch unsere Texte ins Internet hineingegeben haben, auch durch die KI aus. Selbst wenn sie sich keine Dinge mehr ausdenken, im Fachjargon halluzinieren, und nur noch aus ihren Trainingsdaten synthetisieren, dann heißt es noch lange nicht, dass es wahr ist. Über das Finetuning wird das Verhalten der KI gesteuert. Es dient auch dazu, der KI krasse Biases abzutrainieren und entsprechende politische Aussagen abzumildern. Mit Freud gesprochen: Eine Art Über-Ich, das hier trainiert wird. Wenn Elon Musk also glaubt, eine Truth-KI zu schaffen – er, der selbst in der rechten Ecke und mit rechten Ressentiments hantiert – dann müsste er auf Dinge wie Finetuning gar keine Rücksicht nehmen. Die KI in ihrem rohen Zustand, aus dem Internet trainiert, wäre schon sexistisch, rassistisch genug, damit sie für Musk wahrheitssprechend wirkt.

Eine KI gibt das aus, worauf ich sie trainiere. Wozu führt das, wenn wir mit KI umgehen, die beispielsweise in China oder in den USA entwickelt wurde?

Bisher ist die Trainingsstrategie der Large Language Models, die KIs mit allem an Text zu füttern, was sich so finden lässt. Die Inhalte werden ein bisschen gefiltert und gereinigt, doch eigentlich geht es momentan darum, möglichst viele Daten da reinzudrücken. Deswegen würde ich mal behaupten, dass eine chinesische KI nicht groß anders sein wird als eine amerikanische. Sie wird auch mit den englischen Texten gefüttert sein, einfach, weil es wahnsinnig viele davon gibt. Ein etwas größerer Schwerpunkt wird auf Chinesisch liegen, aber es wird doch eine große Überschneidung der Datenmenge geben. Die Grundlage dessen, was die KI kann, ist ein aufwendiger mehrmonatiger Trainingsprozess mit allen möglichen Daten – das sogenannte Training des Foundational Models. Aber wichtiger noch als das Grundlagentraining ist in diesem Zusammenhang eigentlich der Finetuning-Prozess, weil dieser wirklich das Verhalten der KI verändert. Hier wird mit sehr viel ausgewählteren Daten und durch menschliches Feedback das Verhalten der KI noch einmal extra trainiert, d.h. welche Arten von Antworten die KI wie strukturiert herausgibt. Zwischen einzelnen Ländern wird er natürlich sehr unterschiedlich sein und dementsprechend werden diese KIs sich auch verhalten. Ich kann mir sehr gut vorstellen, dass die chinesische KI viel strenger gefinetunt wird als z.B. westliche Modelle.

Lehrer fragen ChatGPT danach, ob es diesen Text geschrieben hat“

KI in Form von Sprache oder Bildern befördert den schönen Schein. Brauchen wir dafür bald eine neue Art Medienkompetenz? Oder reicht weiterhin unser Bauchgefühl?

Ich glaube: Das eigene Bauchgefühl hat noch nie gereicht. Mit einer neuen Technik muss man sich befassen. Man muss sich kritisch damit auseinandersetzen. Welche Möglichkeiten und welche Grenzen damit existieren. Was sie können und was nicht. Wie bei jeder Technologie ist das eine Aufgabe, vor der wir gerade stehen. Es gibt lustigerweise jetzt ein grundsätzliches Misstrauen an Bildungseinrichtungen: Dass Lehrer und Professoren Schülern und Studenten nicht mehr glauben, irgendwelche Aufsätze selbst geschrieben oder Hausaufgaben selbst gelöst zu haben. Es gibt wiederum andere Lehrer und Professoren, die dann ChatGPT danach fragen, ob es diesen Text geschrieben hat. Was genauso bescheuert ist, denn das Programm kann das auch nicht beantworten. Beziehungsweise das, was es antwortet, hat nichts mit der Wahrheit zu tun. Da sind noch ganz viele Lücken, wo Menschen Erwartungen an das Programm haben, die nicht erfüllt werden können. Ein Lernprozess, durch den man einfach durch muss. In diesem Fall ist es besonders tricky, weil ChatGPT besonders gut formulierte Antworten ausgibt. Sie hören sich so richtig an, dass man erst mal keinen Zweifel daran hat – wenn man es nicht besser weiß. Das ist das Gefährliche daran. Setzt man es in der Software-Entwicklung ein, gibt es teilweise Code mit plausibel klingenden Funktionen zurück, die es aber gar nicht gibt. Was in der Reaktion darauf andere dazu bewogen hat zu sagen: Diese Funktionen müsste es aber eigentlich auch geben.

Es gibt Strategien, diese Fehler zu minimieren“

Muss noch entwickelt werden ...

Genau. Es ist ein Lernprozess, der auch für intelligente Leute gar nicht so leicht zu verstehen ist.

Noch enthalten Bilder bzw. Videos Fehler. Das lässt sich noch ganz gut einordnen, aber wie lange wird das so bleiben?

Einige Studien behaupten GPT4, also der Nachfolger des aktuellen ChatGPT, produziere bereits sehr viel weniger Halluzinationen als 3.5. Es gibt Strategien, diese Fehler zu minimieren, z.B. indem ChatGPT die eigenen Antworten evaluiert oder mit einer Wissensdatenbank verknüpft. Ich würde daher schon davon ausgehen, dass in den nächsten Jahren diese Wahrhaftigkeitsproblematik bei den KIs besser wird. Ob sie gelöst wird, das wage ich mal zu bezweifeln.

Dann ließen sich Videos und Bilder kaum noch von der Wirklichkeit unterscheiden. Wie im Fall des sogenannten „Fake-Klitschko“, als angeblich Vitali Klitschko ein Telefongespräch mit Franziska Giffey führte. Braucht es im Digitalen auch einen Wertekompass: Was ich analog nicht tue, mache ich digital erst recht nicht?

Ich weiß nicht, ob sich Kriminelle von einem Wertekompass abschrecken lassen (lacht). Es wird gemacht, was sinnvoll ist oder wodurch sich irgendwelche Gewinne erzielen lassen. In einem Wertekompass sehe ich ehrlich gesagt keinen Sinn.

Menschen werden das ausnutzen“

Sie meinen, eine Ethik des Digitalen würde uns nichts nutzen?

Sie würde uns auf jeden Fall nicht schützen. Leute tun böse Dinge. Das haben sie immer getan. Das werden sie immer tun. Und mit KIs gibt es neue Möglichkeiten, böse Dinge zu tun und solche Menschen werden das ausnutzen. Mit einem Wertekompass kann man Google oder Facebook beeindrucken, aber nicht irgendwelche Kriminellen.

Was halten Sie von einem Deepfake-Filter?

Wenn es so was geben könnte, woran ich nicht glaube, dann könnte man einen Filter vorschreiben, der zumindest auch anzeigt, was hier der Deepfake ist und was nicht. Es gibt auch die Idee einer Auszeichungspflicht. Das kann man alles machen, nur die tatsächlichen Kriminellen wird es nicht davon abhalten, damit Schindluder zu treiben.

 

DIGITAL UNVERBUNDEN - Aktiv im Thema

dji.de | Das staatlich finanzierte Deutsche Jugendinstitut untersucht „die Lebenslagen von Kindern, Jugendlichen und Familien sowie die damit zusammenhängenden sozialstaatlichen Angebote und Maßnahmen“.
iat.eu | Das in Gelsenkirchen ansässige Institut Arbeit und Technik forscht zu Arbeit und Wirtschaft, um einen Beitrag zu leisten für „nachhaltigen Wohlstand und Lebensqualität“.
igza.org | Das Institut für die Geschichte und Zukunft der Arbeit forscht zu Technik, Kommunikation sowie wirtschaftlicher und politischer Macht, um die Ergebnisse „für die Gestaltung zukünftiger Arbeitswelten nutzbar zu machen“.

Fragen der Zeit: Wie wollen wir leben?
Schreiben Sie uns unter meinung@engels-kultur.de

Interview: Nina Hensch

Hat Ihnen dieser Beitrag gefallen? Als unabhängiges und kostenloses Medium sind wir auf die Unterstützung unserer Leserinnen und Leser angewiesen. Wenn Sie uns und unsere Arbeit finanziell mit einem freiwilligen Betrag unterstützen möchten, dann erfahren Sie über den nebenstehenden Button mehr.

Neue Kinofilme

Arthur der Große

Lesen Sie dazu auch:

Bloß kein Erbarmen
Intro – Digital unverbunden

Champagner vom Lieferdienst
Teil 1: Leitartikel – Vom Unsinn der Debatte über die junge Generation

„Junge Menschen sind gesucht und begehrt“
Teil 1: Interview – Arbeitsmarktforscher Ulf Rinne über neue Herausforderungen bei der Berufswahl

Wer bin ich?
Teil 1: Lokale Initiativen – Johannes Wilbert begleitet Menschen bei ihrer Suche nach dem passenden Beruf

Kult der Lüge
Teil 2: Leitartikel – In den sozialen Netzwerken wird der Wahrheitsbegriff der Aufklärung auf den Kopf gestellt

Wissen über KI fördern
Teil 2: Lokale Initiativen – Die Kölner Wissenschaftsrunde

Die Messenger-Falle
Teil 3: Leitartikel – Zwischen asynchronem Chat und sozialem Druck

„Häufig eine völlig falsche Vorstellung des ‚echten Lebens‘“
Teil 3: Interview – Psychologin Anna Schneider über Freundschaft in Zeiten der Digitalisierung

Dein Freund, das Handy
Teil 3: Lokale Initiativen – Forschung zur Smartphone-Nutzung in Beziehungen an der Universität Witten/Herdecke

Digitalisierung für alle
Technischer Wandel und Inklusion – Europa-Vorbild: Dänemark

Gemeinsam einsam
Die Kunst, nebeneinander zu sitzen und Welten entfernt zu sein – Glosse

Interview

Hier erscheint die Aufforderung!