Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft
- ki
„Eine Studie der Europäischen Rundfunkunion (EBU) zur News-Integrität von KI-Chatbots kommt zu dem alarmierenden Ergebnis, dass Künstliche Intelligenz weiterhin keine verlässliche Quelle für den Nachrichtenkonsum darstellt. Die großangelegte, marktübergreifende Untersuchung, bei der 22 öffentlich-rechtliche Medienanstalten aus 18 Ländern und in 14 Sprachen führende KI-Assistenten wie ChatGPT, Copilot, Perplexity und Gemini bewerteten, zeigt: Fehler im Umgang mit Nachrichten treten bei diesen nicht isoliert auf. Sie sind systemisch und erstrecken sich über alle Sprachen und Plattformen.“
Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft [heise]
🖖 Live long and prosper
Hallo Gunnar,
schön, dass es mal jemand sagt ... eine Struktureigenheit der KI ist es, in kürzester Zeit möglichst viel Informationen zu erzeugen. Deshalb wurde vom System her eingestellt, dass ca. 80% Wissensforschung (also exakte Daten) zeitlich noch zu stemmen ist. Der Rest der Informationen wird durch Wahrscheinlickeitsrechnung gemacht. Man könnte auch bösartig sagen, dass da grob geraten wird. Es ist also normal, dass ein gewisser Teil der Ergebnisse der KI-Anfragen einfach falsch ist. Es wird sich im Laufe der Zeit wohl ein Stück verbessern. Aber es wird immer noch einen Menschen brauchen, der sich die Ergebnisse ansieht und bewertet. Leider wird das an manchen Stellen "vergessen", da ja menschiche Arbeit eingespart werden soll 😱 Der Wikipedia-Eintrag dazu umschreibt das richtig schön:
Selbst mächtige Beschreibungssprachen werden unhandlich, wenn man versucht, unsicheres oder unvollständiges Wissen zu formulieren. Für praktische Probleme kann dies eine ernste Einschränkung sein. Die aktuelle Forschung untersucht daher Systeme, die die Regeln der Wahrscheinlichkeitsrechnung anwenden, um Unwissen und Unsicherheit explizit zu modellieren. Algorithmisch unterscheiden sich diese Methoden von den älteren Verfahren: neben Symbolen werden auch Wahrscheinlichkeitsverteilungen manipuliert.
also sage ich auch:
🖖 Live long and prosper
, Hans
Hallo Hans,
Deshalb wurde vom System her eingestellt, dass ca. 80% Wissensforschung (also exakte Daten) zeitlich noch zu stemmen ist. Der Rest der Informationen wird durch Wahrscheinlickeitsrechnung gemacht.
Quelle? Ich frage das, weil:
Der Wikipedia-Eintrag dazu umschreibt das richtig schön...
Da geht es um regelgestützte Inferenzsysteme, also gerade nicht das, was OpenAI und Kollegen tun. Die 80%-Aussage finde ich im Wiki-Artikel nicht und kann sie darum nicht einordnen. Nach dem, way ich über LLMs weiß, sind 100% der generierten Antworten per Wahrscheinlichkeit ermittelt.
Rolf
Hallo Gunnar,
und das ist der Grund für die Studie:
Ferner bedrohen die Fehler in KI-generierten Nachrichten die Reputation vertrauenswürdiger Medienmarken, da 42 Prozent der befragten Erwachsenen dem ursprünglichen Nachrichtenmedium weniger Glauben schenken, wenn die KI-Antwort Fehler enthielt.
Was die Autoren veranlasst, Regulierung zu fordern. Einerseits ist es richtig, dass man den Leuten einbläuen muss, dass Chatbots grundsätzlich mit Vorsicht zu behandeln sind, andererseits erinnert mich das jetzt aber auch an die aktuelle Schnitzelkampagne.
Rolf
Ein System das seine Informationen aus einem Netzwerk bezieht und verknüpft, in dem Sinn und Scheiße gleichermaßen und praktisch nicht unterscheidbar zu finden sind, kann doch keine anderen Ergebnisse bringen.
Das müsste man der Menschheit mal beibringen!
Hallo encoder,
selbst wenn die Datenbasis „sauber“ wäre: diese Fehler sind Technologie-inhärent.
Ein LLM erzeugt sog. Tokens aus einem Eingabetext (dem Prompt). Im Deutschen kann man ein halbes Wort pro Token rechnen, das passt im Schnitt ganz gut. Alle Antwort-Tokens zusammen ergeben dann die Antwort.
Für jedes nächste Token wird das wahrscheinlichste gewählt. Da das jedoch zu schlechten Antworten geführt hat, hat man einen Parameter „temperature“ eingeführt, der im Grunde nichts anderes macht als ein wenig Zufall mit hineinzubringen.
Die Entscheidungsgrundlage für eine Antwort bei einem LLM sind also, vereinfacht gesagt, Wahrscheinlichkeit gemixt mit Zufall.
Dass dabei falsche Antworten herauskommen ist logisch und der Technik selbst geschuldet. Das kriegt man nicht weg, höchstens weniger häufig.
Freundliche Grüße,
Christian Kruse