Verwendest du häufig GenAI, um deine tägliche Arbeit zu unterstützen, und verlässt dich sogar vollständig darauf als Informationsquelle? Dabei ist nicht zu unterschätzen, dass KI-generierter Content (AIGC) auch verschiedene Mängel aufweisen kann, was eventuell zu Desinformationen führen kann.
Aktualitätslücke
GenAI könnte durch veraltete Trainingsdaten eingeschränkt werden, was zu Wissenslücken oder fehlerhaften Informationen führen kann. Modelle wie ChatGPT 3.5 haben keinen Zugriff auf aktuelle externe Datenbanken wie das Internet, was potenzielle Ungenauigkeiten beim Abrufen von Fakten zur Folge hat [1].
Sachliche Fehler
Sachliche Fehler beziehen sich auf Ungenauigkeiten in Informationen oder Aussagen, die nicht der Realität oder der Wahrheit entsprechen. Unternehmen wie Google und OpenAI versuchen diese Lücke in der Datenaktualität zu schließen, indem sie GenAI-Tools über die Suchmaschine mit dem Internet verbinden und online Informationen für das Training verwenden, was wiederum zu anderen Problemen führt. Im Gegensatz zu vorgegebenen Trainingsdaten, die sorgfältig gepflegt werden, können beispielsweise Daten, die direkt von der Suchmaschine stammen, fehlerhafte oder problematische Informationen enthalten [2]. KI ist oft nicht in der Lage, die Glaubwürdigkeit von Informationsquellen zu unterscheiden und könnte unzuverlässigen Quellen sogar mehr Gewicht beimessen [3]. In der Vergangenheit haben KI-Chatbots einige Antworten gegeben, die sachliche Fehler oder irrtümliche Daten enthielten. Z. B. antwortete Googles Chatbot Bard auf eine Frage, dass das erste Foto eines Planeten außerhalb des Sonnensystems vom James-Webb-Weltraumteleskop aufgenommen wurde, welches aber tatsächlich vom Very Large Teleskope in Chile aufgenommen wurde [4].
Hallucination
Obwohl GenAI-Tools in der Lage sind, Inhalte zu generieren, die normalerweise vernünftig erscheinen oder klingen, sind sie in Bezug auf ihre Glaubwürdigkeit oft unzuverlässig. Hallucination bezieht sich auf das Phänomen, bei dem die GenAI-generierten Antworten scheinbar korrekt sind, aber in der Tat vollständig fabriziert werden und daher keinen Sinn machen oder schlichtweg falsch sind [5]. Wenn man einen Chatbot nach der Definition von etwas fragt, was eigentlich nicht existiert, bekommst du möglicherweise eine “überzeugende” Antwort mit komplett erfundenen Fußnoten [6]. Z.B. ein Rechtsanwalt in New York nutzte ChatGPT, um relevante Fälle für seine Fallzusammenfassungen zu recherchieren. Später stellte sich heraus, dass viele der von ihm zitierten Fälle und Artikel erfunden waren [7].
Gezielte Verbreitung von Desinformationen
Abgesehen von den technisch bedingten fehlerhaften Antworten könnte KI auch von böswilligen Akteuren als Werkzeug zur gezielten massenhaften Erstellung und Verbreitung von Desinformationen missbraucht werden, warnt NewsGuard. In ihren Tests mit 100 bekannten Desinformationsbeispielen erzeugte ChatGPT in 80 Fällen falsche Geschichten, die für Laien glaubwürdig erscheinen könnten. Mit der zunehmenden Verbreitung der GenAI-Tools steigt auch das Missbrauchspotenzial.
Glücklicherweise gibt es Schutzmaßnahmen zur Verhinderung von Desinformationen. Die ethischen Richtlinien von OpenAI verbieten die direkte Bereitstellung von Desinformationen. Zudem wird ChatGPT auch darauf trainiert, verantwortungsbewusst zu reagieren und Gerüchte zu entlarven, um die Verbreitung Desinformationen zu vermeinden.
Faktencheck
Obwohl die Ausgaben von GenAI Fehler enthalten können, sind wir nicht hilflos dagegen. Es wurden verschiedene Maßnahmen ergriffen, um das Problem der Desinformationen anzugehen. Truthful AI schlug einige systematische Definitionen von Wahrhaftigkeitsstandards und -ansätzen zur Steuerung von AIGC vor, mit dem Ziel, „fahrlässige Unwahrheiten“ zu vermeiden. Zudem werden KI-Systeme explizit darauf trainiert, durch kuratierte Datensätze und menschliche Interaktion wahrheitsgemäß zu agieren. Z.B. Mistral AI hat kürzlich ein neues Modell vorgestellt, das darauf trainiert ist, keine Information zu erfinden und zuzugeben, wenn es etwas nicht weiß.
WebGPT stellte einen humanoiden Prototyp vor, der den KI-Antwortprozess in Websuche und Evidenzbildung modelliert. Das Modell zitiert seine Quellen und nutzt Imitationslernen mit menschlichem Feedback, wodurch die sachliche Genauigkeit der Ausgaben deutlich verbessert wird. Einige GenAI-Tools, wie Copy.ai und Perplexity AI, listen ebenfalls Quellen auf, um die Faktenprüfung effizienter zu gestalten.
Andererseits könnte KI auch eine wirksame Lösung im Kampf gegen Desinformationen sein. KI hilft bei der Validierung von Informationen und Fakten sowie der Analyse unterschiedlicher Informationsquellen in mehreren Sprachen, z.B. das EU-Projekt Pheme, das die Glaubwürdigkeit von Internetinformationen und die Entlarvung von Fake News untersucht.
Vorschläge für Kommunikationsfachleute
Geschwindigkeit und Bequemlichkeit haben nie Vorrang vor Genauigkeit. Überprüfe immer die Wahrheit der KI-Ausgaben. Z.B. FactCheck.org ist eine Website zur Überprüfung der öffentlichen Ordnung und politisch geteilter Behauptungen, auf der Besucher direkt Verifizierungsfragen stellen können. Zudem ist es notwendig, Governance-Standards und Richtlinien für den Umgang mit AIGC in einem Unternehmen festzulegen, einschließlich Verfahren zur Faktenprüfung und Quellenverifizierung.
Falls du Interesse hast, findest du hier weitere Tipps zum Thema Faktencheck: Genaue Content-Checkliste für Menschen und KI | Content-Marketing-Institut
Bild: KI-generiert mit DALL-E



