Trotz der leistungsstarken Funktionen von GenAI und ihrer Fähigkeit, beeindruckende Inhalte zu generieren, ist es wichtig zu beachten, dass sie nicht ohne Mängel ist. In diesem Artikel stellen wir fünf häufig übersehene Mängel von GenAI vor, um dir zu helfen, die Technologie effizienter und verantwortungsbewusster einzusetzen.
Intransparenz
Ein zentraler Streitpunkt bei der AIGC ist die Intransparenz der Trainingsdaten für GenAI-Modelle. Es wird nicht offengelegt, wie der Algorithmus zu seinen Ergebnissen gelangt ist [1], was die menschliche Kontrolle über das KI-Verhalten einschränkt und die Zuordnung der Verantwortung für mögliche Fehler erschwert. Dadurch haben die Nutzer Schwierigkeiten, potenzielle Fehler in den Ausgaben zu erkennen, was das Vertrauen in GenAI und AIGC beeinträchtigt.
Mangel an Kreativität
AIGC können zwar effizient und kostengünstig sein, aber es fehlt ihnen möglicherweise an der Kreativität, die Menschen in ihre Werke einbringen. KI verlässt sich stark auf bestehende Daten und ist nicht in der Lage, komplett innovative und originelle Ideen zu entwickeln [2].
Kein Verständnis von Emotionen
Ein Computerprogramm, so fortschrittlich es auch sein mag, kann Freude weder verstehen noch empfinden. Es kann höchstens darauf trainiert werden, geometrische Muster in Bildern zu erkennen, um zu lernen, was wir Menschen z.B. als „Lächeln“ bezeichnen, und so Emotionen zu „erkennen“ und sogar vorzutäuschen [3]. Im Vergleich zu Musik, die von menschlichen Komponisten produziert wurde, kann es KI-generierter Musik beispielsweise an emotionaler Tiefe und Authentizität mangeln.
Schwierigkeiten beim Verständnis
GenAI generiert Inhalte auf Basis vorgegebener Parameter, indem es große Mengen an Daten und Mustern analysiert, kann jedoch die zugrunde liegende Bedeutung oder den Kontext des Inhalts nicht wirklich verstehen [4]. Z.B. kann KI lernen, dass es statistische Zusammenhänge zwischen Wörtern wie „König“ und „Krone“ gibt, um Sätze zu generieren, die für Menschen sinnvoll erscheinen – jedoch ohne ein echtes Verständnis der Bedeutung dieser Wörter oder Sätze. Ebenso kann ein selbstfahrendes Auto darauf trainiert werden, Fußgängern stets auszuweichen, würde dies jedoch tun, ohne den inneren Wert des Lebens zu begreifen [5]. Darüber hinaus fehlt es AIGC manchmal an einem nuancierten Verständnis von Subtext und Kontext, was zu Ungenauigkeiten und Fehlinterpretationen führen kann [6].
Mangel an gesundem Menschenverstand
KI folgen nicht den unausgesprochenen Regeln und Einschränkungen, denen ein Mensch implizit zustimmen würde – selbst den offensichtlichsten, z.B. dass eine Handlung weder Menschenleben gefährden noch gegen das Gesetz verstoßen darf. Für KI gibt es kein „das ist doch selbstverständlich“ [7]. Ein Beispiel wäre der Uber-Skandal, der durch eine automatische Preiserhöhung während eines terroristischen Angriffs in London ausgelöst wurde, was den Ruf des Unternehmens erheblich schädigte.
AIGC ist noch lange nicht perfekt, weshalb eine angemessene menschliche Beteiligung, die die endgültigen Ausgaben von KI überprüft, unverzichtbar bleibt, um die Qualität der AIGC zu gewährleisten.
Bild: KI-generiert mit DALL-E



