KI & Automation
Was ist Halluzination bei KI und wie geht man damit um?
Halluzination bezeichnet das Phänomen, dass KI-Sprachmodelle Fakten erfinden, die korrekt klingen, aber falsch sind. Es ist eine der wichtigsten Einschränkungen aktueller Sprachmodelle.
Halluzination bezeichnet das Phänomen, dass Sprachmodelle Aussagen produzieren, die faktisch falsch sind, aber mit derselben Überzeugung und Detailtiefe klingen wie korrekte Informationen. Das Modell “erfindet” Fakten, ohne zu merken, dass es das tut.
Typische Beispiele: erfundene Gerichtsurteile mit plausiblen Aktenzeichen, falsche Buchtitel und -autoren, unexistente Forschungsstudien mit korrektem Zitierformat, Firmennamen mit falschen Gründungsdaten. Alles klingt glaubwürdig, weil das Modell gelernt hat, wie solche Informationen normalerweise formuliert werden.
Warum passiert das?
Sprachmodelle sind fundamentally keine Wissensbasen, auch wenn sie so wirken. Sie sind statistische Muster. Sie wurden darauf optimiert, plausibel klingenden Text zu produzieren, nicht darauf, nur Dinge zu sagen, die sie sicher wissen. Wenn eine Frage gestellt wird, für die das Modell keine klare Antwort aus dem Training hat, “interpoliert” es, was wahrscheinlich passen könnte. Das Ergebnis sieht aus wie eine Antwort und ist falsch.
Das Problem variiert mit dem Modell und dem Bereich. Aktuelle Ereignisse, sehr spezifische Fakten, nischenspezifisches Wissen: Halluzinierungs-Risiko höher. Allgemeines Weltwissen, gut dokumentierte Themen: deutlich geringer.
Wie geht man damit um?
Drei Strategien. Erstens: Vertraue nie blind bei faktenbasierten Informationen. Prüfe nach, besonders bei spezifischen Angaben wie Zahlen, Daten, Namen oder Zitaten. Zweitens: Nutze RAG (Retrieval Augmented Generation), bei dem das Modell nicht aus dem Gedächtnis antwortet, sondern gegen verifizierte Dokumente sucht. Drittens: Nutze Modelle für Aufgaben, bei denen Halluzinationen weniger riskant sind, zum Beispiel Textformatierung, Umformulierung, Ideengenerierung.
Das klingt nach viel, ist es aber nicht. Mit dem richtigen Einsatzszenario sind Halluzinationen gut beherrschbar. Welche Aufgaben sich für dein Unternehmen eignen, besprechen wir in einer KI-Beratung.
Lass uns herausfinden, was bei dir möglich ist.
Kostenlos, unverbindlich, ohne Verkaufsdruck. Wir schauen uns gemeinsam an, wo du stehst, was dich bremst und was die nächsten sinnvollen Schritte wären.