Doku für KI Agenten

Wenn der KI-Chatbot halluziniert: Woran liegt das wirklich?

KI-Support-Chatbots wie Intercom Fin oder Zendesk AI halluzinieren fast nie wegen eines Modellproblems. Sie greifen auf veraltete Wissensbasis-Artikel zurück und geben falsche Informationen mit hoher Konfidenz aus. Dieser Artikel erklärt, welche Dokumentationsfehler KI-Bots unzuverlässig machen und welche drei strukturellen Maßnahmen das Problem beheben.
April 30, 2026
Henrik Roth
Warum KI-Chatbots halluzinieren
TL;DR
  • KI-Chatbots halluzinieren nicht weil das Modell schlecht ist, sondern weil die Wissensbasis veraltet oder lückenhaft ist. Das Modell gibt aus, was es findet.
  • RAG-Systeme bewerten semantische Ähnlichkeit, nicht das Alter eines Artikels. Ein veralteter Artikel wird mit gleicher Konfidenz ausgegeben wie ein aktueller.
  • Die drei häufigsten Ursachen: veraltete Menüpfade im Text, Screenshot-only-Anleitungen die der Bot nicht lesen kann, und fehlende Verbindung zwischen Release-Zyklus und Dokumentationsprozess.
  • Der schnellste Diagnose-Test: deine zehn häufigsten Support-Anfragen dem Bot stellen und die Accuracy manuell prüfen. Alles unter 70 Prozent ist ein Problem.
  • Die strukturelle Lösung ist nicht besseres Prompt-Engineering, sondern eine Wissensbasis, die sich automatisch aktualisiert, wenn sich das Produkt ändert.

Dein KI-Support-Chatbot gibt mit 94 Prozent Konfidenz eine falsche Antwort. Der Nutzer folgt den Schritten, klickt durch drei Menüpfade, die es seit dem letzten Release nicht mehr gibt, und landet irgendwo, den er nie gesucht hat. Dann schreibt er doch ein Ticket. Und dein Support-Agent liest das Protokoll und denkt: War das wirklich nötig?

Das Ärgerliche daran: Das KI-Modell funktioniert tadellos. Intercom Fin, Zendesk AI oder welcher Chatbot auch immer in deinem Stack, diese Systeme machen exakt das, wofür sie gebaut wurden. Sie suchen in deiner Wissensbasis nach der passendsten Antwort und präsentieren sie. Das Problem liegt eine Schicht tiefer, da, wo fast niemand hinschaut: in der Wissensbasis selbst.

Dieser Artikel erklärt, warum KI-Chatbot-Halluzinationen im Kundenservice fast immer ein Dokumentationsproblem sind und kein Modellproblem, wie du erkennst ob deine Wissensbasis ein Risiko ist, und was strukturell dagegen hilft.

Was sind KI-Halluzinationen? Eine klare Definition

Der Begriff "Halluzination" klingt dramatischer als er ist. Im technischen Sinne bedeutet er: Ein KI-System generiert eine Aussage, die faktisch falsch ist, aber als wahr präsentiert wird. Das Modell "erfindet" keine Informationen aus dem Nichts. Es tut etwas Subtileres: Es kombiniert verfügbare Informationen auf eine Art, die zu einer falschen Schlussfolgerung führt.

Im Kontext eines Support-Chatbots sieht das konkret so aus: Der Bot hat Zugriff auf deine Wissensbasis. Er findet einen Artikel, der thematisch zur Frage des Nutzers passt. Dieser Artikel ist aber sechs Monate alt und beschreibt eine UI-Version, die es nicht mehr gibt. Der Bot formuliert auf Basis dieses Artikels eine Antwort, die für den aktuellen Stand des Produkts nicht mehr stimmt. Mit voller Überzeugung, ohne jeden Hinweis auf Unsicherheit.

Der entscheidende Unterschied zu allgemeinen Sprachmodell-Halluzinationen: Bei einem Support-Bot liegt die Ursache fast nie im Modell selbst. Sie liegt in der Qualität der Datenbasis, auf der das Modell arbeitet. Das klingt nach einer Feinheit, ist aber entscheidend für die Lösung. Wer das Modell für das Problem hält, wechselt den Anbieter. Wer die Wissensbasis als Problem erkennt, löst es.

Es gibt noch eine zweite Art von Halluzination, die im Support-Kontext oft übersehen wird: der Bot antwortet auf eine Frage, für die er keine verlässliche Quelle hat, und formuliert trotzdem eine plausibel klingende Antwort. Das geschieht nicht weil das Modell böswillig ist. Es geschieht, weil Sprachmodelle darauf trainiert sind, auf jede Frage zu antworten. Schweigen gehört nicht zu ihrem Grundrepertoire. Das führt dazu, dass ein Bot auch dann antwortet, wenn er eigentlich eskalieren sollte. Die Lösung dafür liegt teilweise in den Modell-Einstellungen, aber hauptsächlich in einer Wissensbasis, die vollständig genug ist, um die häufigsten Fragen klar zu beantworten.

Wie RAG funktioniert und warum veraltete Docs das Problem verschärfen

Fast alle modernen KI-Support-Bots arbeiten mit einem Verfahren namens Retrieval-Augmented Generation, kurz RAG. Das Prinzip ist einfach: Statt ein allgemeines Sprachmodell mit deinen Produktdetails zu trainieren, was aufwendig, teuer und schnell veraltet wäre, gibt das System dem Modell bei jeder Anfrage die passendsten Textabschnitte aus deiner Wissensbasis mit auf den Weg. Das Modell formuliert daraus eine Antwort.

RAG ist ein guter Ansatz. Er hat aber eine Grundbedingung: Die Wissensbasis muss stimmen. Was das System abruft, das formuliert es auch aus. Wenn der abgerufene Textabschnitt den alten Navigationspfad beschreibt, beschreibt die Antwort den alten Navigationspfad. Mit voller Zuversicht, ohne Rückfrage. Der Konfidenz-Score sagt nicht: "Diese Information ist korrekt." Er sagt: "Ich habe den relevantesten Textabschnitt gefunden." Diese zwei Aussagen sind grundverschieden.

Und hier liegt das eigentliche Problem für B2B-SaaS-Teams. Laut dem GitLab Global DevSecOps Survey deployen die meisten modernen Entwicklungsteams mehrmals wöchentlich, viele davon täglich. Produkte ändern sich schnell. UI-Flows werden umgebaut. Buttons bekommen neue Namen. Einstellungen wandern von Tab zu Tab. Jede dieser Änderungen kann einen Help-Center-Artikel korrumpieren, der vorher korrekt war. Und solange niemand den Artikel aktualisiert, bleibt er in der Wissensbasis, wo er als valide Quelle für den Bot dient.

Das ist keine Nachlässigkeit von Support-Teams. Es ist ein strukturelles Problem: Der Entwicklungsprozess und der Dokumentationsprozess laufen in den meisten Teams ohne Verbindung nebeneinander. Warum das so ist und was es langfristig kostet, erklärt der Artikel zu veralteter Dokumentation in B2B-SaaS.

Drei Hauptursachen für Halluzinationen im Kundenservice-Chatbot

KI-Halluzinationen im Support entstehen nicht zufällig. Sie haben identifizierbare Ursachen, die in drei Kategorien fallen.

Ursache 1: Veraltete oder lückenhafte Wissensdatenbank

Das ist bei weitem die häufigste Ursache. Dokumentation, die einmal korrekt war, aber durch Produktänderungen überholt wurde, gibt dem Bot Material für selbstbewusst falsche Antworten. Typische Ausprägungen:

  • Veraltete Menüpfade. Der Artikel beschreibt: "Klicke auf Einstellungen, dann auf Team, dann auf Berechtigungen." Seit dem letzten Release heißt der Punkt "Rollen" und liegt unter "Workspace". Der Bot nennt den alten Pfad. Der Nutzer findet ihn nicht.
  • Gelöschte oder umbenannte Features. Ein Artikel beschreibt ein Feature, das nach einem Redesign umbenannt oder in ein anderes Modul verlagert wurde. Der Bot erklärt dem Nutzer, wie er etwas findet, das unter diesem Namen nicht mehr existiert.
  • Widersprüchliche Artikelversionen. Zum gleichen Thema gibt es drei Artikel aus verschiedenen Zeiträumen, alle noch indexiert. Das RAG-System kombiniert Elemente aus mehreren, und das Ergebnis ist eine Chimäre, die auf keinen dieser Artikel vollständig zutrifft.

Ursache 2: Fragen, die die Wissensbasis nicht abdeckt

Wenn ein Nutzer eine Frage stellt, die keine direkte Entsprechung in der Wissensbasis hat, hat das RAG-System zwei Optionen. Entweder es antwortet mit "Ich weiß es nicht" und übergibt an einen Menschen. Oder es findet den semantisch ähnlichsten Artikel und formuliert eine Antwort daraus, die zwar verwandt ist, aber die eigentliche Frage nicht beantwortet.

Letzteres passiert häufiger als man denkt. KI-Systeme sind darauf optimiert, eine Antwort zu liefern. Das ist auch ihr Wert. Aber ohne klare Konfidenz-Schwellen antwortet das System bei Unsicherheit trotzdem, anstatt zu eskalieren. Das Ergebnis ist eine plausibel klingende, aber inhaltlich fehlerhafte Antwort. Was passiert, wenn ein KI-Chatbot mit Lücken in der Wissensbasis arbeitet und wie du das erkennst, erklärt der Artikel zu KI-Chatbot falsche Antworten durch Wissensbasis.

Ursache 3: Modell antwortet trotz hoher Unsicherheit

Der Konfidenz-Score eines KI-Systems ist kein Qualitätsmerkmal der Antwort, sondern ein Maß für die Sicherheit des Retrieval-Schritts. Ein hoher Score bedeutet: Das Modell ist sicher, dass es den relevantesten Textabschnitt gefunden hat. Er bedeutet nicht: Die Antwort ist korrekt. Wenn der gefundene Textabschnitt veraltet oder inhaltlich unvollständig ist, produziert ein hoher Konfidenz-Score trotzdem eine falsche Antwort, die sich von außen nicht von einer richtigen unterscheidet.

Das erklärt, warum Halluzinationen im Support so konsequent falsch sind. Das Modell findet einen Artikel, der zum Thema passt, formuliert eine klare Antwort, und der Nutzer hat keinen Hinweis darauf, dass die Information veraltet ist. Kein "könnte sein", kein "ich bin nicht sicher". Nur eine selbstbewusste, falsche Anleitung.

Hinzu kommt: Nutzer, die einem Bot folgen und scheitern, berichten das. Sie schreiben ein Ticket mit dem Kommentar "Ihr Bot hat mir das empfohlen und es hat nicht funktioniert." Das ist nicht nur ein Vertrauensproblem gegenüber dem Bot. Es ist ein Reputationsproblem für den Support-Kanal insgesamt. Teams, die das nicht tracken, wundern sich über sinkende Bot-Nutzungsraten ohne zu wissen, warum Nutzer den Direktkanal zum Agenten bevorzugen.

Der Wissensdatenbank-Faktor: Haupthebel gegen KI-Halluzinationen

Prompt-Engineering, bessere Modelle, feineres Tuning der Konfidenz-Schwellen: All das hilft am Rand. Der größte Hebel liegt in der Datenbasis. Ein sprachlich überzeugend formulierter, inhaltlich falscher Artikel produziert eine sprachlich überzeugend formulierte, inhaltlich falsche Antwort. Kein Modell kann das korrigieren, weil das Modell keine unabhängige Wissensquelle hat. Es hat nur deine Wissensbasis.

Laut Salesforce State of Service sind Wissensmanagement und Dokumentationsqualität die am häufigsten genannten Faktoren, die Support-Teams bei der KI-Implementierung ausbremsen. Nicht die Modellqualität. Nicht das Prompt-Design. Die Daten.

Das bedeutet: Die Arbeit, die den größten Einfluss auf die Qualität deines KI-Chatbots hat, passiert nicht in den Einstellungen des Chatbot-Anbieters. Sie passiert in deinem Help Center. Wer das versteht, investiert seine Zeit in die richtige Schicht.

Es gibt eine einfache Formel, die das Verhältnis beschreibt: Qualität der Wissensbasis plus Qualität des Retrieval ergibt Qualität der Bot-Antworten. Das Retrieval optimiert der Chatbot-Anbieter. Die Wissensbasis optimierst du. Von diesen zwei Faktoren ist die Wissensbasis der, auf den du den größten Einfluss hast, und der, den die meisten Teams systematisch vernachlässigen.

Wie erkennst du, ob deine Wissensbasis ein Halluzinations-Risiko ist?

Bevor du anfängst, irgendetwas umzubauen, lohnt sich ein ehrlicher Blick auf das, was du gerade hast. Die folgenden Fragen zeigen dir, wo du stehst.

  • Wie alt sind deine Top-20-Artikel? Öffne dein Help Center und sortiere nach meistgeklickten Artikeln. Wann wurden sie zuletzt bearbeitet? Wenn mehr als die Hälfte seit einem Major Release nicht aktualisiert wurde, hast du ein systematisches Problem.
  • Haben deine Artikel Update-Daten? Nicht nur ein Erstellungsdatum, sondern ein tatsächliches "Zuletzt aktualisiert am". Wenn nicht, hat dein Team keine Möglichkeit, Prioritäten für Aktualisierungen zu setzen, und der Bot hat keine Möglichkeit, veralteten Inhalt zu gewichten.
  • Sind kritische Schritte als Text beschrieben oder nur als Screenshot? Geh durch deine fünf meistgenutzten Anleitungen. Wenn die wichtigsten Schritte sich ausschließlich in einem Screenshot befinden, kann dein Bot sie nicht korrekt wiedergeben.
  • Gibt es zum gleichen Thema mehrere Artikel? Suche in deinem Help Center nach häufigen Begriffen. Findest du mehrere Artikel, die dasselbe Thema aus verschiedenen Zeiträumen beschreiben, ist das ein direktes Halluzinations-Risiko.
  • Der einfachste Test: Stelle deinem Bot deine zehn häufigsten Support-Anfragen. Nicht die einfachen, sondern die, bei denen du weißt, dass sich etwas im Produkt verändert hat. Wie viele Antworten sind korrekt? Wie viele nennen veraltete Pfade oder Features?

Klare Red Flags: Artikel, die älter als 90 Tage sind und in einem Bereich liegen, der sich seitdem verändert hat. Keine Versionierung. Fehlende Verbindung zwischen Entwicklungsprozess und Content-Prozess. Mehrere Artikel zum gleichen Thema ohne klare Kennzeichnung, welcher der aktuelle ist.

Wie du Halluzinationen im laufenden Betrieb misst

Was nicht gemessen wird, wird nicht besser. Zwei KPIs sind für die laufende Qualitätssteuerung entscheidend.

Bot-Accuracy-Rate

Wie viel Prozent der Bot-Antworten sind korrekt und vollständig? Das lässt sich mit einem monatlichen Stichproben-Test messen. Du nimmst 20 bis 30 typische Support-Fragen aus deinem Ticket-System, stellst sie dem Bot, und bewertest die Antworten manuell: korrekt, veraltet oder komplett falsch. Ein System, das unter 70 Prozent Accuracy liegt, erzeugt mehr Schaden als Nutzen, weil das Vertrauen der Nutzer schneller erodiert als der Bot Tickets deflektiert. Die meisten Teams, die mit uns sprechen, kennen diesen Wert nicht. Das ist selbst ein Signal.

Escalation-Rate

Wie viel Prozent der Bot-Gespräche werden trotz Bot an einen menschlichen Agenten übergeben? Eine hohe Escalation-Rate zeigt entweder, dass der Bot die Fragen nicht beantworten kann, oder dass die Nutzer den Bot-Antworten nicht vertrauen. Beides ist ein Signal für eine schwache Wissensbasis. Eine gut gepflegte Wissensbasis senkt die Escalation-Rate, nicht durch mehr Prompt-Engineering, sondern durch bessere Daten. Wie du die Verbindung zwischen KI und Wissensdatenbank grundsätzlich aufbaust, erklärt der Guide zu Wissensdatenbank und KI-Chatbot verbinden.

Strategien zur Reduzierung von Halluzinationen

Es gibt keine einzelne Maßnahme, die das Problem vollständig löst. Aber vier strukturelle Ansätze machen zusammen einen deutlichen Unterschied.

1. Answer-First-Struktur in jedem Artikel

Die Antwort gehört in die ersten 50 Wörter eines Artikels, nicht am Ende nach drei Absätzen Hintergrundwissen. RAG-Systeme extrahieren den Textabschnitt, der am besten zur Anfrage passt. Wenn die Antwort nicht oben steht, arbeitet das System mit fragmentierten Informationen und produziert unvollständige oder zusammengewürfelte Antworten.

Konkret: Jeder Artikel beginnt mit einer direkten Antwort auf die implizite Frage des Titels. Danach kommt Kontext, Erklärung, Sonderfälle. Nicht umgekehrt. Frage-basierte Überschriften helfen zusätzlich: Wenn der Nutzer fragt "Wie exportiere ich meine Daten?", und dein Artikel hat die Überschrift "Daten exportieren", funktioniert der semantische Match gut. Wenn die Überschrift "Datenverwaltung und Export" heißt, ist die Treffsicherheit deutlich geringer.

2. Kein Screenshot-only-Inhalt

Screenshots können RAG-Systeme nicht lesen. Ein Artikel, der ausschließlich aus annotierten Screenshots besteht, ist für den Bot faktisch leer. Er greift auf die umgebenden Sätze zurück, die oft zu vage sind, um eine genaue Antwort zu generieren. Jeder Schritt, den ein Nutzer ausführen soll, muss als lesbarer Text vorhanden sein. "Klicke im linken Menü unter Einstellungen auf Workspace, dann wähle den Tab Rollen" ist besser als ein Bild mit Pfeil.

Das hat zwei Vorteile: Der Bot kann es lesen. Und wenn sich der Menüpfad ändert, fällt die Abweichung bei einem Review sofort auf, weil sie als Text sichtbar ist und nicht in einem Bild versteckt liegt.

3. UI-Änderungen automatisch mit Dokumentation verknüpfen

Das ist der kritischste Punkt, weil er den Prozessbruch schließt, der die meisten veralteten Artikel erzeugt. In den meisten Teams gibt es keine direkte Verbindung zwischen dem Entwicklungsprozess und dem Dokumentationsprozess. Entwickler mergen einen Pull Request. Niemand weiß, welche Artikel davon betroffen sind. Niemand aktualisiert sie. Der Bot liest weiter die alte Version.

Wie diese Verbindung technisch durch GitHub Sync funktioniert, erklärt der Artikel zu GitHub Sync für Help Center. Werkzeuge, die CSS-Selektoren und DOM-Metadaten statt Pixel-Screenshots aufzeichnen, können UI-Änderungen präzise erkennen. Wenn sich ein CSS-Selektor ändert, also wenn ein Entwickler eine Komponente umbenennt oder verschiebt, kann das System identifizieren, welche Guides davon betroffen sind, und entweder automatisch aktualisieren oder das Content-Team warnen. Das schließt den Loop zwischen Release-Zyklus und Dokumentation.

4. Stale-Content-Monitoring

Was nicht sichtbar ist, wird nicht gepflegt. Ein Dashboard, das zeigt, welche Artikel seit wann nicht aktualisiert wurden und welche davon in Bereichen liegen, die sich in letzter Zeit geändert haben, verwandelt Dokumentationspflege von einer reaktiven Feuerlösch-Übung in einen planbaren Prozess. Ohne Monitoring weißt du nicht, ob deine Wissensbasis besser oder schlechter wird. Du weißt es erst, wenn die Beschwerden reinkommen.

Wann ist deine Wissensbasis "bot-ready"?

Bot-ready bedeutet nicht perfekt. Es bedeutet, dass die Datenbasis, auf der dein KI-Chatbot arbeitet, strukturiert genug und frisch genug ist, um verlässliche Antworten zu generieren. Drei Kriterien sind dabei entscheidend.

  • Frische. Kein Artikel in einem aktiv genutzten Bereich ist nach einem Major Release länger als 90 Tage ohne Review. Das gilt besonders für Anleitungen, die UI-Elemente beschreiben.
  • Struktur. Jede Frage hat eine direkte Antwort im ersten Absatz. Kein Artikel beginnt mit Kontext und endet mit der eigentlichen Anleitung. Die Answer-First-Logik ist kein Schreibstil, sie ist technische Notwendigkeit für RAG-Systeme.
  • Kein Bild-only-Inhalt. Alles, was ein Nutzer tun soll, steht als lesbarer Text. Screenshots ergänzen, ersetzen nicht. Dieser Punkt klingt trivial, ist es aber nicht, wenn du hunderte Artikel im Help Center hast, die über Jahre durch Copy-Paste aus Screenshot-basierten Tools entstanden sind.

Wenn deine Wissensbasis diese drei Kriterien erfüllt, verändert sich das Verhalten deines Bots sichtbar. Nicht weil das Modell besser geworden ist, sondern weil es mit zuverlässigeren Informationen arbeitet. Das Dokumentationsproblem tiefer zu verstehen hilft auch beim Training. Wenn du deinen KI-Chatbot mit Dokumentation trainieren willst, erklärt der Artikel zu KI-Chatbot mit Dokumentation trainieren, worauf es dabei ankommt.

Fazit: Das Modell ist selten das Problem

KI-Support-Bots sind kein Ersatz für eine funktionierende Wissensbasis, sie sind ein Verstärker davon. Was rein geht, kommt raus. Veralteter Content führt zu veralteten Antworten, mit der gleichen Konfidenz wie korrekte.

Der erste Schritt ist der einfachste: Stelle deinem Bot heute deine zehn häufigsten Fragen und sieh, wie viele er korrekt beantwortet. Wenn mehr als zwei oder drei daneben liegen, liegt das Problem fast sicher in der Wissensbasis, nicht im Modell. Und das ist lösbar.

Wer die Verbindung zwischen Release-Zyklus und Dokumentationsprozess schließt, ob durch DOM-basierte Aufzeichnung, GitHub Sync oder ein sauberes Review-System, der reduziert Halluzinationen nicht durch ein besseres Modell, sondern durch eine bessere Datenbasis. Das ist die strukturelle Lösung.

HappySupport ist für genau dieses Problem gebaut. HappyRecorder zeichnet Guides auf Basis von DOM-Selektoren auf, nicht von Screenshots. HappyAgent überwacht dein GitHub-Repo und löst automatische Updates oder Stale-Warnungen aus, wenn sich UI-Elemente ändern. Das Ergebnis ist eine Wissensbasis, die code-verifiziert und strukturell aktuell bleibt, auch wenn dein Team täglich shipped.

Das Prinzip dahinter ist einfach zu verstehen: Wenn du mit einem Tool dokumentierst, das DOM-Selektoren und CSS-Metadaten statt Pixel aufzeichnet, weißt du immer, ob das zugrundeliegende UI-Element noch existiert. Ein Screenshot kann nicht prüfen, ob der Button, den er zeigt, noch denselben Namen hat. Ein DOM-Selektor kann das. Das ist der Unterschied zwischen Dokumentation, die sich selbst aktualisiert, und Dokumentation, die wartet, bis jemand die Zeit hat sie anzufassen.

Wenn du sehen willst, wie das in der Praxis aussieht, mach zuerst den 10-Fragen-Test: Stelle deinem Bot heute deine zehn häufigsten Support-Anfragen. Du wirst schnell sehen, wo deine Wissensbasis steht.

FAQs

Warum gibt mein KI-Chatbot falsche Antworten, obwohl er ein gutes Modell hat?
Das Modell ist selten das Problem. Support-Bots nutzen Retrieval-Augmented Generation: Sie suchen die passende Antwort in deiner Wissensbasis. Wenn dort veraltete Inhalte stehen, gibt der Bot veraltete Antworten mit voller Konfidenz. Die Fehlerquelle ist die Datenbasis, nicht das Modell.
Was bedeutet Halluzination im Kontext eines Support-Chatbots?
Im Support-Kontext halluziniert ein Bot, wenn er veraltete oder falsche Informationen aus der Wissensbasis mit hoher Konfidenz als korrekte Antwort ausgibt. Er erfindet nichts dazu, er reproduziert das, was in seiner Datenbasis steht, auch wenn es längst überholt ist.
Welche Dokumentationsfehler machen KI-Chatbots am häufigsten unzuverlässig?
Die häufigsten Fehler sind: veraltete Menüpfade als Text, screenshot-only Anleitungen ohne lesbaren Textinhalt, fehlende direkte Antworten im ersten Absatz und Artikel ohne Update-Datum. Jeder dieser Fehler reduziert die Qualität der Retrieval-Antwort des Bots direkt.
Wie erkenne ich, ob meine Wissensbasis ein Halluzinations-Risiko ist?
Stelle deinem Bot deine zehn häufigsten Support-Fragen und prüfe, wie viele korrekt beantwortet werden. Außerdem: Wie alt sind deine meistgenutzten Artikel? Gibt es Update-Daten? Sind kritische Schritte als Text beschrieben oder nur als Screenshot? Mehr als zwei falsche Antworten sind ein klares Signal.
Was ist der einfachste Weg, Halluzinationen bei einem KI-Support-Bot zu reduzieren?
Answer-First-Struktur: Die Antwort gehört in die ersten 50 Wörter jedes Artikels. Dazu kein Bild-only-Content und ein klarer Review-Prozess für Artikel nach UI-Änderungen. Wer den Loop zwischen Release-Zyklus und Dokumentation schließt, reduziert Halluzinationen strukturell.
Das größte Risiko ist nicht, dass die KI eine falsche Antwort gibt. Es ist, dass sie eine falsche Antwort mit hoher Zuversicht gibt.
Lior Lou, Head of Customer Experience, Wix (2023)
Inhaltsverzeichniss

    Henrik Roth

    Co-Founder & CMO von HappySupport

    Henrik hat neuroflash von frühen PLG-Experimenten auf 500k+ Besucher pro Monat und 3,5 Mio. € ARR skaliert. Danach hat er das Produkt neu positioniert und es 2024 zur bestbewerteten Software Deutschlands auf OMR Reviews gemacht. Vor SaaS hat er BeWooden von null auf siebenstelligen E-Commerce-Umsatz aufgebaut. Bei HappySupport löst er jetzt mit Co-Founder Niklas Gysinn das Problem, das ihm in jedem Unternehmen begegnet ist: Dokumentation, die veraltet, sobald Entwickler neuen Code pushen.

    Vereinbare eine Demo mit Henrik