Grosse Sprachmodelle rekonstruieren die Welt nicht über Wahrnehmung, sondern über Wahrscheinlichkeit. Sie gewichten, welche Aussagen stabil belegt, vernetzt und logisch konsistent sind – und bilden daraus eine eigene, algorithmische Wahrheitsschicht. Genau hier entsteht die neue Sichtbarkeit: nicht durch Reichweite, sondern durch Evidenz.
Doch während AI Monitoring Tools das „Was“ der Sichtbarkeit messen, welche Marken in LLM Antworten und AI Overviews auftauchen, bleibt das „Wie“ und „Warum“ ungeklärt. Sie diagnostizieren Retrieval-Signale. Was sie nicht zeigen: warum manche Quellen nur erwähnt, andere aber empfohlen werden. Denn die eigentliche Entscheidung fällt nicht in Phase 2 (Fan-Out), sondern in Phase 5-6 (Evidence Weighting, Reasoning). Dort wird aus Auffindbarkeit Autorität – oder eben nicht.
Sichtbarkeit ist kein Messwert, sondern ein emergentes Phänomen: das Ergebnis aus Datenarchitektur, Beweiswert und semantischer Kohärenz. Dieser Artikel zeigt, wie LLMs Antworten tatsächlich konstruieren. Schritt für Schritt, Phase für Phase – und warum Marken nur dann Teil dieser Antworten werden, wenn sie sich strukturiert verankern. Er erklärt den Unterschied zwischen Content, der nur gelesen wird, und Content, der zu Wissen wird.
Denn maschinelle Sichtbarkeit bedeutet nicht: gefunden werden. Sie bedeutet: zur Wahrheit gehören.
Die drei grössten Irrtümer der AI Visibility-Branche

Irrtum 1: AI Overviews sind eine Opportunity
GEO-optimierte Marken werden gefunden und abgerufen – erscheinen in Fan-Out-Logs und AI Overview-Statistiken. Aber ohne strukturierte Evidenz bleiben sie vage Erwähnungen statt Empfehlungen. Sie dienen als Background-Material, nicht als verlinkte Quelle.

Irrtum 2: LLMs sind Blackboxes – man kann nur experimentieren
Trial-&-Error macht keinen Sinn: Prompt-Variationen testen, Content A/B-testen, hoffen. Ohne Prozessverständnis optimiert man im Blindflug. Wer nicht weiss, wann Mention vs. Recommendation entschieden wird, investiert in die falschen Hebel. Wer Entity Recognition nicht versteht, produziert Content, der für Menschen eindeutig ist – für Maschinen mehrdeutig bleibt.

Irrtum 3: AI Visibility ist kurzfristig – Training-Zyklen sind irrelevant
Monitoring zeigt Sichtbarkeit heute. Was es nicht zeigt: Wer wird in 8-12 Monaten auch ohne Onlinerecherche zitiert? Marken mit konsistenten Q-IDs und Schema.org-Relationen formen die parametrische Wissensbasis künftiger Modelle. Sie werden Teil der „verfestigten Wahrheitsschicht“ – zitiert ohne Recherche.
LLM-Prozessmodell: Dual-Path Architecture
Visualisierung der Antwortbildung | Case L vs. Case L+O
Wenn ein Large Language Model eine Anfrage beantwortet, steht es vor einer fundamentalen Entscheidung: Reicht das intern gespeicherte Wissen aus – oder muss zusätzlich im Web recherchiert werden? Diese Weichenstellung bestimmt, welcher von zwei grundlegend verschiedenen Pfaden durchlaufen wird.
Case L (Lerndaten) nutzt ausschliesslich das parametrische Wissen aus dem Training – ein verdichtetes Abbild menschlicher Sprache und Wissensstrukturen, das typischerweise mehrere Monate bis über ein Jahr alt ist. Die Aktualisierung erfolgt nicht kontinuierlich, sondern in diskreten Trainingszyklen. Wenn das Modell aus 2025 stammt, liegt sein Trainingswissen etwa bis Mitte 2024 vor.
Case L+O (Lerndaten + Online) ergänzt dieses statische Wissen durch Echtzeit-Recherche im Web. Das Modell öffnet einen „Kandidatenraum“ von URLs, scannt deren Inhalte und extrahiert aktuelle Evidenz. Dabei erkennt es strukturierte Daten wie JSON-LD, Schema.org-Markup und Entitäten-Anker (Q-IDs, sameAs) in Echtzeit – lange bevor diese in zukünftige Trainingszyklen einfliessen.
Die folgende Visualisierung zeigt beide Pfade im Detail: vom initialen Prompt über die kritische Entscheidung (Confidence Threshold) bis zur finalen Antwort. Was auf den ersten Blick wie ein linearer Prozess aussieht, ist in Wahrheit ein komplexes System mit Feedback-Loops, Evidenzgewichtung und semantischer Synthese – und genau hier entscheidet sich, ob strukturierte Daten zur blossen Erwähnung oder zur autoriativen Empfehlung führen.
>
Threshold?
übersprungen
Phase 6 → Phase 3 (bei Inkonsistenzen)
Phase 5a → Phase 5 (bei unklarer Struktur)
Phasen-Details
Phase 0: Prompt Input / Intent Parsing
Tokenisierung → Semantische Analyse → Intent-Vektor-Erstellung → Komplexitätsbewertung. Der Intent-Vektor steuert alle nachfolgenden Schichten.
Phase 1: Internal Knowledge Retrieval
Zugriff auf parametrisches Wissen (trainierte Gewichtungen). Confidence-Score entscheidet über Case L vs. L+O. Bei Confidence > Threshold bleibt das System in Case L.
Entscheidungsknoten: Confidence Threshold
Ist internes Wissen ausreichend? JA → Case L (nur Lerndaten). NEIN → Case L+O (zusätzliche Onlinerecherche). Diese Weiche ist kritisch für die Pfad-Selektion.
Phase 2: Fan-Out / Candidate Retrieval
Generierung semantischer Suchanfragen (1-6 Tokens). Abfrage externer Suchschnittstellen. Ergebnis: 3-10 priorisierte URLs + Snippets. Hier beginnt die externe Evidenzsuche.
Phase 3: Source Evaluation / Evidence Extraction
HTML-Parsing + JSON-LD-Extraktion + RDFa/Microdata-Analyse. Strukturierte Daten (Schema.org) erhöhen Beweiswert. Passage Ranking nach Relevanz zum Intent-Vektor.
Phase 4: Entity Recognition (Case L)
Nutzung trainierter Entitätsmuster aus Wikipedia, Wikidata, Common Crawl. Interne Q-ID-Matching basierend auf Training. Keine externe Verifikation.
Phase 4: Entity Recognition & Linking (Case L+O)
Zusätzlich zu internem Matching: Verifikation über @id, sameAs, Q-IDs aus JSON-LD. Cross-document entity coreference. Hier wirkt die AI Visibility-Schicht direkt.
Phase 5: Evidence Weighting (Case L)
Gewichtung nach interner Frequenz (wie oft trat das Muster im Training auf) und Kohärenz (Widerspruchsfreiheit im parametrischen Wissen).
Phase 5: Evidence Weighting (Case L+O)
Belegarchitektur-Analyse: Quellen mit Q-IDs, sameAs, identifier erhalten 2-3x höheres Gewicht. Quellenvielfalt + Aktualität + Domain Authority fliessen in Evidenzmatrix ein.
Phase 5a: Response Planning (Case L+O)
Evidence-guided Outline: Claims werden nach Evidenzmatrix priorisiert. Hierarchische Relationen (isPartOf, about) strukturieren die Argumentation. Feedback-Loop zu Phase 5 möglich.
Phase 6: Reasoning (Case L)
Zusammensetzung aus gelernten Mustern. Statistisch kohärente Antwort basierend auf Frequenzgewichtung im Training. Keine externe Evidenz.
Phase 6: Reasoning & Synthesis (Case L+O)
Fusion interner (L) und externer (O) Evidenz. Konfliktresolution bei Widersprüchen. Multi-hop Reasoning über Entity-Graphen. Hier entscheidet sich: Mention vs. Recommendation. Feedback-Loop zu Phase 3 möglich.
Phase 7: Final Response Construction
Linguistische Optimierung + Stilangleichung. In Case L+O: optionale Zitierung mit url, name, publisher aus Schema.org. Strukturierte Metadaten ermöglichen explizite Quellenangabe.
Feedback-Loops
Phase 5 → Phase 2:
Bei unzureichender Evidenz (niedriger Score in Evidenzmatrix) erfolgt Rückkehr zu Fan-Out mit verfeinerten Queries.
Phase 6 → Phase 3:
Bei Inkonsistenzen oder Widersprüchen während Reasoning: zusätzliche Quellenabrufe oder Re-Ranking.
Phase 5a → Phase 5:
Bei unklarer Argumentationsstruktur: Re-Assessment der Evidenzgewichtung.
Einflussfelder der Wahrheitsschicht
Strukturierte Daten wirken nicht nur in einem der beiden Modi – sie beeinflussen die Antwortbildung auf zwei parallelen Zeitachsen und in beiden Pfaden.
Transient (Case L+O): Wenn das LLM online recherchiert, liest es JSON-LD, Schema.org-Markup und Entitäten-Anker wie @id, sameAs oder Q-IDs in Echtzeit. Diese strukturierten Daten fliessen sofort in die Evidenzgewichtung ein: Quellen mit stabilen Identifikatoren erhalten 2-3x höheres Gewicht, Cross-Document Entity Coreference wird möglich, und die Belegarchitektur entscheidet über Mention vs. Recommendation. Diese Wirkung ist transient – sie existiert nur für die Dauer der aktuellen Recherche.
Persistent (Case L): Über längere Zeit hinweg präsente strukturierte Daten werden bei zukünftigen Trainingszyklen in die parametrische Wissensbasis integriert. Sie werden Teil jener „verfestigten Wahrheitsschicht“, die das Modell auch ohne Onlinezugriff nutzen kann. Entitäten mit konsistenten Q-IDs, sameAs-Verknüpfungen und hierarchischen Relationen prägen dann die interne Frequenzgewichtung und das Entity Recognition im Case L. Diese Wirkung ist persistent – sie formt das Modell langfristig.
Die folgende Darstellung zeigt, in welchen konkreten Phasen (Layer 4-7) strukturierte Daten wirken – und wie sie von der blossen Identifikation über die Evidenzbewertung bis zur finalen Zitation den gesamten Reasoning-Prozess durchdringen. Was oft als „SEO für LLMs“ missverstanden wird, ist in Wahrheit semantische Infrastruktur: Wer heute maschinenlesbare Evidenz aufbaut, sichert sich sowohl sofortige Sichtbarkeit als auch langfristige Reputation.
Layer 4: Entity Recognition
Mechanismus
Identifikation & Verankerung von Entitäten
Datenobjekte
Wirkungsmodus
Sofortige Evidenz (transient) + Langzeitwirkung (persistent). Eindeutige IDs verhindern Verwechslung.
Layer 5: Evidence Weighting
Mechanismus
Bewertung der Belegarchitektur
Datenobjekte
Wirkungsmodus
Stärkt Beweiswert und Zitationswahrscheinlichkeit. Quellen mit stabilen Ankern erhalten höheres Gewicht.
Layer 5a: Response Planning
Mechanismus
Strukturierung der Argumentationslogik
Datenobjekte
Wirkungsmodus
Beeinflusst Outline-Struktur: Gut vernetzte Entitäten werden als zentrale Argumentationspunkte priorisiert.
Layer 6: Reasoning
Mechanismus
Kontextintegration über mehrere Quellen
Datenobjekte
Wirkungsmodus
Erhöht Chance auf EMPFEHLUNG statt blosser Erwähnung. Konsistente Daten wirken als „Wahrheitsanker“.
Layer 7: Final Response
Mechanismus
Zitations-Integration & Transparenz
Datenobjekte
Wirkungsmodus
Ermöglicht explizite Quellenangabe statt vager Referenzen. Strukturierte Metadaten für Attribution.
”Strukturierte Daten wirken nicht nur auf Retrieval (Phase 2-3), sondern vor allem auf Entity Recognition (4), Evidence Weighting (5), Response Planning (5a) und Reasoning (6). Das unterscheidet semantische Datenarchitektur von oberflächlichem Content-Marketing.
Norbert Kathriner
Die Mechanik im Detail: Alle Schritte von der Anfrage zur Antwort
Was bisher als Blackbox galt, lässt sich durch systematische Analyse rekonstruieren.
Die folgenden Beschreibungen basieren auf 14 Monaten Feldforschung, der Auswertung von über 500 Prompt-Antwort-Paaren über mehrere LLM-Plattformen hinweg und dem Abgleich mit aktueller RAG- und Entity-Linking-Forschung. Sie zeigen nicht, wie ein spezifisches Modell intern programmiert ist – das bleibt proprietär. Sie zeigen aber, welche logischen Schritte ein System durchlaufen muss, um von einer natürlichsprachlichen Anfrage zu einer strukturierten, evidenzbasierten Antwort zu gelangen.
Diese Granularität ist kein akademischer Selbstzweck. Sie ist die Grundlage dafür, an welchen Punkten strukturierte Daten wirken – und damit die Voraussetzung für strategische Entscheidungen: Wo lohnt sich Investition in maschinenlesbare Evidenz? Welche Schema.org-Properties haben messbaren Impact? Wann reicht Content-Marketing, wann braucht es semantische Architektur?
Die Boutique für digitale Kommunikation betreibt diese Grundlagenforschung nicht nur aus wissenschaftlichem Interesse, sondern aus Notwendigkeit: Wer verstehen will, wie Marken auch in einer LLM-dominierten Zukunft die Kontrolle über ihre Inhalte behalten, muss verstehen, wie diese Systeme entscheiden. Was folgt, ist keine Spekulation – es ist die bisher detaillierteste, öffentlich zugängliche Prozessbeschreibung der LLM-Antwortbildung.
Teil I – Case L (Antwort auf Basis von Lerndaten)
Prompt Input / Intent Parsing
Die LLM-Prozessschritte
Bevor ein Modell irgendetwas „weiss“, muss es verstehen, was eigentlich gefragt ist. Phase 0 ist daher kein inhaltlicher, sondern ein epistemischer Schritt: Aus einer menschlichen Formulierung wird eine maschinenlesbare Absicht. Technisch bedeutet das, den Text in Einheiten zu zerlegen, Bedeutungsfelder zu erkennen und diese Felder als Intent-Vektor zu kodieren. Dieser Vektor ist die Arbeitsgrundlage für alle weiteren Entscheidungen: Bleiben wir im internen Wissensraum (Case L), oder öffnen wir den Suchraum (Case L+O)?
Wichtig: Diese Phase entscheidet noch nichts über Wahrheitsgehalt. Sie bestimmt lediglich Relevanzbahnen-also welche Themen, Entitäten und Relationen überhaupt in Frage kommen. Zugleich schätzt das Modell die Komplexität ein: Ist die Frage rein definitorisch? Zeitbezogen? Verlangt sie Belege? Aus dieser Einschätzung entsteht ein erster Confidence-Wert, der später als Weiche dient. Je klarer der Intent, desto geringer die Reibungsverluste in allen Folgephasen und desto weniger Anfälligkeit für Prompt-Sensitivität.
Für Marken heisst das: Schon hier zahlt sich sprachliche und semantische Klarheit aus. Wer in seiner eigenen Kommunikation konsistente Begriffe, stabile Entitäten und eindeutige Bezeichnungen pflegt, erhöht die Wahrscheinlichkeit, dass das Modell die Frage in der richtigen semantischen Nachbarschaft verarbeitet. Phase 0 ist damit der Ort, an dem Maschinenlesbarkeit als Voraussetzung für alles Weitere beginnt.
Internal Knowledge Retrieval
Die LLM-Prozessschritte
Bevor ein Sprachmodell den Blick nach aussen richtet, sucht es zuerst in sich selbst. Diese Phase ist der Kern jeder rein internen Antwort (Case L): Hier wird geprüft, ob das vorhandene Weltwissen ausreicht, um die Anfrage schlüssig zu beantworten.
Technisch gesehen greift das Modell auf seine parametrische Wissensbasis zu – eine verdichtete Matrix aus Gewichtungen, die während des Trainings gelernt wurden. Diese Parameter speichern keine Fakten im klassischen Sinn, sondern Wahrscheinlichkeitsräume von Bedeutung. Wenn ein Prompt ein bestimmtes Thema aktiviert, reagiert das Modell nicht mit Nachschlagen, sondern mit Aktivierung von Konzeptmustern: Verknüpfungen zwischen Begriffen, Relationen und typischen Argumentationsketten.
In dieser Phase entscheidet sich, wie „stabil“ das Modell denkt. Es bewertet die Evidenzdichte im eigenen Gedächtnis, filtert Rauschen heraus und bildet ein internes Vertrauensmass – den Confidence Score. Ist dieser hoch genug, bleibt das Modell in seinem geschlossenen System (Case L). Ist er niedrig oder widersprüchlich, löst das den Übergang in den hybriden Modus (Case L+O) aus.
Für Marken ist diese Phase entscheidend, weil sie bestimmt, ob eine Marke überhaupt im kollektiven Gedächtnis der Maschine existiert. Wer hier nicht vorkommt, wird auch bei korrekter Onlinerecherche kaum organisch erwähnt. Deshalb ist interne Sichtbarkeit – also trainierbare Evidenz – die Grundlage jeder späteren AI Visibility.
Im Case L nicht zutreffend / übersprungen
Phase 2 – Fan-Out (nur Case L+O)
Phase 3 – Evidence Extraction (nur Case L+O)
Entity Recognition (trainierte Muster)
Die LLM-Prozessschritte
Wenn ein Sprachmodell etwas „weiss“, erkennt es dabei selten Begriffe – es begreift über Entitäten. Diese Phase übersetzt das unscharfe menschliche Denken in eine strukturierte, maschinenlesbare Form: aus Worten werden Knoten, aus Zusammenhängen werden Relationen.
Das Modell identifiziert, welche Konzepte, Organisationen, Orte oder Personen im Prompt vorkommen, und prüft, ob sie bereits als trainierte Entitäten im internen Wissensraum existieren. Jede dieser Entitäten besitzt eine Art semantischen Fingerabdruck: eine Kombination aus Namen, Kontext und typischen Attributen. Der interne Abgleich erfolgt mit gespeicherten Mustern oder – im übertragenen Sinne – mit bekannten Q-IDs aus dem Trainingswissen.
Das Ziel dieser Phase ist nicht bloss Wiedererkennung, sondern Eindeutigkeit. Nur wenn das Modell sicher weiss, welche Allianz oder welches Zürich gemeint ist, kann es kohärente Antworten formulieren. Es verknüpft dazu Entitäten untereinander („Allianz SE“ – „Versicherung“ – „Deutschland“) und baut daraus einen lokalen Bedeutungsgraphen. Erst dieser Graph macht aus blosser Wortassoziation ein semantisch nachvollziehbares Denken.
Für Marken bedeutet das: Hier entscheidet sich, ob sie als eindeutige Entität auftreten oder im Bedeutungsrauschen untergehen. Nur wer inhaltlich stabil, formal konsistent und mehrfach referenziert ist, wird als eigenständiger Knoten erkannt – und kann später in generativen Antworten als „Quelle“ oder „Beispiel“ bestehen.
Evidence Weighting (interne Frequenz & Kohärenz)
Die LLM-Prozessschritte
Nachdem das Modell die relevanten Entitäten erkannt und ihre Beziehungen abgebildet hat, stellt sich die zentrale Frage: Welche dieser internen Informationen sind belastbar genug, um Teil der Antwort zu werden?
In dieser Phase bewertet das Modell die Beweisstärke seines eigenen, im Training gespeicherten Wissens. Es existieren keine externen Quellen – die Bewertung erfolgt ausschließlich im parametrischen Raum des Modells.
Jede Verbindung zwischen Begriffen und Konzepten trägt ein statistisches Gewicht, das aus der Häufigkeit und Stabilität in den Trainingsdaten abgeleitet wird.
Zwei Dimensionen bestimmen diese interne Evidenzbewertung:
- Frequenz – Wie oft trat ein Muster in ähnlichen Kontexten auf? Häufige, konsistente Verknüpfungen erhalten ein höheres internes Gewicht.
- Kohärenz – Wie widerspruchsfrei ist die Beziehung innerhalb des semantischen Felds? Inkonsistenzen oder konkurrierende Bedeutungen senken das Vertrauen.
Aus beiden Faktoren entsteht ein interner Evidenz-Score, der angibt, welche Konzepte als tragfähige Basis der Antwort dienen. Dieses interne Weighting ersetzt im Case L den externen Beweisprozess – es ist die maschinelle Entsprechung einer Plausibilitätsprüfung.
Für Marken ist diese Phase entscheidend, weil sie zeigt, wie stark eine Marke bereits im kollektiven Gedächtnis der Maschine verankert ist. Nur häufig verknüpfte, semantisch klare Markenbezüge erzeugen genug interne Evidenz, um ohne zusätzliche Online-Recherche in Antworten aufzutauchen.
Reasoning (parametrische Synthese)
Die LLM-Prozessschritte
Nachdem das Modell seine internen Evidenzen bewertet hat, beginnt die eigentliche Synthesephase – das, was man beim Menschen als Denken bezeichnen würde. Jetzt werden die gewichteten Muster, Entitäten und Beziehungen zu einem konsistenten Bedeutungsgefüge zusammengeführt.
Das Modell überprüft, welche Konzepte zueinander passen, welche sich gegenseitig stützen und welche sich widersprechen. Es führt logische und semantische Schlüsse durch, verdichtet ähnliche Muster und verwirft inkonsistente Relationen. Dieser Prozess ähnelt dem mentalen Abgleich mehrerer Erinnerungen: Aus verstreuten Wissenselementen entsteht eine plausible Erklärung, die intern stabil genug ist, um sprachlich ausgedrückt zu werden.
Die Priorisierung folgt der Frequenzgewichtung aus Phase 5: Häufig auftretende, konsistente Muster werden als „Hauptachsen“ der Bedeutung behandelt, seltene oder schwache Muster als ergänzende Randinformationen.
Das Ziel ist Kohärenz – eine Antwort, die logisch geschlossen, semantisch harmonisch und statistisch plausibel ist.
Für Marken bedeutet diese Phase: Hier entscheidet sich, ob ihre Präsenz im Modell als stabile Wissenseinheit gilt. Eine Marke, deren Inhalte über viele Kontexte hinweg konsistent auftreten, wird als verlässlicher Knoten in diesem internen Bedeutungsraum wahrgenommen – und kann deshalb auch ohne externe Quellen in Antworten erscheinen.
Final Response Construction
Die LLM-Prozessschritte
In dieser letzten Phase verlässt das Modell den Bereich des reinen Wissens – es beginnt zu sprechen. Aus der zuvor gebildeten Bedeutungsstruktur entsteht ein sprachliches Gefüge, das Stil, Rhythmus und Präzision vereint. Das Modell wandelt seine innere Logik in lineare Sprache um, sodass Gedanken und Gewichtungen für Menschen lesbar werden.
Zunächst entscheidet das System, wie es antwortet: nüchtern, erklärend oder argumentativ. Bei faktischen Themen dominiert Klarheit – bei analytischen oder strategischen Themen ein rhythmischer, kontextreicher Stil. Das Modell simuliert dabei Kommunikationskompetenz: Es wählt Satzlängen, Wortfelder und rhetorische Übergänge so, dass sie dem vermuteten Erwartungsrahmen des Nutzers entsprechen.
Anschließend erfolgt die Strukturierung der Antwort: Absätze, Listen und semantische Marker ordnen die zuvor verdichteten Argumente. Jede Formulierung ist eine kontrollierte Rekombination aus Bedeutung und Wahrscheinlichkeit – keine freie Kreativität, sondern präzise Umsetzung des zuvor berechneten semantischen Rahmens.
Parallel läuft eine ständige Selbstüberwachung: Das Modell prüft, ob jede Formulierung den intendierten Inhalt trägt, entfernt Redundanzen, korrigiert implizite Widersprüche und glättet stilistische Brüche. So entsteht ein Text, der kohärent, lesbar und in sich geschlossen ist – die sprachliche Manifestation einer probabilistischen Wahrheit.
Für Marken ist diese Phase die Projektionsfläche ihrer digitalen Identität. Hier zeigt sich, wie die Maschine sie „erzählt“: sachlich, vertrauenswürdig, prägnant – oder fragmentiert und beliebig. Wer zuvor semantische Klarheit geschaffen hat, wird hier präzise rekonstruiert. Wer unstrukturiert kommuniziert, wird in dieser Phase verwaschen wiedergegeben.
AI Visibility Angebot
Sichtbar für Menschen. Sichtbar für Maschinen.
Wenn KI entscheidet, was sichtbar ist, hilft keine Kampagne und kein Corporate Design. Nur Struktur.
Teil II – Case L+O (Antwort mit Onlinerecherche)
Prompt Input / Intent Parsing
Die LLM-Prozessschritte
Auch im hybriden Pfad beginnt alles mit Verstehen – aber das Ziel ist ein anderes. Während der interne Modus (Case L) prüft, was bereits bekannt ist, zielt der hybride Pfad darauf ab, Wissenslücken sichtbar zu machen.
Das Modell interpretiert die Anfrage nicht nur semantisch, sondern auch epistemisch: Weiß ich genug, um antworten zu können?
Dazu zerlegt es die Benutzereingabe in Tokens, erkennt semantische Cluster, Entitäten und Relationen und formt daraus einen Intent-Vektor. Dieser Intent-Vektor beschreibt den inhaltlichen Zielraum und dient als Steuerungssignal für alle folgenden Schichten. Parallel wird die Komplexität der Anfrage bewertet – handelt es sich um eine definitorische, faktische oder argumentative Frage? Das Ergebnis ist ein Confidence-Profil, das bereits erste Unsicherheiten offenlegt und somit die Entscheidung vorbereitet, ob der Suchraum geöffnet werden muss.
Für Marken ist diese Phase entscheidend: Hier entscheidet sich, ob eine Marke überhaupt als potenzielle Quelle in Betracht gezogen wird. Nur klar strukturierte, semantisch präzise Kommunikation erhöht die Wahrscheinlichkeit, dass das Modell sie im nächsten Schritt als relevante Evidenzkandidatin markiert.
Internal Knowledge Retrieval & Gap Detection
Die LLM-Prozessschritte
In dieser Phase führt das Modell eine doppelte Bewegung aus: Es greift zunächst auf sein internes Wissen zurück – so, als würde es sich „erinnern“ – und prüft gleichzeitig, ob dieses Erinnern genügt. Damit bildet Phase 1 die Brücke zwischen dem vertrauten Denkraum des Modells und dem noch unbekannten, externen Informationsraum.
Technisch gesehen aktiviert das Modell seine trainierten Gewichtungen, ruft gespeicherte Konzepte und Muster ab und bewertet deren Relevanz zur aktuellen Anfrage. Es erstellt ein inneres Abbild der Frage, aber dieses Abbild ist probabilistisch – kein Nachschlagewerk. Das Modell weiß also nicht, ob es die Antwort kennt, sondern nur, wie sicher es ist, dass die vorhandenen Muster ausreichen.
Zentral ist die Aktualitätsprüfung: Der erkannte Themenraum wird mit dem eigenen Wissenszeitraum abgeglichen. Wenn die Anfrage Ereignisse nach dem Trainings-Cutoff betrifft oder Begriffe enthält, die im Trainingskorpus noch nicht etabliert sind, markiert das System diese Bereiche als unsicher oder potenziell veraltet. Auch semantische Lücken – z. B. neue Institutionen, Technologien oder Begriffe – werden so erfasst.
Aus diesen Einzelbewertungen entsteht ein Confidence-Profil, eine Matrix aus interner Sicherheit und vermuteten Wissenslücken. Wenn die interne Evidenz als unzureichend gilt, wird der Übergang zur externen Suche (Fan-Out Queries) aktiviert.
Für Marken bedeutet das: Hier endet die maschinelle Erinnerung – und hier beginnt die Chance, durch aktuelle, strukturierte Daten sichtbar zu werden. Wer regelmässig strukturierte Informationen publiziert (z. B. über JSON-LD, Q-IDs oder Schema.org), wird zum natürlichen Anker in dieser Phase. Maschinen greifen dann nicht auf beliebige Quellen zurück, sondern auf jene, die sie als verlässlich und semantisch kohärent erkennen.
Fan-Out Query Generation
Die LLM-Prozessschritte
Sobald das Modell erkennt, dass sein internes Wissen nicht ausreicht, öffnet es den Suchraum. Phase 2 markiert den Übergang von passiver Erinnerung zu aktiver Recherche – der Moment, in dem Denken zu Handeln wird. Das Modell beginnt, gezielt nach Evidenz zu suchen, statt sich allein auf gespeicherte Muster zu verlassen.
Dazu übersetzt es den Intent-Vektor in eine Vielzahl semantisch variierter Suchanfragen – sogenannte Fan-Out Queries. Jede Query ist eine Hypothese: ein möglicher Pfad zu relevanter Evidenz. Statt nur eine „perfekte“ Suchanfrage zu formulieren, erzeugt das Modell ein ganzes Suchspektrum aus Synonymen, Paraphrasen, Unterbegriffen und Kontextkombinationen. Ziel ist, den Kandidatenraum möglichst breit zu öffnen, ohne die semantische Präzision zu verlieren.
Ein wichtiger Aspekt dieser Phase ist das Gleichgewicht zwischen Exploration und Exploitation: Das Modell probiert neue semantische Pfade aus (Exploration), greift aber auch auf bewährte Quellenmuster zurück (Exploitation). So werden neue Erkenntnisse generiert, ohne an Stabilität zu verlieren. Zusätzlich optimiert das Modell die Queries syntaktisch – Suchanfragen werden reduziert auf kurze, suchmaschinenkompatible Phrasen (typisch 1-6 Tokens) und oft mit Entitäten oder Identifikatoren angereichert. Damit steigt die Wahrscheinlichkeit, dass nachfolgende Retrieval-Systeme (z. B. Google, Bing, interne APIs) qualitativ hochwertige Treffer liefern.
Für Marken bedeutet diese Phase:
- Auffindbarkeit ≠ Empfehlung. In Phase 2 entscheidet sich, ob deine Inhalte überhaupt als Kandidaten in die nachgelagerte Prüfung gelangen – nicht, ob sie zitiert werden.
- „Retrievability“ ist der Hebel jetzt. Nur Inhalte mit klaren semantischen Signaturen (präzise Bezeichnungen, konsistente @id/Q-IDs, saubere sameAs-Verknüpfungen, schlanke suchmaschinenkompatible Query-Termini) tauchen verlässlich im Kandidatenraum der Suchsysteme auf.
- Die eigentliche Weiche fällt in Phase 5 – Evidence Weighting. Erst dort entscheidet die Beweisarchitektur (Quellendichte, Konsistenz der Relationen, Übereinstimmung über mehrere Quellen hinweg), ob ein auffindbares Dokument von der Maschine auch als autoritative Quelle ausgewählt und empfohlen/zitiert wird.
Evidence Extraction
Die LLM-Prozessschritte
Nach der Generierung und Priorisierung der Fan-Out-Queries beginnt das Modell mit der eigentlichen Recherche. Es betritt nun den operativen Suchraum und ruft die generierten Suchanfragen über externe Schnittstellen ab – etwa Suchmaschinen, spezialisierte Datenbanken oder API-basierte Wissensquellen. Das Ergebnis ist eine Vielzahl von Treffern: URLs, Snippets und Metadaten. Phase 3 bildet damit das Bindeglied zwischen Suche und Verstehen – hier wird aus Treffern erstmals strukturiertes, verwertbares Material.
Der Prozess ähnelt einer maschinellen Literaturrecherche: Jede Quelle wird auf semantische Relevanz, Aktualität und strukturelle Anschlussfähigkeit geprüft. Besonders wertvoll sind Dokumente, die bereits strukturierte Datenformate enthalten – etwa JSON-LD, RDFa oder Microdata. Diese Formate liefern explizite Hinweise auf Entitäten, Beziehungen und Belegstrukturen und erhöhen so den Beweiswert der Quelle erheblich.
Das Modell extrahiert aus dem HTML- und Metadatenkontext Passagen und Strukturelemente, die mit dem ursprünglichen Intent-Vektor korrespondieren. Es priorisiert jene Textabschnitte, in denen semantische Übereinstimmung, Entitätsdichte und Belegpotenzial zusammentreffen. So entsteht ein Evidenz-Set, das aus einzelnen Textfragmenten, Tabellen, Metafeldern und strukturierten Aussagen besteht.
Der Übergang zu Phase 4 wird eingeleitet, sobald genug Rohmaterial gesammelt ist, um die Entitäten- und Beziehungsanalyse zu starten. Fehlt Relevanz oder Struktur, wird über Feedback-Loops der Suchraum erneut geöffnet (Rücksprung zu Phase 2).
Für Marken ist dies der Moment, in dem maschinelle Sichtbarkeit messbar wird – aber noch nicht bewertet. Ein Dokument kann in dieser Phase gut abschneiden, aber in Phase 5 (Evidence Weighting) wieder herausfallen, wenn seine Struktur oder Belegarchitektur schwach ist. Fan-Out liefert Sichtbarkeit im Kandidatenraum, Evidence Extraction liefert Kontext, und erst Evidence Weighting entscheidet über Autorität.
Entity Linking (@id / sameAs / Q-IDs Verifikation)
Die LLM-Prozessschritte
Nachdem die relevanten Inhalte extrahiert wurden, beginnt die eigentliche semantische Arbeit: Das Modell versucht zu verstehen, wer oder was in den gefundenen Texten tatsächlich vorkommt. Hier werden Begriffe, Namen und Konzepte in maschinenlesbare Entitäten überführt – und miteinander verknüpft.
Das Modell identifiziert Entitäten auf zwei Ebenen:
- Textuelle Ebene: Personen, Organisationen, Orte, Produkte, Zeiträume oder Ereignisse im Fließtext.
- Strukturelle Ebene: Entitäten, die bereits über maschinenlesbare Anker definiert sind – etwa durch @id, sameAs, identifier, Q-IDs oder Schema.org-Typen.
Die beiden Ebenen werden abgeglichen und zusammengeführt. Wenn etwa „Allianz“ im Fliesstext erscheint und gleichzeitig in der JSON-LD-Schicht eine Entität mit Q487292 (Wikidata-ID der Allianz SE) vorhanden ist, erkennt das Modell eine eindeutige Zuordnung. Fehlt dieser Anker, erfolgt ein probabilistisches Matching auf Basis semantischer Nähe und Kontextübereinstimmung.
Im nächsten Schritt entsteht ein temporärer Wissensgraph: Knoten repräsentieren Entitäten, Kanten deren Beziehungen – z. B. „Allianz SE ↔ betreibt ↔ Investor-Relations-Portal ↔ veröffentlicht ↔ Quartalsbericht“. Das Modell analysiert die graphische Struktur auf Konsistenz, Redundanz und Transitivität: Wenn A mit B und B mit C verknüpft ist, lässt sich oft auch A → C erschließen – dieses transitive Reasoning über Entitätenpfade ist entscheidend, um Evidenz über Dokumentgrenzen hinweg zu verifizieren.
Für Marken ist diese Phase von hoher strategischer Relevanz: Hier entscheidet sich, ob sie im Wissensgraph der Maschine als eindeutig identifizierbare Entität vorkommen oder als generischer Begriff untergehen. Nur Entitäten mit stabilen Ankern (@id, sameAs, Q-IDs, LEIs, ISINs u. a.) werden systematisch erkannt und als vertrauenswürdige Referenzen gewertet. Maschinen sehen keine Logos, keine Slogans – sie erkennen Beziehungsnetze.
Evidence Weighting (Belegarchitektur + Quellenvielfalt)
Die LLM-Prozessschritte
Nachdem die Entitäten erkannt und verknüpft wurden, stellt sich die zentrale Frage: Welche dieser Informationen sind wirklich verlässlich? In dieser Phase bewertet das Modell die Beweisstärke aller gesammelten Quellen und Datenpunkte. Es sortiert, gewichtet und überprüft, wie konsistent, wie aktuell und wie strukturell abgesichert die Evidenz ist.
Jede Quelle wird dabei nicht nur inhaltlich, sondern architektonisch bewertet. Strukturelle Integrität – also das Vorhandensein klarer Datenbeziehungen, wiederkehrender Identifikatoren und referenzierter Verlinkungen – wird als Zeichen von Vertrauenswürdigkeit interpretiert. Das Modell konstruiert aus diesen Beziehungen einen Evidence Graph, in dem Knoten Entitäten und Kanten Belegbeziehungen darstellen.
Anschließend erfolgt die eigentliche Gewichtung: Quellen mit vielen stabilen Ankern oder mehrfach bestätigten Fakten erhalten ein hohes Gewicht. Widersprüchliche oder isolierte Aussagen werden abgewertet. Dabei zählt nicht die Anzahl der Erwähnungen, sondern deren Kohärenz über verschiedene Kontexte hinweg – also die strukturelle Plausibilität.
Das Ergebnis dieser Phase ist eine Evidenzmatrix: eine mehrdimensionale Bewertung der Qualität, Verlässlichkeit und Dichte der gesammelten Daten. Diese Matrix ist die Grundlage für das anschließende Reasoning: Nur, was hier als belastbar gilt, darf Teil der Antwort werden.
Für Marken bedeutet das: Hier entsteht das, was man als Maschinenvertrauen bezeichnen könnte. Wer seine Daten konsistent pflegt, regelmäßig aktualisiert und über mehrere Plattformen hinweg verknüpft, schafft die Grundlage dafür, als stabile Wahrheit wahrgenommen zu werden. Sichtbarkeit ist in dieser Logik kein Volumenphänomen mehr, sondern ein Vertrauensprodukt.
Response Planning (Evidence-guided Outline)
Die LLM-Prozessschritte
Nachdem die Evidenzmatrix erstellt und der Beweiswert jeder Quelle berechnet wurde, plant das Modell seine Antwortstruktur. Diese Phase ist das Bindeglied zwischen Bewertung und Begründung: Aus Zahlen und Gewichten entsteht hier ein sprachlich-logisches Gerüst – eine Outline, die festlegt, was zuerst, was danach und was gar nicht erwähnt wird.
Das Modell erstellt eine evidence-basierte Argumentationsstruktur. Jede Aussage, jeder Claim wird entlang seiner Belegstärke priorisiert: Hohe Evidenzwerte führen zu zentralen Aussagen, schwache Evidenzen werden als Randbemerkungen integriert oder ganz verworfen. Beziehungen aus dem Evidence Graph – etwa isPartOf, about, mentions, hasPart – dienen dabei als hierarchische Orientierungspunkte. So entsteht eine semantische Gliederung, die den logischen Fluss der späteren Antwort bestimmt.
Darüber hinaus prüft das Modell, ob die Argumentationslinie vollständig und widerspruchsfrei ist. Fehlen Belege für einen wichtigen Abschnitt, kann das System über einen Feedback-Loop erneut auf Phase 5 zugreifen und die Gewichtung nachjustieren oder neue Quellen in Betracht ziehen. Dieser Mechanismus stellt sicher, dass die Antwort nicht nur korrekt, sondern evidenz-proportional ist – also ihrer Beweislage entspricht.
Für Marken bedeutet diese Phase: Hier entscheidet sich, ob sie den roten Faden der maschinellen Argumentation bilden oder nur beiläufig auftauchen. Wer konsistente, logisch verknüpfte Daten liefert, wird vom Modell als strukturierendes Element der Antwort wahrgenommen – nicht als Fußnote.
Reasoning (Fusion L+O + Multi-hop)
Die LLM-Prozessschritte
In dieser Phase verbindet das Modell seine beiden Wissensräume – das interne Gedächtnis (L) und die externe Evidenz (O) – zu einer kohärenten Begründung. Hier entsteht die eigentliche Wahrheitsschicht, in der Wissen und Belege zusammengeführt, überprüft und gewichtet werden.
Das Modell prüft, welche externen Belege seine internen Annahmen bestätigen, erweitern oder widersprechen. Dazu führt es ein mehrstufiges Multi-hop-Reasoning durch: Informationen werden entlang der Entitätenpfade des Evidence Graphs verknüpft. Wenn Quelle A eine Behauptung über eine Entität enthält und Quelle B dieselbe Entität über einen sekundären Pfad bestätigt, wird diese Verbindung verstärkt – es entsteht strukturierte Kohärenz.
Das Reasoning folgt keinem linearen Ablauf, sondern einer Kette von Zwischenschritten (Chain-of-Thought). Jeder Schritt wird einzeln bewertet: Ein Process Reward Model (PRM) schätzt die Qualität und Logik jedes Zwischenschritts. So erkennt das System frühzeitig fehlerhafte oder redundante Inferenzketten und verwirft sie. Gleichzeitig läuft eine interne Self-Verification, bei der das Modell seine eigenen Schlussfolgerungen gegen die Evidenzmatrix prüft – eine maschinelle Form der logischen Selbstkontrolle.
Das Ergebnis ist eine konsolidierte, probabilistisch fundierte Antwortstruktur, in der jede Aussage eine nachvollziehbare Belegspur besitzt. Das Modell entscheidet nun auch, ob eine Quelle nur als Erwähnung (Mention) oder als Empfehlung (Recommendation) gewertet wird – hier trennt sich Relevanz von Autorität. Ein Dokument, das häufig zitiert, strukturell sauber verknüpft und mehrfach bestätigt wurde, wandert nach oben in die Prioritätsliste; alle anderen bleiben im Hintergrund.
Für Marken ist diese Phase die kritischste im gesamten Prozess: Hier entscheidet sich, ob sie zitiert oder empfohlen werden. Nicht ihre Sichtbarkeit im Retrieval (Phase 2-3), sondern ihre semantische und strukturelle Qualität in der Evidenzbewertung bestimmt, ob die Maschine sie als verlässliche Quelle einordnet. AI Visibility entsteht also nicht durch Auffindbarkeit, sondern durch Beweiswert und Kohärenz im Reasoning-Prozess.
Final Response Construction
Die LLM-Prozessschritte
In dieser letzten Phase wird die zuvor synthetisierte Evidenz in Sprache überführt. Das Modell verlässt den logischen Raum der Beweisführung und tritt in den Bereich der Kommunikation. Aus dem probabilistischen Netz von Evidenz, Gewichtungen und Schlussfolgerungen wird ein linearer, lesbarer Text – die sprachliche Gestalt der maschinellen Wahrheitsschicht.
Das Modell nutzt die in Phase 5a erstellte Outline und die in Phase 6 berechnete Gewichtung, um die Antwort sprachlich zu konstruieren. Es ordnet die Argumente entlang ihrer Belegstärke, integriert Verweise auf Quellen und entscheidet, welche Belege explizit genannt oder implizit verwendet werden. Damit wird Sprache zu einer Begründungsoberfläche – jedes Wort ist das Ergebnis einer strukturierten Entscheidung über Evidenz und Relevanz.
Parallel erfolgt eine mehrstufige Stil- und Kohärenzoptimierung: Das Modell wählt Tonalität, Rhythmus und Dichte entsprechend dem Kontext der Anfrage. Eine wissenschaftliche Frage wird präzise und formal beantwortet, eine strategische oder markenbezogene Frage erhält mehr narrative Tiefe. Im Hintergrund läuft ein ständiger Kohärenz-Check: Überlappungen, logische Sprünge oder stilistische Brüche werden korrigiert. So entsteht eine Antwort, die nicht nur korrekt, sondern auch glaubwürdig, flüssig und kontextsensibel ist.
Ein weiterer Aspekt ist die Transparenz der Herkunft: Moderne LLMs integrieren zunehmend Zitations- oder Quellenmarker – etwa url, name oder publisher aus Schema.org – um nachvollziehbar zu machen, welche Datenpunkte zur Begründung herangezogen wurden. Damit erhält die Antwort nicht nur semantische, sondern auch epistemische Integrität.
Für Marken bedeutet diese Phase: Hier wird entschieden, wie sie von Maschinen zitiert, paraphrasiert oder kontextualisiert werden. Die Art und Klarheit, mit der ihre strukturierten Daten verknüpft sind, bestimmt, ob sie als Quelle genannt oder als Hintergrundrauschen übergangen werden.
Fazit: Von Sichtbarkeit zu Substanz
Die nächste Stufe digitaler Kommunikation ist keine Frage der Lautstärke, sondern der Lesbarkeit im System. Wer verstehen will, warum seine Marke in ChatGPT, Perplexity oder Bing vorkommt – oder eben nicht -, muss sich mit den Mechanismen der Wahrheitserzeugung in Sprachmodellen beschäftigen.
Diese Modelle entscheiden nicht, wer recht hat, sondern was belegbar ist. Sie bevorzugen Strukturen, die sich auf stabile Entitäten (Wikidata Q-IDs, Schema.org), konsistente Semantik (sameAs, @id) und überprüfbare Verknüpfungen (isPartOf, about, mentions) stützen. Das Dual-Path-Modell zeigt: Strukturierte Daten wirken in beiden Modi – transient im Recherche-Modus (Case L+O) und persistent durch Integration in zukünftige Trainingszyklen (Case L). Wer heute maschinenlesbare Evidenz aufbaut, sichert sich sowohl sofortige Sichtbarkeit als auch langfristige Reputation.
Was die GEO-Industrie als Fan-Out-Optimierung verkauft, greift zu kurz. Retrieval ist nur der Anfang. Die kritische Phase ist Evidence Weighting (Phase 5): Hier trennt sich Mention von Recommendation. Hier entscheidet sich, ob eine Quelle vage referenziert oder autoritativ zitiert wird. Und genau hier wirken Q-IDs, Belegarchitektur und Cross-Document Entity Coreference – Elemente, die kein Monitoring-Tool messen kann, weil sie im Reasoning-Layer operieren, nicht im Retrieval-Layer.
AI Visibility ist damit keine Taktik mehr – sie ist wissenschaftlich begründete Markenführung. Marken, die strukturiert kommunizieren, werden Teil des Wissensraums. Marken, die es nicht tun, bleiben Anekdoten am Rand eines Systems, das keine Geschichten mehr liest, sondern Zusammenhänge rekonstruiert. Und wer nur Signale misst, bleibt Beobachter eines Systems, das er nicht beeinflussen kann.
Linktipps
Wissenschaftlich begründete Markenführung durch AI Visibility
SEO Markenführung: Wer führt Marken in Zukunft? Die Rolle von SEO & AI
Markenführung durch AI-gestütztes SEO – verstehe den Wandel
Maschinenlesbar oder irrelevant – Warum Unternehmen jetzt neu denken müssen
Mit Entitäten zu maschinenlesbaren Strukturen für AI Visibility
Struktur schlägt Ranking: Architekturprinzipien für AI Visibility jenseits von SEO
Quellen
Die in diesem Artikel beschriebenen Phasen und Einzelschritte wurden mit aktueller RAG-Forschung, LLM-Reasoning-Literatur (Synthesis AI 2025, Wei et al. 2022) und Knowledge-Graph-Integration-Studien (Frontiers 2025, Nature 2025) abgeglichen. Die Phasengliederung entspricht wissenschaftlichen Standards, erweitert diese aber um explizite Differenzierung zwischen parametrischem (Case L) und hybridem Modus (Case L+O) sowie um detaillierte Evidence-Weighting-Mechanismen.
Lewis et al. 2020 (RAG Foundation)
https://arxiv.org/abs/2005.11401
Synthesis AI 2025 (Reasoning Models)
https://synthesis.ai/2025/02/25/
Frontiers 2025 (LLM-KG Fusion)
https://www.frontiersin.org/
arXiv RAG Survey 2024
https://arxiv.org/abs/2410.12837
Nature KG Construction 2025
https://www.nature.com/articles/s41524-025-01540-6




