Auf dieser Seite
- Wie LLMs Quellen auswählen: die statistische Mitte
- Welche Quellen LLMs in B2B tatsächlich zitieren
- Säule 1: Earned Media in den Quellen, die LLMs lesen
- Säule 2: Owned Media als glaubwürdige eigene Quelle
- Was die eigene Quelle entwertet
- LLM-Quellenstrategie als operatives Programm
- Generative Engine Optimization ist alte PR unter neuen Bedingungen
94% der B2B-Käufer nutzen Large Language Models während der Kaufentscheidung. Gleichzeitig verteilen sich die Citations auf eine immer engere Auswahl. Die Top 20 Domains erfassen laut BrightEdge/Amsive bereits 66% aller LLM-Erwähnungen, im Schnitt zitiert eine Antwort drei bis vier Marken. Wer nicht in dieser kleinen Gruppe vorkommt, existiert für KI-Käufer nicht. Trotzdem optimieren laut 10Fold/Sapio Research nur 11% der B2B-Marken ihre Inhalte gezielt für KI-Sichtbarkeit.
Eine LLM-Quellenstrategie ist im KI-Marketing die Antwort auf eine Frage, die klassisches SEO nicht stellt. Welche Inhalte will ein Sprachmodell zitieren, welche nicht? Sie ergänzt die bestehende Arbeit an Sichtbarkeit in LLMs und PR für KI-Modelle um eine strategische Ebene: zwei Säulen, eine These, eine operative Konsequenz.
Wie LLMs Quellen auswählen: die statistische Mitte
Sprachmodelle suchen Konsens. Sie generieren Antworten nicht aus einer einzigen Top-Quelle, sondern synthetisieren über viele. Wenn acht Quellen sagen X und zwei sagen Y, antwortet das Modell X. Selbst wenn die zwei Y-Quellen autoritärer sind. Diese statistische Mitte ist der zentrale Mechanismus, und sie hat eine unbequeme Konsequenz für PR-Praxis: Viele konsistente Erwähnungen schlagen einen einzelnen Power-Backlink.
Die Auswahl passiert dabei in zwei Phasen, mit unterschiedlicher Logik. In der Trainingsphase entstehen die Embeddings, mit denen das Modell Inhalte später wiedererkennt. Klare, konsistente, oft zitierte Aussagen erzeugen starke Signale. Widersprüchlicher oder generischer Content erzeugt schwache Signale und wird seltener als Antwort-Treffer aktiviert.
In der Retrieval-Phase, wie sie Perplexity, Google AI Overviews und ChatGPT-Search nutzen, entscheidet ein Reranker pro Anfrage neu: Welche der gefundenen Seiten taucht in den Top-K der zitierten Quellen auf? Hier zählen Spezifität, Aktualität und Klarheit der Antwort auf die konkrete Frage. Beide Mechanismen führen zum selben Ergebnis. Wer in beiden gewinnen will, muss zur konsistenten und klaren Quelle werden.
Welche Quellen LLMs in B2B tatsächlich zitieren
Das oft wiederholte Bild von Wikipedia, Wissenschaftsverlagen und etabliertem Fachjournalismus stimmt für allgemeine Fragen. Für B2B-Software-Recherche sieht die Hierarchie anders aus. Laut Development Corporate führen Peer-Review-Plattformen wie G2, Capterra und TrustRadius die Citation-Liste an. Sie kombinieren strukturierte Vergleichsdaten mit offen zugänglichen Nutzerstimmen, also genau das Format, das Reranker am besten verarbeiten können. Branchenanalysten wie Gartner und Forrester folgen, dann spezialisierte Fachpublikationen, vereinzelt auch einzelne Newsletter und Substack-Autoren mit thematischer Tiefe.
In B2B-Nischen schlägt thematische Tiefe damit die generische Autorität. Eine kleine Fachpublikation mit konsistentem Themenfokus wird häufiger zitiert als eine große Allgemein-Publikation, die das Thema einmal streift. Diese Verschiebung ist die wichtigste Botschaft für jede PR-Planung.
Eine ausführliche Aufschlüsselung der plattformspezifischen Citation-Logik liefert die bestehende Analyse zu Sichtbarkeit in LLMs. Sie zeigt, welche Quellen ChatGPT, Perplexity, Gemini und Google AI Overviews jeweils bevorzugen. Hier interessiert die Konsequenz für die Strategie, nicht die Verteilung selbst. Eine Quellenstrategie braucht zwei Säulen.
Säule 1: Earned Media in den Quellen, die LLMs lesen
Earned Media ist die direkte Lieferung an Trainingsdaten und Retrieval-Indizes. Eine Erwähnung in einer Fachpublikation oder ein vollständiges Profil auf einer Peer-Review-Plattform wirkt doppelt: Sie ist selbst zitierbar, und sie erhöht die Wahrscheinlichkeit, dass die Marke beim nächsten Trainingslauf fester verankert wird.
Vier Taktiken funktionieren in der Praxis:
Peer-Review-Profile aktiv pflegen. G2, Capterra und TrustRadius sind keine Branding-Spielzeuge. Sie sind Citation-Pipelines. Vollständige Profile, aktuelle Screenshots, eingeholte Bewertungen und gepflegte Vergleichstabellen werden von LLMs systematisch ausgelesen.
Original-Daten als Pitch. Eigene Studien werden zitiert, wo Meinungen ignoriert werden. Eine kleine Branchenumfrage mit sauberer Methodik liefert mehr Citations als zehn Trend-Artikel. Fachredaktionen nehmen Daten auf, die sie selbst nicht produzieren können. LLMs zitieren später die Sekundärartikel, die diese Daten weiterverwenden.
Beiträge in Branchenpublikationen statt Pressemitteilungen. Verteiler-PR landet in Aggregatoren, die LLMs als Spam erkennen. Ein eigener Fachbeitrag in einer relevanten Publikation wirkt zehnmal stärker als zehn Pressemitteilungen. Genau das meint digitale PR im KI-Zeitalter als operative Disziplin.
Namentliche Experten-Zitate. LLMs gewichten benannte Autorität. Ein Zitat mit Personenname, Funktion und Unternehmen wird häufiger paraphrasiert als ein anonymes Statement. Laut Virayo-Forschung erhöhen namentliche Experten-Zitate die LLM-Sichtbarkeit um 37%.
Säule 2: Owned Media als glaubwürdige eigene Quelle
Earned Media erreicht externe Sichtbarkeit. Owned Media entscheidet, ob diese Sichtbarkeit etwas trägt, das ein Reranker als echte Quelle erkennt. Die Forschung zu LLM-Citation-Faktoren gibt klare Hinweise.
Strukturelle Klarheit zählt: Inhalte mit konsistenter Heading-Hierarchie werden laut Virayo 40% häufiger paraphrasiert. Optimal sind Heading-Abstände von 120 bis 180 Wörtern. FAQ-Sektionen bringen messbar mehr Citations. Schema-Markup korreliert mit einem Citation-Plus von 44%.
Inhaltliche Signale sind ebenso präzise messbar. 44,2% aller LLM-Citations stammen aus den ersten 30% eines Textes. Die wichtigste Aussage gehört in den ersten Absatz, nicht in das Fazit. Inhalte über 2.900 Wörter erreichen im Schnitt 5,1 Citations gegenüber 3,2 bei Texten unter 800 Wörtern. Statistiken erhöhen die Sichtbarkeit um 22%, namentliche Experten-Zitate um 37%, sauber gesetzte Quellenangaben sogar um 115% bei Sites mittlerer Autorität.
Der vermutlich unterschätzteste Hebel ist Zugänglichkeit. Gated Content ist für LLMs unsichtbar. Ein Whitepaper hinter einem Formular kann seinen Lead-Magnet-Job erfüllen, als LLM-Quelle existiert es nicht. Die operative Konsequenz ist eindeutig: Mindestens die argumentative Substanz eines gated Assets gehört in einen ungated Companion-Artikel, der die Quelle der Studie liefert.
Diese Faktoren ergänzen die Audit-Perspektive auf GEO als Pflichtdisziplin um die Frage, was Owned Media inhaltlich leisten muss, nicht nur technisch.
Was die eigene Quelle entwertet
Beide Säulen haben einen gemeinsamen Feind: Verwässerung. Wenn eine Marke ihre eigenen Kanäle mit hohlen Marketing-Phrasen, leeren Superlativen oder widersprüchlichen Aussagen füllt, sinkt die LLM-Berücksichtigung über beide Phasen hinweg.
In der Trainingsphase erzeugt unklarer Content schwache Embeddings. Ein Modell, das aus einer Domain hauptsächlich Buzzword-Bingo gelernt hat, wird diese Domain seltener als Antwort-Treffer aktivieren. In der Retrieval-Phase fällt die generische Seite aus dem Top-K des Rerankers, weil sie keine konkrete Antwort liefert. Beide Effekte verstärken sich. Eine Domain mit überwiegend dünnen Inhalten verliert auch ihre starken Seiten an Reichweite, weil das Domain-Signal als Ganzes schwächer wird.
KI-generierter Generic Content schadet doppelt. Er wird selbst nicht zitiert und dilutiert zugleich das Domain-Signal für die Inhalte, die zitiert werden könnten. Wer Volumen über Substanz stellt, optimiert genau in die falsche Richtung.
Dieser Mechanismus bestraft Bullshit härter als Google es je tat. Klassisches SEO konnte über Backlinks und technische Tricks Schwächen im Inhalt ausgleichen. LLMs gewichten den Inhalt selbst stärker, und sie tun es über alle Seiten der Domain hinweg.
LLM-Quellenstrategie als operatives Programm
Aus den beiden Säulen und der Negativ-These ergeben sich fünf konkrete Schritte:
- Citation-Audit. Wo wird die Marke heute in LLM-Antworten erwähnt, wo nicht? Tools wie Profound, Otterly oder Peec AI liefern die Datenbasis. Eine Übersicht der verfügbaren Optionen findet sich in der LLM-Sichtbarkeits-Analyse.
- Owned-Media-Säuberung. Gnadenlose Reduktion von Marketing-Sprech, Schärfung der wichtigsten Aussagen in den ersten 30% jedes Textes, konsistente Heading-Struktur, Schema-Markup, Quellenangaben, namentliche Experten-Zitate.
- Original-Daten produzieren. Eine eigene Studie schlägt zehn Meinungsartikel. Fachredaktionen brauchen Zahlen, die sie selbst nicht erheben. LLMs zitieren später die Artikel, die diese Zahlen weiterverwenden.
- Earned-Media-Pipeline. Ausrichtung auf Peer-Review-Plattformen und thematisch tiefe Fachpublikationen statt auf generische PR-Reichweite. Pitches mit Daten, nicht mit Botschaften.
- Messung. Brand-Mentions in LLM-Antworten als KPI. Nicht Traffic, nicht Impressions. Die entscheidende Frage lautet, ob die Marke in Antworten zur eigenen Kategorie genannt wird und in welchem Kontext.
Diese Schritte ergänzen die Abgrenzung zwischen klassischer Suchmaschinen- und KI-Optimierung um die Ebene, die beide verbindet: PR und Inhaltsqualität.
Generative Engine Optimization ist alte PR unter neuen Bedingungen
GEO ist keine neue Disziplin. Es ist die alte Forderung der Public Relations unter neuen Bedingungen: sei eine Quelle, der man trauen kann. LLMs verstärken den Vorteil ehrlicher, präziser Kommunikation und bestrafen das Gegenteil härter als Google es je tat.
Für Unternehmen, die in KI-Antworten vorkommen wollen, bedeutet das eine angenehme Konsequenz. Die Arbeit, die jetzt zählt, ist die Arbeit, die immer zählen sollte. Substanz statt Volumen. Eigene Daten statt eigener Meinungen. Externe Anerkennung statt Selbstdarstellung. Wer das ernst nimmt, betreibt LLM-Quellenstrategie auch ohne sie so zu nennen.