Auf dieser Seite

Wer in einer KI-Antwort zitiert wird, bekommt 120% mehr organische Klicks pro Impression als ohne Zitierung. Das zeigt eine Seer-Interactive-Studie aus 2026. Gleichzeitig stammen 38% aller Google AI Overview-Zitate aus den ersten zehn organischen Suchergebnissen (Ahrefs). Das ist die neue Realität: Sichtbarkeit in KI-Systemen und klassisches SEO hängen enger zusammen, als die meisten Marketer vermuten.

Cyrus Shepard, ehemaliger Head of Global SEO bei Moz und SEO-Berater für Amazon, hat am 7. Mai 2026 in seinem Zyppy Signal Newsletter die bisher umfassendste Auswertung zu diesem Thema veröffentlicht. Er analysierte 54 Experimente, Studien und Patente zu KI-Zitierungen und destillierte daraus 23 Faktoren, gewichtet nach Replizierbarkeit, Evidenzstärke und offiziellem Support. Das Fazit: Kein neues SEO-Playbook, aber präzisere Ausführung des bekannten.

Für Wire-Websites bedeutet das: Die strukturellen Qualitätsprinzipien, auf denen Wire besteht, decken sich direkt mit den Top-Faktoren. Crawlbare URLs, klare Hierarchie, spezifische Aussagen mit Belegen, sichtbarer HTML-Text sind keine abstrakten Anforderungen, sondern genau das, was KI-Systeme bevorzugen.

- 120% mehr Klicks durch KI-Zitierungen (Seer Interactive)
- 54 Studien und Patente ausgewertet (Cyrus Shepard, 2026)
- 38% aller AI Overview-Quellen kommen aus Google Top 10 (Ahrefs)
- 23 Faktoren, gewichtet nach Evidenzstärke

Cyrus Shepard: Wer analysiert hier, und wie

Shepard ist kein Spekulant, der KI-Hype verkauft. Er ist ein klassischer SEO-Praktiker mit institutionellem Hintergrund: Jahre als SEO-Leiter bei Moz, Beratungsprojekte für Amazon. Seine Forschungsmethode ist transparent: Für jeden Faktor bewertet er Replizierbarkeit (wie viele Studien zeigen dasselbe Ergebnis), Evidenzstärke (eine 50-Millionen-Query-Studie wiegt mehr als ein 10-Query-Fallbeispiel) und offiziellen Support durch Dokumentation oder Patente.

Stärke der Analyse: Shepard trennt sauber zwischen Korrelation und Kausalität. Er schreibt explizit: "Diese Faktoren sind keine Ranking-Faktoren im klassischen Sinn, sondern Merkmale, die in mehreren Studien mit KI-Zitierungen korrelieren. Korrelation ist nicht Kausalität." Diese Präzision fehlt den meisten GEO-Guides, die zirkulieren.

Einschränkung: Das Sample stammt überwiegend aus englischsprachigen Märkten, vorwiegend USA. Ob Faktoren wie Brand Trust oder Structured Data im deutschsprachigen DACH-Raum identisch wirken, beantwortet Shepard nicht. Deutsche Webseiten stehen vor zusätzlichen Fragen: DSGVO-konforme Schema-Implementierung, sprachliche Autorität bei DE-queries, regionale Vertrauenssignale.

Die übergreifende Philosophie: "Win SEO, win AI citations." Shepard positioniert sich nicht als Anti-KI oder AI-First-Evangelist. Er zeigt datenbasiert, dass der Überlapp zwischen klassischen SEO-Signalen und KI-Zitier-Signalen so hoch ist, dass kein Paradigmenwechsel nötig ist, sondern bessere Ausführung.

Die 23 Faktoren, nach Evidenzstärke sortiert

Shepard vergibt Scores von 2 bis 9,5. Je höher, desto mehr Studien zeigen denselben Effekt mit hoher Evidenzstärke.

Technische Zugänglichkeit: Die Basis ohne Alternative

1. URL-Zugänglichkeit (Score 9,5): Die Seite muss während Training oder Grounding crawlbar sein. Wire publiziert sauberes, indiziertes HTML ohne JavaScript-Barrieren. GPTBot, OAI-SearchBot, Google-Extended: alle brauchen Zugang. Wer Cloudflare AI-Scraper-Blocking aktiviert, schließt sich selbst aus KI-Systemen aus.

2. Suchrang (Score 9,4): Viele Studien belegen: Wer in Google Top 10 rankt, wird häufiger von KI-Systemen zitiert. Das ist kein Zufall. KI-Systeme nutzen klassische Suchergebnisse als primäres Grounding-Signal. Sichtbarkeit bei Google ist der direkteste Weg zu KI-Sichtbarkeit.

3. Fan-out-Rang (Score 9,3): KI-Systeme führen bei komplexen Fragen mehrere Fan-out-Suchen durch, also Suchen nach verwandten Unterthemen. Wer für das Hauptkeyword und für die thematischen Unterfragen rankt, hat deutlich mehr Zitierchancen. Topische Tiefe statt einzelner Seiten.

4. Preview-Kontrolle (Score 9,2): Directives wie nosnippet oder data-nosnippet können verhindern, dass KI-Systeme Textpassagen extrahieren. Wer diese Directives unbedacht einsetzt, reduziert seine KI-Sichtbarkeit. Wire generiert standardmäßig keine blockierenden Directives.

Relevanz: Semantische Passung als Zitiergrund

5. Query-Antwort-Match (Score 9,2): Der Seiteninhalt muss semantisch eng mit der gestellten Frage übereinstimmen. Seitentitel, Überschriften und Textpassagen sollen die Suchanfrage direkt widerspiegeln. Ein Artikel über "Fachanwalt Erbrecht München" sollte genau diesen Begriff prominent behandeln, nicht verstreut erwähnen.

6. Intent-Format-Match (Score 9,0): KI-Systeme bevorzugen das Format, das zur Frageintention passt. "Best"-Anfragen werden eher durch Vergleichslisten oder Rankings beantwortet. "How-to"-Fragen durch Schritt-für-Schritt-Anleitungen. Wer das falsche Format wählt, zitiert weniger, selbst bei gleicher inhaltlicher Qualität.

7. Themencluster-Rang (Score 8,9): Je mehr verwandte Fragen eine Domain beantwortet und dafür rankt, desto höher die Wahrscheinlichkeit, bei mindestens einer dieser Fragen zitiert zu werden. Das Konzept hinter Wire-Topicstrukturen: tiefe, thematisch konsistente Cluster statt vereinzelter Seiten.

Strukturelle Extrahierbarkeit: Wie KI Ihre Inhalte verarbeitet

8. Antwort nahe am Seitenanfang (Score 8,8): Dan Petrovic zeigte: Gemini hat ein striktes Retrieval-Cap pro URL. Inhalte, die nach dem Retrieval-Limit kommen, werden schlicht ignoriert. Die wichtigste Aussage gehört in die ersten 300 Wörter, nicht in die Zusammenfassung am Ende.

9. KI-gerechte Struktur (Score 8,6): KI-Systeme zerlegen Seiten in Abschnitte vor der Verarbeitung. Klare H2/H3-Hierarchie, Tabellen, strukturierte Listen erleichtern diese Zerlegung. Wire enforces genau diese Struktur über seine Build-Checks. Seiten ohne erkennbare Struktur werden seltener vollständig verarbeitet.

10. Inhaltliche Sichtbarkeit (Score 7,6): Text in ausgeblendeten Divs, hinter JavaScript-Tabs oder im off-screen-Bereich wird von KI-Systemen schwächer bewertet, ähnlich wie bei klassischen Suchmaschinen. Wire rendert Inhalte im sichtbaren HTML-Bereich.

Content-Qualität: Spezifizität schlägt Generik

11. Faktische Spezifität (Score 8,3): "Erwachsene brauchen viel Protein" ist nicht zitierbar. "Experten empfehlen 0,8 Gramm Protein pro Kilogramm Körpergewicht" ist es. KI-Systeme zitieren, um spezifische Behauptungen zu belegen. Wer vage schreibt, gibt KI-Systemen nichts Zitierbares.

12. Explizite Formulierung (Score 8,1): Hedging reduziert Zitierwahrscheinlichkeit. "Manche bevorzugen Magnesiumglycinat, andere Citrat..." ist schwach. "Magnesiumglycinat ist die besser belegte Wahl für Schlafverbesserung" ist zitierfähig. Das bedeutet nicht, unbegründete Behauptungen aufzustellen, sondern begründete Positionen klar zu formulieren.

13. Quellen belegen (Score 8,0): Aussagen, die mit Quellen belegt werden, werden häufiger von KI-Systemen zitiert. Das Muster korrespondiert mit KI-Systemen, die Antworten rechtfertigen müssen. Wer die eigene Arbeit zeigt, gibt KI-Systemen den Beweis, den sie suchen.

14. Selbstständige Passagen (Score 8,0): "Diese Zutat hat stärkere Evidenz" ist nicht zitierbar ohne Kontext. "Magnesiumglycinat ist durch 137 wissenschaftliche Studien für kardiovaskuläre Gesundheit belegt" ist es. Schlüsselaussagen sollen ohne umgebenden Kontext verständlich sein.

Autorität und Vertrauen

15. Frische (Score 7,0): Aktuellere Inhalte werden für zeitkritische Anfragen bevorzugt. Historische Fragen brauchen keine tagesaktuellen Quellen. Praxisrelevanz: Wer Seiten nicht aktualisiert, riskiert bei Fragen zu aktuellen Entwicklungen übersehen zu werden.

16. Marken- und Entity-Vertrauen (Score 6,8): KI-Systeme bevorzugen Quellen, die sie bereits kennen und als vertrauenswürdig eingestuft haben. Für eine Gesundheitsfrage zitiert die KI die Mayo Clinic, nicht einen anonymen Health-Blog. Für professionelle Dienstleistungen: Sichtbarkeit in Branchen-Medien, Fachportalen, Wikipedia-Einträge bauen Entity-Trust auf.

17. Inhaltstiefe (Score 6,7): Längere Inhalte ranken tendenziell besser, aber die Evidenz ist inkonsistent. Mehrere Forscher weisen darauf hin, dass zu lange Seiten die Retrievalquote reduzieren. Ziel ist nicht maximale Wortanzahl, sondern optimale Dichte: alles Relevante, nichts Redundantes.

18. Sprachübereinstimmung (Score 6,3): Auf Deutsch gestellte Anfragen bevorzugen deutsche Quellen. KI-Systeme haben eine klare Sprachbias. Mehrsprachige Seiten profitieren davon, Kerninhalte in der Sprache der Zielgruppe zu publizieren.

Weitere Signale

19. Entity-Konsistenz (Score 5,8): Inkonsistente Namensverwendung erschwert KI-Systemen die Zuordnung. "Wise Relations" in einem Absatz, "die Agentur" im nächsten, "wir" im dritten: Das fragmentiert die Entity-Erkennung. Konsequente Verwendung eines definierten Markennamens schärft das Signal.

20. Strukturierte Daten (Score 5,6): Schema-Markup zeigt in fast allen Studien einen schwachen, aber konsistenten positiven Effekt auf KI-Zitierungen. LLMs verarbeiten Schema nicht wie klassische Suchmaschinen, scheinen aber bei Grounding-Phasen davon zu profitieren. Der Effekt ist klein, der Implementierungsaufwand gering.

21. Bekannte Quelle (Score 5,4): URLs, die KI-Systemen aus ihren Trainingsdaten bekannt sind, werden manchmal direkt zitiert, ohne aktuellen Suchprozess. Das begünstigt etablierte Domains. Für neue Domains: Qualitätscontent, der von bekannten Quellen verlinkt wird, baut Bekanntheit auf.

22. Domain Authority (Score 5,0): Links-basierte Domainpopularität zeigt in Studien eine positive, aber schwache Korrelation mit KI-Zitierungen. Kein dominierender Faktor, aber ein Hintergrundsignal.

23. LLMs.txt (Score 2,0): Shepards Fazit ist eindeutig: Keine belastbare Evidenz, dass LLMs.txt-Dateien KI-Zitierungen beeinflussen. Der Hype übersteigt die Wirkung massiv.

Was das für Wire-Websites bedeutet

Die Top-10-Faktoren (Score ≥ 8,0) beschreiben exakt das, was Wire-Builds strukturell erzwingen: crawlbares HTML (RULE-05/12/23), saubere H2/H3-Hierarchie (RULE-02/03), Seitentitel mit Keywords, spezifischer Content mit Quellenbelegen in den frontmatter-sources, sichtbarer Text ohne JavaScript-Barrieren.

Shepards vier übergreifende Dimensionen: Relevanz, Trust, topische Autorität und Extrahierbarkeit. Wire adressiert alle vier, ohne dass Betreiber explizit über KI-Optimierung nachdenken müssen.

Wo Wire-Websites zusätzlich investieren können: Entity-Trust durch Präsenz in Fachmedien, Schema-Markup für Organisationsdaten und Autorenprofile, konsequente Themencluster-Tiefe statt Einzelseiten.

Die folgende Artikelserie zeigt, was das für fünf konkrete Berufsgruppen bedeutet: Welche schlechten Muster typisch sind, welche guten Praktiken direkt umgesetzt werden können.

Kostenlose Positionsanalyse. Wir prüfen, welche der 23 Zitierfaktoren Ihre Website bereits erfüllt und wo KI-Systeme Sie aktuell übergehen. Jetzt Analyse anfordern

Die fünf Persona-Artikel: KI-Sichtbarkeit in Ihrer Sprache

Jeder der folgenden Artikel übersetzt die 23 Faktoren in die Praxis einer spezifischen Berufsgruppe: mit konkreten Negativbeispielen, die typische Fehler zeigen, und Positivbeispielen, die sofort umsetzbar sind.

Die methodische Grundlage dieses Clusters: SEO vs. GEO: Was klassische Suche und KI-Systeme unterscheidet