Auf dieser Seite
- 1. Gegenstand und Vorgehen
- 2. Tool-Architektur
- 2.1 Verfügbare Tools
- 2.2 Aufruf-Mechanik
- 2.3 Rückgabe-Struktur
- 3. Zitier-Mechanismus
- 3.1 Notation
- 3.2 Praktische Funktion
- 4. Snippet-Generierung bei web_search
- 4.1 Keyword-Matching: Exakt, nicht semantisch
- 4.2 Fragment-Auswahl: Query-abhängig
- 4.3 Fragment-Anatomie
- 4.4 Wie beginnen Fragmente?
- 4.5 Keyword im Fragment-Anfang
- 4.6 Abschluss-Schnitt
- 5. Snippet-Positionierung im Gesamtartikel
- 5.1 Methodik
- 5.2 Ergebnis: 1 Keyword vs. 3 Keywords (gleiche Seite)
- 5.3 Vergleich über 4 Seiten (Query: "Content Recycling Blog Strategie SEO B2B")
- 5.4 Stabilitäts-Hierarchie (gleiche Seite, 6 verschiedene Queries)
- 6. Keyword-Proximity-Effekt
- 7. Ranking-Faktoren
- 7.1 Keyword-Match als Grundvoraussetzung
- 7.2 Domainübergreifende Suche
- 7.3 BM25-Vergleich
- 7.4 Artikellänge
- 7.5 Messbare vs. nicht messbare Faktoren
- 8. Vergleich web_search vs. web_fetch
- 8.1 Dieselbe URL, zwei Perspektiven
- 8.2 Metadaten-Vergleich
- 8.3 Token-Limit bei web_fetch
- 9. Snippet-Optimierung: Handlungsempfehlungen
- 9.1 Anker-Absatz gezielt platzieren
- 9.2 Keyword-Hotspots verteilen
- 9.3 Artikelanfang nicht keyword-leer lassen
- 9.4 Meta-Description mit Keywords
- 9.5 Sätze kurz halten
- 9.6 Navigation keyword-arm halten
- 9.7 Artikellänge als indirekter Ranking-Faktor
- 10. Ranking-Optimierung für spezifische Queries
- 10.1 Title-Match
- 10.2 Gleichmäßige Keyword-Verteilung vs. Keyword-Stuffing
- 11. Schema.org / JSON-LD: Nicht indexiert
- 11.1 Testaufbau
- 11.2 Tests
- 11.3 Ergebnis
- 11.4 Implikation
- 12. Bilder-Alt-Texte: Nicht indexiert
- 12.1 Testaufbau
- 12.2 Tests
- 12.3 Ergebnis
- 12.4 Gesamtbild: Was wird indexiert?
- 13. Anchor-Texte von internen Links: Nicht auf Zielseite übertragen
- 13.1 Testaufbau
- 13.2 Tests
- 13.3 Ergebnis
- 13.4 Einschränkungen
- 13.5 Implikation
- 14. Fragment-Maximum: Hartes Limit bei 6
- 14.1 Testaufbau
- 14.2 Ergebnis
- 14.3 Überraschung: Mehr Keywords ≠ mehr Fragmente
- 14.4 Fragment-Budget-Modell
- 15. Offene Fragen
- 16. Methodik-Hinweise
1. Gegenstand und Vorgehen
Diese GEO vs. SEO Analyse untersucht das Verhalten der Such- und Abruf-Tools, die Claude in der claude.ai-Oberfläche zur Verfügung stehen. Die Analyse wurde als fortlaufendes Gespräch durchgeführt, in dem einzelne Hypothesen aufgestellt, durch gezielte Suchanfragen getestet und anhand der zurückgegebenen Rohdaten verifiziert oder verworfen wurden.
Untersuchte Testdomains: wise-relations.com, wire.wise-relations.com, christopher-helm.com, seo-nest.de, blog2social.com, planinja.de sowie diverse weitere Domains aus organischen Suchergebnissen.
Gesamtzahl untersuchter Dokumente: ca. 170 (über alle Suchanfragen im Gesprächsverlauf).
2. Tool-Architektur
2.1 Verfügbare Tools
Claude verfügt über zwei getrennte Tools für den Webzugriff:
| Merkmal | web_search | web_fetch |
|---|---|---|
| Funktion | Suchindex abfragen | Einzelne URL abrufen |
| Parameter | nur query (String) | url, html_extraction_method, text_content_token_limit, allowed_domains, blocked_domains, web_fetch_pdf_extract_text, u.a. |
| Steuerbarkeit | Keine Filter (Sprache, Region, Anzahl) | Token-Limit, Domain-Filter, Extraktionsmethode |
| Rückgabe | Snippets (Textfragmente) | Volltext der Seite |
| Typische Länge | ~500 Wörter | 2.000–8.000+ Wörter |
2.2 Aufruf-Mechanik
Der Aufruf erfolgt über ein XML-ähnliches Format:
<invoke name="web_search">
<parameter name="query">Suchbegriff</parameter>
</invoke>
Das Tool-Schema definiert additionalProperties: false — es können keine weiteren Parameter eingefügt werden. Alles, was die Suche beeinflussen soll (Sprache, Domain-Einschränkung, Zeitraum), muss im Query-String selbst codiert werden (z.B. site:, Jahreszahlen, Sprachwahl durch Begriffe).
2.3 Rückgabe-Struktur
Beide Tools liefern dieselbe XML-Struktur zurück:
<document index="[Nummer]">
<source>[Seitentitel]</source>
<document_content>
<span index="[Nummer]-1">[Text]</span>
</document_content>
<metadata key="search_provider">anthropic</metadata>
<metadata key="url">[URL]</metadata>
<metadata key="age">[Datum/Alter]</metadata> <!-- nur web_search -->
<metadata key="content_type">[Typ]</metadata> <!-- nur web_fetch -->
<metadata key="mime_type">[MIME]</metadata> <!-- nur web_fetch -->
<metadata key="destination_url">[finale URL]</metadata> <!-- nur web_fetch -->
</document>
Annahme: Der Span-Index erlaubt theoretisch mehrere Spans pro Dokument (X-1, X-2, X-3).
Test: Über ca. 170 Dokumente (web_search + web_fetch) geprüft.
Ergebnis: Kein einziges Dokument hatte mehr als einen Span. Die Notation X-2, X-3 etc. wird nie genutzt. Jedes Dokument hat exakt einen Span mit Index X-1.
3. Zitier-Mechanismus
3.1 Notation
Claude kann Textstellen mit paraphrasierter Text annotieren. Laut Anweisungen:
X-Y= Dokument X, Satz YX-Y:Z= Dokument X, Sätze Y bis Z- Kommasepariert für mehrere Bereiche
3.2 Praktische Funktion
Annahme: Die Satz-Indizes verweisen auf spezifische Sätze innerhalb des Spans. Test: Verschiedene Indizes (X-1, X-3, X-5, X-10) auf dasselbe Dokument angewendet. Ergebnis: Nicht verifizierbar — ob das Frontend unterschiedliche Sätze hervorhebt, konnte im Test nicht bestätigt werden. Der Span enthält keine Sub-Markierungen. Die Satz-Zählung ist eine Claude-interne Konstruktion ohne maschinelle Grundlage im Quellformat.
Fazit: Die Zitier-Notation dient primär als Rückverfolgbarkeits-Mechanismus für Claude selbst. Im Frontend verweist alles auf dasselbe Quelldokument, unabhängig vom Satz-Index.
4. Snippet-Generierung bei web_search
4.1 Keyword-Matching: Exakt, nicht semantisch
Annahme: Snippets werden semantisch oder per Keyword-Match generiert. Test: Drei Suchen mit reinen Synonymen, die auf keiner Seite wörtlich vorkommen.
| Query | Keywords auf der Seite? | Ergebnisse |
|---|---|---|
site:wise-relations.com Neukäufer gewinnen ohne Werbeanzeigen | Nein (nur Synonyme: "Neukunden", "organisch", "ohne bezahlte Werbung") | 0 |
site:wise-relations.com Auftraggeber akquirieren ohne Anzeigenschaltung | Nein | 0 |
site:wise-relations.com Geschäftskunden anziehen unbezahlt | Nein | 0 |
Ergebnis: Null Ergebnisse bei semantisch passenden, aber lexikalisch verschiedenen Queries. Die Suche arbeitet keyword-basiert, nicht semantisch.
Ergänzender Test: Bei partiellen Keyword-Matches (2 von 4 Keywords treffen) werden Ergebnisse geliefert. Es müssen nicht alle Keywords matchen, aber mindestens einige.
4.2 Fragment-Auswahl: Query-abhängig
Annahme: Snippets sind statisch pro URL.
Test: Dieselbe URL (/content-strategie/content-recycling/) mit 6 verschiedenen Queries gesucht.
Ergebnis: Jede Query erzeugt unterschiedliche Snippets. Die Textfragmente werden dynamisch basierend auf der Suchanfrage zusammengestellt. Der Suchindex hat den vollen Seitentext gespeichert und wählt die relevantesten Passagen pro Query aus.
4.3 Fragment-Anatomie
Analyse über 20 Snippets (10 Seiten × 2+ Queries):
| Merkmal | Wert |
|---|---|
| Fragment-Anzahl pro Snippet | 1–6, typischerweise 5, abhängig von Seitenlänge und Query |
| Gesamtlänge (Token-Budget) | ~500–600 Wörter (annähernd konstant) |
| Fragment-Länge | 30–120 Wörter, Durchschnitt ~94 |
| Duplikate pro Snippet | 0–1 (8% aller Fragmente) |
| Überlappung zwischen Fragmenten | ~20% der Fragmentpaare |
4.4 Wie beginnen Fragmente?
| Start-Typ | Anteil | Beispiel |
|---|---|---|
| Satzanfang | 70% | "Content Recycling hat sich 2026 als..." |
| Mitten im Satz | 10% | "Shopify wandelt How-to-Artikel..." |
| Duplikat | 8% | Identisch mit anderem Fragment |
| Breadcrumb/Navigation | 4% | "Sie sind hier: SEO Agentur » Blog" |
| Imperativ-Satz | 4% | "Teile Deine Beiträge auf Twitter..." |
| Meta-Description | 2% | Kürzestes Fragment (~30w) |
| Heading/Label | 2% | "Ausgangsmaterial: 60-min Webinar" |
4.5 Keyword im Fragment-Anfang
- 56% der Fragmente haben ein Query-Keyword in den ersten ~5 Wörtern
- 44% haben kein Keyword am Anfang
- Das Keyword steht aber fast immer innerhalb der ersten 1–2 Sätze des Fragments
4.6 Abschluss-Schnitt
- 50% enden am Satzende (nach Punkt)
- 30% brechen mitten im Satz ab (Token-Limit erreicht)
- 15% enden am Ende eines HTML-Elements
- 5% enden bei "..." (Original-Ellipse)
Fazit: Der Algorithmus versucht an Satzgrenzen zu schneiden, bricht aber bei ~120 Wörtern ab — unabhängig davon, ob ein Satz beendet ist.
5. Snippet-Positionierung im Gesamtartikel
5.1 Methodik
Für 4 Seiten wurde der Volltext per web_fetch geholt und die Snippet-Fragmente per Textsuche im Originalartikel lokalisiert. Die Position wurde als Prozentwert des Gesamtartikels ausgedrückt (0% = Artikelanfang, 100% = Artikelende).
5.2 Ergebnis: 1 Keyword vs. 3 Keywords (gleiche Seite)
| Metrik | 1 KW ("Recycling") | 3 KW ("Recycling Blog Strategie") |
|---|---|---|
| Frühester Start | 24% | 26% |
| Spätestes Ende | 56% | 100% |
| Zusammenhängend? | Ja (1 Block: 24–56%) | Nein (3 Cluster: 26–42%, 74–80%, 96–100%) |
| Artikelanfang (0–20%) | Nicht abgedeckt | Nicht abgedeckt |
Kernerkenntnis: Mehr Keywords in der Query erzeugen eine größere Streuung der Fragmente über den Artikel. Jedes zusätzliche Keyword "zieht" ein Fragment von einer anderen Stelle.
5.3 Vergleich über 4 Seiten (Query: "Content Recycling Blog Strategie SEO B2B")
| Metrik | wise-rel. (Pos 2) | seo-nest (Pos 4) | blog2soc (Pos 5) | planinja (Pos 6) |
|---|---|---|---|---|
| Artikellänge | ~3200w | ~2800w | ~2500w | ~2100w |
| Frühester Start | 24% | 2% | 8% | 5% |
| Spätestes Ende | 100% | 82% | 92% | 95% |
| Cluster-Anzahl | 3 | 4 | 4 | 4 |
| Duplikate | 0 | 1 | 1 | 1 |
Erkenntnis: Kein Zusammenhang zwischen Snippet-Abdeckung und Ranking-Position. Die breiteste Streuung (planinja, 90%) rankt am tiefsten. Snippets werden post-hoc generiert, sie sind kein Ranking-Signal.
5.4 Stabilitäts-Hierarchie (gleiche Seite, 6 verschiedene Queries)
| Tier | Seitenbereich | Erscheint in X/6 Queries |
|---|---|---|
| Anker | Intro-Absatz (24–28%) — höchste KW-Dichte | 6/6 |
| Kern | Abgrenzung/Definition (32–40%) | 4/6 |
| Kern | Brian-Dean-Zitat | 4/6 |
| Semi-stabil | 3-1-10-Methode | 3/6 |
| Variabel | Fazit (96–100%) | 2/6 |
| Variabel | KI-Tools / Case Studies | 2/6 |
| Nie | Guided Questions (0–20%) | 0/6 |
| Nie | Fehler-Abschnitt (92–94%) | 0/6 |
Fazit: Jeder Artikel hat ein stabiles "Anker-Fragment" (der Absatz mit der höchsten Keyword-Dichte), ergänzt durch query-abhängige variable Fragmente.
6. Keyword-Proximity-Effekt
Annahme: Die Nähe von Query-Keywords zueinander im Artikeltext beeinflusst die Fragment-Auswahl. Test: Vergleich des Intro-Absatzes (3 Keywords in 1 Satz) mit den Guided Questions (1 Keyword pro Satz).
| Seitenbereich | Keywords pro Satz | Im Snippet? |
|---|---|---|
| Intro: "Content Recycling hat sich 2026 als Standardverfahren in B2B-Marketing-Abteilungen etabliert" | 3 (Content, Recycling, B2B) | Immer (6/6) |
| Guided Questions: "Wir haben viel alten Content, aber keinen systematischen Weg" | 1 (Content) | Nie (0/6) |
Ergebnis: Keywords, die im Text nahe beieinander stehen, erzeugen "Hotspots", die bevorzugt als Fragment ausgewählt werden. Konsistent mit BM25/Proximity-Scoring.
7. Ranking-Faktoren
7.1 Keyword-Match als Grundvoraussetzung
Test: site:wise-relations.com mit steigender Keyword-Anzahl.
| Position | Seite | Keyword-Treffer |
|---|---|---|
| 1 | /content-recycling/ | 5/5 |
| 2 | /blog-erstellen-lassen/ | 4/5 |
| 3 | /blog-management/ | 3/5 |
Perfekte Abstufung bei Einschränkung auf eine Domain. Bei domainübergreifender Suche erklärt die Keyword-Anzahl allein das Ranking nicht.
7.2 Domainübergreifende Suche
Test: "Content Recycling Blog Strategie SEO B2B" (ohne site:), 10 Ergebnisse.
| Pos | Domain | KW-Match | Artikellänge |
|---|---|---|---|
| 1 | siegemedia.com | 6/6 | k.A. (403) |
| 2 | wise-relations.com | 6/6 | ~3200w |
| 4 | seo-nest.de | 6/6 | ~2800w |
| 5 | blog2social.com | 5/6 | ~2500w |
| 6 | planinja.de | 4/6 | ~2100w |
| 8 | ricketyroo.com | 6/6 | k.A. |
Mehrere Seiten mit 6/6 Keyword-Match ranken unterschiedlich. Weitere Faktoren fließen ein.
7.3 BM25-Vergleich
Für 2 Seiten wurde ein BM25-Score berechnet:
| Metrik | wise-relations (Pos 2) | seo-nest (Pos 4) |
|---|---|---|
| Gesamt-Keyword-Dichte | 11.97% | 11.74% |
| BM25-Score | 2.14 | 2.04 |
| Keywords im Title | 2/6 | 4/6 |
BM25 erklärt die Reihenfolge besser als Title-Match (seo-nest hat 4/6 im Titel, rankt aber tiefer). Der Unterschied ist aber minimal — externe Signale (Domain Authority, Backlinks) spielen vermutlich die größere Rolle.
7.4 Artikellänge
Perfekte Korrelation zwischen Artikellänge und Ranking:
| Position | Wörter |
|---|---|
| 2 | ~3200 |
| 4 | ~2800 |
| 5 | ~2500 |
| 6 | ~2100 |
Korrelation, nicht Kausalität — längere Artikel haben typischerweise auch mehr Backlinks, mehr interne Links und breitere semantische Abdeckung.
7.5 Messbare vs. nicht messbare Faktoren
| Messbar (über web_fetch) | Nicht messbar |
|---|---|
| Keyword-Dichte und -Verteilung | Domain Authority / Backlink-Profil |
| BM25-Score | Nutzersignale (CTR, Verweildauer) |
| Keyword-Proximity | Core Web Vitals |
| Title-Tag-Match | Schema.org Markup (indirekt) |
| Artikellänge | Freshness-Signal |
| Interne Verlinkung (Anzahl Links) | Crawl-Frequenz |
| URL-Keyword-Match | JavaScript-Rendering |
8. Vergleich web_search vs. web_fetch
8.1 Dieselbe URL, zwei Perspektiven
| Aspekt | web_search Snippet | web_fetch Volltext |
|---|---|---|
| Textmenge | ~500 Wörter | 2.000–8.000+ Wörter |
| Struktur | Fragmentiert, zusammengeklebt | Seitenreihenfolge, Markdown |
| Überschriften | In Fließtext eingebettet | Als # , ## erhalten |
| Links | Nicht sichtbar | Als [text](url) erhalten |
| Listen | Zu "·"-Text komprimiert | Als * erhalten |
| Navigation | Manchmal im Snippet | Immer enthalten |
| Query-Abhängigkeit | Ja (verschiedene Fragmente) | Nein (immer gleicher Volltext) |
| Reihenfolge | Nach Keyword-Relevanz | Nach Seitenposition |
8.2 Metadaten-Vergleich
| Feld | web_search | web_fetch |
|---|---|---|
source (Titel) | Ja | Ja |
url | Ja | Nein |
destination_url | Nein | Ja |
age | Ja (nicht immer) | Nein |
search_provider | "anthropic" | Nein |
content_type | Nein | Ja |
mime_type | Nein | Ja |
8.3 Token-Limit bei web_fetch
- Kein dokumentiertes Default-Limit
- Ohne
text_content_token_limit: Volltext wird geliefert - Mit Limit (z.B. 200 Tokens): Wird von oben abgeschnitten — Navigation und Header dominieren, Content fehlt
- Empfehlung: Mindestens 5.000–8.000 Tokens für vollständige Artikelseiten
9. Snippet-Optimierung: Handlungsempfehlungen
9.1 Anker-Absatz gezielt platzieren
Den ersten inhaltlichen Absatz (nach Teaser/Intro) mit allen Ziel-Keywords bestücken, nah beieinander. Dieser Absatz wird zum stabilen Kern-Fragment, das bei jeder Query im Snippet erscheint.
Spezifikation: 80–100 Wörter, 3+ verschiedene Keywords, klare Nutzenaussage.
Prompt zur Replikation:
Suche: site:[domain] [Haupt-Keyword]
Prüfe: Beginnt das Snippet mit dem Intro-Absatz?
Vergleiche: Verschiedene Queries auf dieselbe URL
Erwartung: Der Anker-Absatz erscheint bei jeder Query
9.2 Keyword-Hotspots verteilen
Nicht alle Keywords in einen Absatz packen (erzeugt Duplikate). Stattdessen 3–4 Hotspots über den Artikel verteilen, jeder mit 2–3 Keywords nahe beieinander. So werden verschiedene Queries mit verschiedenen Fragmenten bedient.
Prompt zur Replikation:
Suche 1: site:[domain] Keyword-A
Suche 2: site:[domain] Keyword-B
Suche 3: site:[domain] Keyword-A Keyword-B
Vergleiche: Welche Fragmente ändern sich, welche bleiben stabil?
9.3 Artikelanfang nicht keyword-leer lassen
Die ersten 20% des Artikels werden nie als Snippet genutzt, wenn sie keine Keywords enthalten. Bei der getesteten Seite waren das Guided Questions und ein Teaser — viel Text, aber ohne Keyword-Dichte.
Empfehlung: Mindestens ein Keyword in den allerersten Absatz. Teaser und Guided-Question-Formate sollten Keywords enthalten, nicht nur generische Fragen.
9.4 Meta-Description mit Keywords
Die Meta-Description taucht manchmal als eigenes kurzes Fragment (~30 Wörter) im Snippet auf. Sie sollte die wichtigsten 2–3 Keywords enthalten.
9.5 Sätze kurz halten
Der Algorithmus schneidet bei ~120 Wörtern ab, unabhängig vom Satzende. Kürzere Sätze (15–20 Wörter) erzeugen sauberere Snippet-Grenzen. Lange Sätze werden mitten drin abgeschnitten.
9.6 Navigation keyword-arm halten
Breadcrumbs und Menü-Elemente landen manchmal im Snippet und "verschwenden" einen Fragment-Slot. Keywords in der Navigation sollten minimiert werden.
9.7 Artikellänge als indirekter Ranking-Faktor
In allen Tests korrelierte die Artikellänge mit der Ranking-Position. Längere Artikel (3.000+ Wörter) rankten höher als kürzere. Ob direkt kausal oder über Korrelation mit Backlinks/Autorität, konnte nicht isoliert werden.
10. Ranking-Optimierung für spezifische Queries
10.1 Title-Match
Test: Query mit exaktem Seitentitel vs. generische Queries.
| Query | Position |
|---|---|
| "Content Recycling Inhalte strategisch nutzen" (exakter Title) | 1 |
| "Content Recycling Blog Strategie SEO B2B" (6 Keywords) | 2 |
| "Content Recycling B2B" (generisch) | 9 |
| "Content Recycling Strategie" (sehr generisch) | Nicht in Top 10 |
Empfehlung: Der Title-Tag sollte Long-Tail-Keywords enthalten, für die die Seite realistisch ranken kann. Bei generischen Head-Terms dominiert Domain Authority über On-Page-Faktoren.
10.2 Gleichmäßige Keyword-Verteilung vs. Keyword-Stuffing
seo-nest.de hatte extreme SEO-Keyword-Konzentration (43 pro 1000 Wörter), wise-relations.com eine gleichmäßigere Verteilung. wise-relations rankte höher.
Hypothese: Gleichmäßige Verteilung über alle Query-Terms wird besser bewertet als hohe Konzentration auf ein einzelnes Keyword.
11. Schema.org / JSON-LD: Nicht indexiert
11.1 Testaufbau
Auf der Seite /content-strategie/content-recycling/ enthält das Schema.org JSON-LD die Phrase "Workflows für systematische Verwertung" (in description). Dieselbe Phrase steht auch in der HTML-Meta-Description. Per curl + Python wurde verifiziert, dass diese Phrase NICHT im sichtbaren Body-Text der Seite vorkommt.
11.2 Tests
| Query | Ergebnis | Enthält /content-recycling/? |
|---|---|---|
site:wise-relations.com "systematische Verwertung" | 0 Ergebnisse | Nein |
site:wise-relations.com systematische Verwertung | Andere Seiten mit "systematisch" im Body | Nein |
site:wise-relations.com Workflows systematische Verwertung | Seiten mit "Workflows" im Body | Nein |
11.3 Ergebnis
Schema.org JSON-LD wird NICHT für Keyword-Retrieval indexiert. Meta-Descriptions werden ebenfalls NICHT für Keyword-Matching genutzt, obwohl sie manchmal als kurzes Fragment (~30 Wörter) im Snippet erscheinen. Die Meta-Description wird vermutlich separat gespeichert und nur für die Snippet-Generierung verwendet.
11.4 Implikation
Keywords müssen im sichtbaren Body-Text stehen. Schema-Markup und Meta-Descriptions allein verbessern die Auffindbarkeit in Claudes Suchindex nicht. Structured Data (FAQ, HowTo, Recipe) bringt keinen Retrieval-Vorteil, wenn der Text nicht auch sichtbar auf der Seite steht.
12. Bilder-Alt-Texte: Nicht indexiert
12.1 Testaufbau
Auf der Seite blog.hubspot.de/marketing/content-recycling enthält ein Bild den Alt-Text: "Mitarbeiterinnen im Büro reichen sich Blatt Papier zwecks Content Recycling". Per curl + Python wurde verifiziert, dass die Wörter "zwecks", "Blatt Papier", "reichen sich" und "Mitarbeiterinnen im Büro" NICHT im sichtbaren Body-Text vorkommen — sie existieren ausschließlich im alt-Attribut des <img>-Tags.
12.2 Tests
| Query | Ergebnis | Enthält /marketing/content-recycling/? |
|---|---|---|
site:blog.hubspot.de zwecks Blatt Papier reichen Mitarbeiterinnen | Andere Seiten mit diesen Wörtern im Body | Nein |
site:blog.hubspot.de zwecks Content Recycling Blatt Papier reichen | /marketing/content-recycling/ erscheint | Ja — aber wegen "Content Recycling" im Body |
Gegenprobe: Die Seiten, die bei der ersten Query erschienen (Kundenorientierung, Corporate Blog, Serviceorientierung), enthalten die Query-Wörter im sichtbaren Body-Text, nicht in Alt-Attributen.
12.3 Ergebnis
Bilder-Alt-Texte werden NICHT für Keyword-Retrieval indexiert. Text, der ausschließlich in alt-Attributen steht, führt nicht zu Suchergebnissen.
12.4 Gesamtbild: Was wird indexiert?
| Quelle | Indexiert für Keyword-Matching? |
|---|---|
Sichtbarer Body-Text (<p>, <h1>–<h6>, <li>, etc.) | JA |
| Navigation / Breadcrumbs | JA (leider, kann Fragment-Slots verschwenden) |
| Meta-Description | NEIN (wird nur für Snippet-Generierung genutzt) |
| Schema.org / JSON-LD | NEIN |
| Bilder-Alt-Texte | NEIN |
| Anchor-Texte interner Links (auf Zielseite) | NEIN (nur auf Quellseite indexiert) |
<title>-Tag | Erscheint im <source>-Feld, nicht im Snippet-Matching |
Der Suchindex basiert ausschließlich auf sichtbarem Textinhalt der Seite. Alle nicht-sichtbaren Metadaten (Schema, Alt-Texte, Meta-Description) werden nicht für das Keyword-Retrieval herangezogen.
13. Anchor-Texte von internen Links: Nicht auf Zielseite übertragen
13.1 Testaufbau
Auf der Seite /content-strategie/content-recycling/ existieren Inline-Links mit beschreibenden Anchor-Texten, die auf andere Unterseiten verweisen. Es wurden drei Fälle identifiziert, bei denen der Anchor-Text NICHT auf der Zielseite vorkommt:
| Anchor-Text | Zielseite | Im Body der Zielseite? |
|---|---|---|
| "systematische Content-Ideenfindung" | /content-strategie/content-ideen/ | NEIN |
| "automatisch generierte Featured Images" | /content-strategie/wordpress-featured-images/ | NEIN |
| "Daten zu unterschiedlichen Kanälen und Plattformen" | /content-strategie/online-publizieren/ | NEIN |
13.2 Tests
| Query | Zielseite gefunden? | Quellseite gefunden? |
|---|---|---|
site:wise-relations.com systematische Content-Ideenfindung | Nein — /content-ideen/ nicht in Ergebnissen | Ja — /content-recycling/ auf Pos 1 |
site:wise-relations.com automatisch generierte Featured Images | Nein — /wordpress-featured-images/ nicht in Ergebnissen | Nein — aber /wordpress-plug-in.../ (hat Wörter im Body) |
13.3 Ergebnis
Anchor-Texte von internen Links werden NICHT auf die Zielseite übertragen. Der Anchor-Text wird ausschließlich als Body-Text der Quellseite indexiert. Wenn nach "systematische Content-Ideenfindung" gesucht wird, erscheint die Seite, auf der dieser Text steht (/content-recycling/), nicht die Seite, auf die er verlinkt (/content-ideen/).
13.4 Einschränkungen
Dieser Test deckt nur interne Link-Anchor-Texte ab. Ob externe Backlink-Anchor-Texte ein Ranking-Signal darstellen, konnte nicht isoliert getestet werden — dafür wäre eine kontrollierte Umgebung mit bekannten externen Backlinks nötig. Die Beweislage deutet aber darauf hin, dass der Index grundsätzlich nur den Text indexiert, der auf einer Seite selbst steht.
13.5 Implikation
Für die Snippet-Generierung und das Keyword-Matching zählt nur der Body-Text der jeweiligen Seite selbst. Interne Verlinkung mit beschreibenden Anchor-Texten hilft der verlinkenden Seite (mehr Keywords im Body), aber nicht der verlinkten Seite.
14. Fragment-Maximum: Hartes Limit bei 6
14.1 Testaufbau
Um zu prüfen, ob die Fragment-Anzahl über 6 steigen kann, wurde eine Query mit 16 Keywords getestet ("Suchmaschinenoptimierung Leitfaden Anfänger Einführung Guide Grundlagen Tipps Strategie Ranking Keywords Backlinks Content Meta Tags Crawling Indexierung") und mit den früheren Tests (1, 3, 6, 10 Keywords) verglichen. Insgesamt 26 Snippets über alle Tests.
14.2 Ergebnis
| Keywords in Query | Snippets | Min Fragmente | Max Fragmente | Durchschnitt |
|---|---|---|---|---|
| 1 | 3 | 1 | 5 | 2.3 |
| 2–3 | 2 | 2 | 5 | 3.5 |
| 6 | 1 | 5 | 5 | 5.0 |
| 10 | 10 | 4 | 6 | 5.3 |
| 16 | 10 | 2 | 6 | 4.8 |
Über alle 26 Snippets: Kein einziges hatte mehr als 6 Fragmente. Auch nicht bei 16 Keywords auf Seiten mit >5.000 Wörtern.
14.3 Überraschung: Mehr Keywords ≠ mehr Fragmente
Die 16-Keyword-Query liefert sogar tendenziell weniger Fragmente (8/10 mit 5 Blöcken) als die 10-Keyword-Query (4/10 mit 6 Blöcken). Mehr Keywords führen nicht zu mehr Fragmenten, sondern zu anderen (relevanteren) Fragmenten.
14.4 Fragment-Budget-Modell
Das eigentliche Limit ist das Token-Budget von ~500–600 Wörtern pro Snippet. Bei ~100 Wörtern pro Fragment ergibt sich ein Maximum von 6. Die Formel:
Fragment-Anzahl = min(6, verfügbarer_Content / ~100_Wörter)
Snippet-Gesamtlänge ≈ 500–600 Wörter (konstant)
Verteilung nach Seitenlänge: unter 500 Wörter ergeben 1–2 Fragmente, 500–1.500 Wörter ergeben 3–4, 1.500–3.000 Wörter ergeben 4–5, über 3.000 Wörter ergeben 5–6.
15. Offene Fragen
Folgende Aspekte konnten mit den verfügbaren Tools nicht getestet werden:
- ~~Nutzt der Index Schema.org/JSON-LD-Daten?~~ → Nein. Siehe Kapitel 11.
- ~~Werden Bilder-Alt-Texte indexiert?~~ → Nein. Siehe Kapitel 12.
- Gibt es ein Freshness-Signal, das das Ranking beeinflusst?
- Wie oft wird der Suchindex aktualisiert?
- ~~Werden Anchor-Texte von (internen) Links auf die Zielseite übertragen?~~ → Nein. Siehe Kapitel 13.
- Wird JavaScript gerendert oder nur statisches HTML indexiert?
- ~~Gibt es ein Maximum für die Fragment-Anzahl über 6?~~ → Nein, 6 ist das harte Maximum. Siehe Kapitel 14.
- Wie verhält sich die Suche bei nicht-lateinischen Schriften?
- Gibt es eine Penalty für Duplicate Content zwischen Seiten?
- Beeinflusst der Nutzer-Standort (hier: Wetzlar, Hessen) die Ergebnisse?
16. Methodik-Hinweise
Alle Ergebnisse basieren auf Black-Box-Tests innerhalb eines einzelnen Chat-Verlaufs. Die Dokument-Nummerierung (1–170) läuft über das gesamte Gespräch und resettet nicht. Die Fragment-Zählung innerhalb der Snippets basiert auf visueller Inspektion der Absatzumbrüche — eine automatisierte Tokenisierung war nicht möglich.
BM25-Scores wurden auf Basis der extrahierten Snippets berechnet, nicht auf dem Volltext. Die tatsächlichen Ranking-Algorithmen von Anthropics Suchinfrastruktur sind nicht einsehbar. Alle Schlussfolgerungen sind Hypothesen auf Basis beobachtbarer Muster.
Erstellt im Rahmen einer explorativen Analyse des Claude.ai Web-Search-Tools, März 2026.