So arbeiten wir
Kein Pitch-Deck, keine Versprechen. Eine echte Analyse, wie wir sie für jede Website durchführen. Automatisiert und datengetrieben – das Ergebnis erhalten Sie kostenlos.
Was unser Audit prüft
Jede Zusammenarbeit beginnt mit einer automatisierten Analyse. Unser System prüft 17 Indikatoren in fünf Kategorien – von technischer Gesundheit bis zu konkreten SEO-Chancen. Hier zeigen wir Ihnen, was wir finden und was wir daraus machen. Keine Vermutungen, nur echte Daten aus Google Search Console und technischen Crawls.
Keyword-Kannibalisierung
Zwei Seiten ranken für dasselbe Keyword. Google weiß nicht, welche wichtiger ist – beide verlieren. Das Problem ist nicht selten: In großen Websites ranken oft mehrere Unterseiten für ähnliche Suchanfragen, weil die Keyword-Recherche fragmentiert oder nicht dokumentiert wurde.
Beispiel: /auto-versicherung/ und /kfz-versicherung-vergleich/ ranken beide für Auto Versicherung. Google zeigt mal die eine, mal die andere – keine stabil auf Seite 1. Die Klicks verteilen sich, statt sich zu konzentrieren.
Was passiert: Unser System erkennt Überlappungen über 40% automatisch und schlägt vor, welche Seite bleibt und welche weitergeleitet wird. Die verbleibende Seite konsolidiert alle Rankings und Link-Autorität.
Automatisierung:
- Erkennung: Überlappungsanalyse auf Keyword-Ebene (GSC-Daten, nicht Vermutungen)
- Schwellwerte: Harte Überlappung (>40%) – Merge. Weiche Überlappung (>15%) – Differenzierung
- Umsetzung: Inhalte zusammenführen, Redirect einrichten, interne Links anpassen
- Ergebnis: Eine starke Seite statt zwei schwache
Tote Seiten
Seiten, die existieren, aber keinen Traffic bekommen. Sie binden Crawl-Budget und verwässern die Autorität deiner Domain. Google verschwendet Ressourcen auf Seiten, die niemandem hilft.
Beispiel: Ein Blogpost von 2019 mit 3 Impressionen pro Monat. Google crawlt ihn noch, aber niemand liest ihn. Die Seite hat weder Rankings noch Traffic, bekommt aber immer noch Crawl-Budget von Googlebot.
Schwellwert: Unter 7 Impressionen pro Monat = tot. Aktualisieren, zusammenführen oder entfernen.
Automatisierung:
- Erkennung: Automatisch aus GSC-Daten (Median vs. Schwellwert)
- Entscheidung: Aktualisieren (wenn Thema relevant), Merge (wenn ähnliche Seite existiert), Entfernen (wenn veraltet)
- Kein manuelles Durchklicken: 500 Seiten? Analyse in unter 5 Sekunden
Doppelte Titel und Beschreibungen
Identische Meta-Titel oder Descriptions auf verschiedenen Seiten. Google straft das ab – und Nutzer können Seiten nicht unterscheiden. In den Suchergebnissen sehen beide Seiten gleich aus.
Beispiel: Drei Seiten mit dem Titel SEO-Optimierung für Unternehmen. Welche soll Google anzeigen? Welche klickt ein Nutzer? Wahrscheinlich die erste in den Ergebnissen – die anderen zwei werden unsichtbar.
Automatisierung:
- Erkennung: Automatischer Abgleich aller Titel und Descriptions
- Lösung: KI-gestützte Umformulierung basierend auf dem tatsächlichen Seiteninhalt und den besten Keywords
- Qualitätskontrolle: Längenprüfung (51–60 Zeichen Titel, max. 155 Zeichen Description)
Fehlende Redirects
Google schickt Traffic an URLs, die nicht mehr existieren. Jeder Klick landet auf einer 404-Seite – verlorene Besucher, verlorene Rankings. Das sind echte Conversions, die verschwendet werden.
Beispiel: Ihre alte Seite /blog/seo-grundlagen/ wurde gelöscht, aber Google zeigt sie noch in den Suchergebnissen. 230 Impressionen pro Monat gehen ins Leere. Mit einem 301-Redirect zur neuen Seite würde Google den Traffic und die Link-Autorität automatisch umleiten.
Automatisierung:
- Erkennung: GSC-Daten zeigen URLs mit Impressionen, die keine Seite mehr haben
- Lösung: Automatische Redirect-Generierung zur passenden Zielseite
- Format: HTML-Redirects, die auf jedem Hosting funktionieren (GitHub Pages, SiteGround, S3)
Quellenkonzentration
Zu viele Links von einer einzigen Domain. Google wertet das als einseitige Quellenarbeit – schlecht für E-E-A-T (Expertise, Experience, Authoritativeness, Trustworthiness). Ein Fachartikel braucht diverse, unabhängige Quellen.
Beispiel: Ein Artikel mit 12 externen Links, davon 8 zu HubSpot. Das ist kein Fachartikel, das ist eine HubSpot-Zusammenfassung. Google sieht das und bewertet den Artikel als werbelastig, nicht als independent research.
Schwellwert: Über 40% der Links von einer Domain oder mehr als 3 Links bei über 20% Anteil.
Automatisierung:
- Erkennung: Automatische Analyse der Link-Verteilung pro Seite
- Warnung: Konzentrierte Quellen werden im Audit markiert
- Lösung: Alternative Quellen werden bei der nächsten Content-Überarbeitung automatisch recherchiert und eingebaut
Verwaiste Seiten (Orphan Pages)
Seiten ohne einen einzigen internen Link. Google findet sie nur über die Sitemap – und bewertet sie als unwichtig. Das ist ein Signaling-Problem: Wenn keine andere Seite auf eine Seite verlinkt, sagt das Google, dass diese Seite nicht wertvoll ist.
Beispiel: Ein gut recherchierter Fachartikel, der nirgends verlinkt ist. Er existiert, aber Google behandelt ihn wie eine Sackgasse. Die Seite könnte Traffic bringen, aber sie ist für Google invisible.
Automatisierung:
- Erkennung: Automatische Linkanalyse über alle Seiten
- Lösung: Crosslinking – unser System findet thematisch passende Seiten und setzt interne Links
- Kein manuelles Verlinken: Auch bei 500+ Seiten vollständig automatisiert
Dünner Content (Thin Pages)
Seiten mit weniger als 200 Wörtern. Zu wenig für Google, zu wenig für Leser. Solche Seiten ranken nicht, weil Google nicht genug Kontext hat, um die Seite zu klassifizieren und für relevante Keywords zu bewerten.
Beispiel: Eine Kategorieseite mit drei Sätzen und einer Linkliste. Kein Mehrwert, kein Ranking. Nutzer landen auf der Seite und finden nichts Nützliches.
Schwellwert: Unter 200 Wörter = dünn. Erweitern oder mit einer stärkeren Seite zusammenführen.
Automatisierung:
- Erkennung: Automatische Wortanzahl-Prüfung
- Erweiterung: KI-gestützte Recherche und Content-Produktion mit dreistufiger Qualitätskontrolle
- Zusammenführung: Wenn eine verwandte Seite existiert, Inhalte intelligent mergen
Kaputte interne Links
Links, die ins Leere führen. Schlecht für Nutzer, schlecht für Crawling. Jeder kaputte Link ist eine Reibungsfläche im User Experience und ein verpasstes Crawl-Budget.
Beispiel: Ein Link zu /blog/seo-tipps-2024/, aber die Seite wurde umbenannt. 404-Fehler – für jeden Besucher.
Automatisierung:
- Erkennung: Vollständiger Link-Check bei jedem Build (nicht einmal im Monat, bei jedem Build)
- Auto-Fix: Unser Sanitize-Prozess korrigiert bekannte Link-Muster automatisch
- Prävention: Redirects werden automatisch generiert, wenn Seiten verschoben werden
Fehlende Zitationen
Seiten ohne externe Quellen. Google erwartet E-E-A-T – Expertise, Erfahrung, Autorität, Vertrauenswürdigkeit. Ohne Belege fehlt das T. Ein Artikel ohne Quellen kann nicht glaubwürdig sein, auch wenn der Inhalt richtig ist.
Beispiel: Ein 2.000-Wort-Artikel über KI im Marketing ohne einen einzigen externen Link. Keine Studie, kein Branchenbericht, keine Quelle. Google bewertet das als unbelegte Meinung.
Automatisierung:
- Erkennung: Automatische Zählung externer Links pro Seite
- Standard: Mindestens 10 externe Zitationen pro Fachartikel
- Lösung: KI-gestützte Quellenrecherche bei der nächsten Überarbeitung
Überschriftenstruktur
H2 nach H4, nummerierte Überschriften, fehlende H1 – Probleme, die Google und Screenreader verwirren. Eine kaputte Heading-Hierarchie macht die Seite für automatisierte Systeme und für Menschen mit Screenreadern unbrauchbar.
Beispiel: Eine Seite springt von H2 direkt zu H4. Google versteht die Hierarchie nicht, Screenreader-Nutzer verlieren die Orientierung.
Automatisierung:
- Erkennung: Automatische Prüfung der Heading-Hierarchie (H1 -> H2 -> H3, keine Sprünge)
- Nummerierung: Nummerierte Überschriften (1. Einleitung, 2. Analyse) werden erkannt und entfernt
- H1-Prüfung: Genau eine H1 pro Seite, konsistent mit dem Meta-Titel
Unterverlinkte Seiten
Seiten mit weniger als 3 eingehenden internen Links. Google bewertet sie als unwichtig – selbst wenn der Inhalt stark ist. Link-Popularität ist ein wichtiges Ranking-Signal.
Beispiel: Ein Leitfaden mit 3.000 Wörtern und nur einem internen Link von der Startseite. Andere thematisch passende Seiten verlinken nicht darauf. Die Seite hat keine interne Link-Autorität.
Automatisierung:
- Erkennung: Automatische Linkanalyse zählt eingehende Links pro Seite
- Schwellwert: Unter 3 eingehende Links = unterverlinkt
- Lösung: Crosslinking findet thematisch passende Seiten und setzt kontextuelle Verlinkungen
Reword-Chancen
Seiten, die für relevante Keywords auf Seite 2–3 ranken. Kleine Änderungen an Titel, Description und Struktur können sie auf Seite 1 bringen. Das sind die einfachsten Rankings, die du gewinnen kannst – die Seite hat bereits Relevanz und Link-Autorität, braucht aber besseres On-Page-Signaling.
Beispiel: Eine Seite rankt auf Position 12 für Content Marketing B2B. Mit einem präziseren Titel und optimierter Description könnte sie in die Top 5 kommen.
Automatisierung:
- Erkennung: GSC-Daten zeigen, welche Keywords kurz vor dem Durchbruch stehen
- Priorisierung: Top 20% bekommen vollständige SEO-Überarbeitung, weitere 30% gezielte Optimierung
- Umsetzung: KI-gestützte Umformulierung von Titeln, Descriptions und H2-Struktur – abgestimmt auf die tatsächlichen Suchanfragen
- Kosten: ~0,04 € pro Seite
Content-Lücken
Keywords, nach denen Ihre Zielgruppe sucht – aber für die Sie keine Seite haben. Das sind verlorene Rankings und Conversions. Deine Wettbewerber ranken für diese Keywords und gewinnen den Traffic.
Beispiel: Ihre Wettbewerber ranken für KI im B2B-Vertrieb. Sie haben dazu nichts. Jede Suche geht an die Konkurrenz.
Automatisierung:
- Erkennung: GSC-Daten + Wettbewerbsanalyse zeigen fehlende Themen
- Priorisierung: Suchvolumen x Relevanz x Wettbewerbsstärke
- Produktion: Vollständige Content-Erstellung mit automatischer Qualitätskontrolle, Quellen und interner Verlinkung
News-Gathering
Branchennachrichten, neue Studien, Wettbewerber-Updates – automatisch gesammelt und den richtigen Seiten zugeordnet. Das spart manuelle Recherche und sorgt dafür, dass Content aktuell bleibt.
Beispiel: Eine neue Google-Studie zu Core Web Vitals erscheint. Unser System erkennt, welche Ihrer Seiten davon betroffen sind, und legt die Nachricht dort ab.
Automatisierung:
- Erkennung: Tägliche Scans von Branchennachrichten und Fachmedien
- Zuordnung: Nachrichten werden automatisch den thematisch passenden Seiten zugewiesen
- Quellenprüfung: Strukturierte Briefings mit Quellenangabe – keine Halluzination
Content-Aktualisierung (Refine)
Gesammelte Nachrichten werden in bestehende Artikel integriert – ohne den Originaltext zu zerstören. Das ist nicht einfach Nachrichtensammlung, sondern echte Integration neuer Information in bestehende Inhalte.
Beispiel: Ihr Artikel über SEO-Trends erhält automatisch einen neuen Absatz über die aktuelle Google-Änderung – mit Quelle, korrekt eingeordnet, im Stil Ihres Unternehmens.
Automatisierung:
- Integration: KI-gestützte Einarbeitung neuer Informationen in bestehende Texte
- Qualitätskontrolle: Dreistufig – Strategie, Ausführung, automatische Prüfung
- Stilguide: Jeder Text folgt Ihren Markenrichtlinien (Tonfall, Terminologie, Formatierung)
- Kosten: ~0,06 € pro Seite
Metadaten
Titel-Länge, Description-Länge, fehlende Felder, doppelte H1-Tags. Jede Seite braucht vollständige, einzigartige Metadaten. Diese Felder sind oft das erste, was Google sieht.
Links und URLs
Kaputte Links, verwaiste Seiten, URL-Muster, Canonical Tags, Hreflang für mehrsprachige Seiten. Richtige Link-Struktur ist die Grundlage für Crawlability.
Strukturierte Daten
JSON-LD Schema → (Article, WebSite, CollectionPage), fehlende Autoren-Informationen, E-E-A-T-Signale. Strukturierte Daten helfen Google, den Inhalt zu verstehen.
Technische Qualität
Bilder ohne Alt-Text, Bilder ohne Dimensionen, robots.txt, Sitemap-Vollständigkeit, Security Headers. Technische Fehler kosten Rankings und User Experience.
Ihre Website verdient diese Analyse
17 Prüfpunkte, echte Daten, keine Vermutungen. Wir zeigen Ihnen in 48 Stunden, wo Ihre Website steht – und was als Nächstes passieren sollte. Das ist echte Arbeit, nicht Theorie.