Auf dieser Seite
182Seiten: umfasst Googles internes Bewertungshandbuch für Quality Rater
16.000Bewerter: weltweit prüfen Suchergebnisse anhand dieser Kriterien
3Neue Spam-Kategorien: Expired Domain, Site Reputation und Scaled Content Abuse seit 2026
96,55%Unsichtbar bei Google: Anteil aller Webseiten, die keinen Traffic von Google erhalten (Ahrefs)

Google beschäftigt weltweit etwa 16.000 Quality Rater, die Suchergebnisse anhand eines 182-seitigen Handbuchs (PDF) bewerten. Diese Search Quality Evaluator Guidelines (SQEG) definieren, was Google als "Qualität" versteht. Gleichzeitig widersprechen sie einem erheblichen Teil dessen, was die SEO-Branche lehrt.

Im März 2026 hat Google die Guidelines erstmals seit Januar 2025 aktualisiert. Die Neuerungen umfassen neue AI-Overview-Beispiele und überarbeitete YMYL-Definitionen, doch die grundlegende Bewertungslogik bleibt unverändert. Google selbst stuft das Update als "minor" ein. Die Richtung bleibt dieselbe: Trust ist der primäre Hebel, und E-E-A-T ist kein Score, den man optimieren kann.

Das Dokument: Umfang und Grenzen

Quality Rater bewerten Suchergebnisse, nachdem Googles Algorithmus sie gerankt hat. Ihre Bewertungen verschieben keine einzelnen Seiten. Google nutzt die aggregierten Bewertungen, um seine Ranking-Systeme zu trainieren und zu validieren.

Das bedeutet folgendes: Die SQEG beschreiben Googles Qualitätsmodell und die Kriterien, für die der Algorithmus optimiert werden soll. Nicht alle aktuellen Ranking-Signale (wie NavBoost-Klickdaten) sind darin enthalten, weil Rater sie nicht sehen. Die Richtung, in die Google seinen Algorithmus entwickelt, ist jedoch klar definiert.

Danny Sullivan hat 2024 explizit klargestellt: "Not a thing. Not a ranking factor." Gemeint war die verbreitete Vorstellung, Google berechne einen E-E-A-T-Score. John Mueller ergänzte 2025: E-E-A-T ist eine Bewertungsdoktrin für Quality Rater, kein Wert, den man einer Seite hinzufügen kann. Shaun Anderson (Hobo Web) fasst es präzise zusammen: E-E-A-T ist die öffentlich kommunizierte Doktrin. Das PQ-System (Page Quality) ist die algorithmische Implementierung.

Neue Spam-Kategorien 2026: Was B2B-Unternehmen beachten müssen

Google definiert drei neue Spam-Kategorien, die besonders B2B-Unternehmen mit Content-Marketing-Strategien betreffen.

Expired Domain Abuse zielt auf den Kauf alter Domains mit bestehenden Backlinks ab, die dann mit minderwertigen Inhalten gefüllt werden. Diese Praxis manipuliert Rankings durch bestehende Autorität, ohne echten Nutzen zu schaffen. Wer erwägt, eine etablierte Domain zu kaufen und als Subdomain oder Subdirectory einzubinden, sollte wissen: Subdomain-Strukturen kosten laut aktuellen Migrationsdaten bis zu 47% organischen Traffic, wenn die Architektur falsch gewählt wird.

Site Reputation Abuse betrifft Websites, die ihre Reputation missbrauchen, indem sie minderwertigen Content von Dritten unter ihrem Markennamen veröffentlichen. Für B2B-Unternehmen bedeutet das: Gastbeiträge und Partnercontent müssen denselben Qualitätsstandards entsprechen wie eigene Inhalte.

Scaled Content Abuse erfasst die Massenproduktion von Inhalten ohne Nutzen. Dies gilt unabhängig davon, ob Inhalte manuell oder mit KI erstellt werden. KI-Content ist akzeptabel, aber nur wenn er echten Nutzen bietet und nicht nur bestehende Quellen umformuliert. Laut Search Engine Journal hat Google diese Kategorien eingeführt, um Muster zu erfassen, die durch technische Signale allein schwer erkennbar sind.

Die drei Aussagen, die die SEO-Branche verschweigt

Kleine Websites können die höchste Bewertung erhalten

Google schreibt in den SQEG dreimal explizit:

"Small websites may have little or no reputation information. This is not indicative of high or low quality."

"A page can still receive a High rating without reputation information."

"A page can still receive a Highest rating without reputation information."

Das steht im direkten Widerspruch zur gängigen SEO-Beratung, die "Domain Authority" als Voraussetzung für gute Rankings behandelt. Google sagt explizit: Ein Fisch-und-Chips-Restaurant, ein lokales Kulturzentrum, eine Nischen-Website mit tiefer Expertise können alle die Bewertung "Highest" erreichen.

Ein mittelständisches Maschinenbau-Unternehmen mit 20 tief recherchierten Fachseiten kann in Googles Qualitätsmodell höher bewertet werden als ein Branchenportal mit 5.000 generischen Seiten. Die Größe der Website ist laut Google kein Qualitätskriterium, die Tiefe der Expertise schon. Wer wissen möchte, wie ein SEO-Audit diese Qualitätsdimensionen systematisch misst, findet dort konkrete KPIs für beide Sichtbarkeits-Ebenen.

Das Dokument enthält kein einziges Mal folgende Begriffe:

Gängige SEO-Weisheit Im SQEG erwähnt?
Backlinks Nein
Domain-Alter Nein
Keyword-Dichte Nein
Content-Länge (Wortanzahl) Nein
Schema Markup Nein
Seitengeschwindigkeit Nein
Social Signals Nein
Veröffentlichungsfrequenz Nein

Wichtige Einschränkung: Das bedeutet nicht, dass Google diese Faktoren ignoriert. Es bedeutet, dass sie nicht Teil des Qualitätsmodells sind, gegen das Google seinen Algorithmus kalibriert. Technische Signale wie Core Web Vitals existieren in anderen Systemen, sind aber von der Content-Qualitätsbewertung getrennt.

Agenturen, die hauptsächlich Backlink-Pakete und technisches SEO verkaufen, adressieren Faktoren, die in Googles eigenem Qualitätsmodell nicht vorkommen. Die Qualitätsbewertung basiert auf Inhalt, Expertise und Vertrauen, nicht auf technischen Signalen. Für KMU, die verstehen wollen, wie Content, Seitenstruktur und Links zusammenspielen, beschreibt die ABC-Formel für Google-Sichtbarkeit diese drei Hebel in konkreten Schritten.

KI-Content ist nicht das Problem: Masse ohne Qualität schon

Googles exakte Position zu KI-generiertem Content:

"Generative AI can be a helpful tool for content creation, but like any tool, it can also be misused."

"The use of Generative AI tools alone does not determine the level of effort or Page Quality rating."

Die SQEG unterscheiden klar zwischen legitimem KI-Einsatz und "Scaled Content Abuse":

Scaled Content Abuse (Spam)

  • Massenhaft produzierte Inhalte ohne Nutzen
  • Fragen-Antwort-Format aus "People Also Ask"
  • Themen passen nicht zum Zweck der Website
  • Kein redaktioneller Überblick erkennbar
  • Templated Formatting über alle Seiten

Legitimer KI-Einsatz

  • Redaktionell geprüfte Inhalte
  • Originale Analyse und Perspektive
  • Thematisch fokussiert auf Kernexpertise
  • Sichtbare Autorenschaft und Quellenangaben
  • Individuell strukturierter Content

Ein konkretes Beispiel aus den SQEG: Ein Artikel, der mit "As a language model, I don't have real-time data and my knowledge cutoff date is September 2021" beginnt, wird als "spam (scaled content abuse)" bewertet. Nicht weil er KI-generiert ist, sondern weil er ungeprüft veröffentlicht wurde.

Content AI Agents, die mit redaktioneller Kontrolle arbeiten, produzieren laut Googles eigenem Qualitätsmodell keinen Spam. Spam entsteht durch fehlende Qualitätskontrolle, unabhängig vom Produktionswerkzeug.

Das E-E-A-T-Framework: Experience als Game-Changer

Trust steht im Zentrum

Google definiert Trust als das zentrale Element von E-E-A-T:

"The most important member at the center of the E-E-A-T family is Trust."

Trust bedeutet: "Consider the extent to which the page is accurate, honest, safe, and reliable." Nicht "bekannt" oder "groß", sondern genau, ehrlich, sicher und zuverlässig.

Entscheidend dabei: Google misstraut allem, was ein Website-Betreiber über sich selbst schreibt, solange es nicht durch externe Quellen bestätigt wird. Backlinks von anerkannten Quellen bleiben laut Anderson die "truest form" von Authority: "These are incredibly hard to come by, and act as moats for your Authority." On-site-Content allein erzeugt keine Trust-Signale, die Google überzeugen. PR-Erwähnungen, Fachpublikationen und redaktionelle Backlinks sind strukturelle Voraussetzungen für organische Sichtbarkeit, besonders für jüngere Domains.

Experience als vierte Säule

Das erweiterte E-E-A-T-Framework positioniert Experience als vierte Säule neben Expertise, Authoritativeness und Trustworthiness. Google definiert Experience als "first-hand, life experience on the topic at hand" – praktische Erfahrung mit Produkten, Dienstleistungen oder Prozessen.

Traditioneller B2B-Content

  • Theoretische Produktbeschreibungen
  • Generische Branchenanalysen
  • Umformulierte Pressemitteilungen
  • Keyword-optimierte Texte ohne Tiefe

Experience-basierter B2B-Content

  • Konkrete Implementierungsbeispiele
  • Praxiserfahrung aus Kundenprojekten
  • Spezifische Herausforderungen und Ergebnisse
  • Messbare Resultate und Learnings

Content muss demonstrieren, dass Autoren tatsächliche Erfahrung mit den beschriebenen Produkten, Prozessen oder Strategien haben. Reine Expertise ohne praktische Anwendung reicht nicht mehr.

Die vier Dimensionen in der Praxis

Dimension Was Google bewertet Wie B2B es demonstriert
Experience Ersthand-Erfahrung des Autors mit dem Thema Fallstudien, Projektberichte, dokumentierte Ergebnisse
Expertise Fachwissen und Kompetenz des Autors Ausbildung, Zertifizierungen, Branchenerfahrung
Authoritativeness Wird die Website als Go-to-Quelle anerkannt? Branchenerwähnungen, Konferenzvorträge, Zitationen
Trust Genauigkeit, Ehrlichkeit, Zuverlässigkeit Quellenangaben, Kontaktdaten, transparente Kommunikation

So bewerten Quality Rater E-E-A-T

Die SQEG beschreiben drei Evidenzquellen:

  1. Was Website und Autor über sich sagen – Über-uns-Seite, Autorenprofil, Impressum
  2. Was andere über Website und Autor sagen – unabhängige Reviews, Branchenerwähnungen
  3. Was auf der Seite selbst sichtbar ist – die Qualität des Contents demonstriert Expertise

Erster Schritt der Rater: Sie prüfen die Über-uns-Seite. Google instruiert sie explizit:

"Look at the 'About us' page on the website or profile page of the content creator as a starting point."

Ihre Über-uns-Seite ist nicht Marketing-Beiwerk. Sie ist das erste, was Googles Qualitätsprüfer bewerten. Fehlende Teamvorstellung, fehlende Kontaktdaten, fehlende Unternehmenshistorie – all das senkt die E-E-A-T-Bewertung.

Die Ahrefs-Analyse der Quality Rater Guidelines bestätigt diesen Befund aus Practitioner-Perspektive: Rater werden explizit angewiesen, Erwähnungen in "news articles, Wikipedia articles, blog posts, magazine articles, forum discussions, and ratings from independent organizations" zu suchen. Was auf der eigenen Website steht, zählt als Ausgangspunkt, nicht als Beweis.

Kostenlose Erstanalyse – Wie steht Ihre Website in Googles Qualitätsmodell? Wir bewerten Ihre Seiten anhand der tatsächlichen Quality Rater Kriterien, nicht anhand von SEO-Mythen. Jetzt Analyse anfordern

Page Quality Rating und Needs Met Rating: Die zwei Bewertungsachsen

Quality Rater vergeben für jede Seite, die sie prüfen, zwei voneinander unabhängige Bewertungen. Diesen Unterschied versteht die SEO-Branche selten, und das führt zu Strategien, die an der falschen Stelle optimieren.

Page Quality Rating: Was die Seite ist

Das Page Quality (PQ) Rating bewertet die Seite selbst, unabhängig davon, für welche Suchanfrage sie erscheint. Rater beurteilen, ob die Seite ihren Zweck gut erfüllt, ob E-E-A-T erkennbar ist und ob der Main Content (MC) die Qualitätsanforderungen erfüllt.

Die Skala reicht von Lowest über Low, Medium, High bis Highest. Laut den SQEG sind die wichtigsten Faktoren für das PQ-Rating:

  • Der Zweck der Seite (Purpose)
  • E-E-A-T des Autors und der Website
  • Qualität und Umfang des Main Content
  • Informationen über den Verantwortlichen für den Content
  • Reputation der Website und des Autors

Cyrus Shepard, der als Quality Rater gearbeitet hat, beschreibt das PQ-Rating als Bewertung der Seite in Isolation: "Raters assign two scores to every page they are assigned: Page Quality and Needs Met." Eine Seite kann ein hohes PQ-Rating erhalten, auch wenn sie für die konkrete Suchanfrage nicht optimal passt. Umgekehrt kann eine Seite die Suchanfrage gut beantworten, aber trotzdem ein niedriges PQ-Rating erhalten, weil E-E-A-T fehlt.

Für B2B-Unternehmen bedeutet das: PQ-Optimierung ist Daueraufgabe, nicht Einmalprojekt. Jede Seite muss für sich stehen, mit erkennbarem Zweck, benanntem Autor und nachweisbarer Expertise.

Needs Met Rating: Was die Seite für diese Suchanfrage leistet

Das Needs Met (NM) Rating bewertet, wie gut eine Seite die konkrete Suchanfrage beantwortet. Die Skala reicht von Fails to Meet über Slightly Meets, Moderately Meets, Highly Meets bis Fully Meets.

Jennifer Slegg, die die SQEG seit Jahren analysiert, erklärt den Unterschied präzise: "Needs met refers to how well your page satisfies the user's query". Das höchste Rating – "Fully Meets" – erreichen nur Seiten, die eine Suchanfrage so vollständig beantworten, dass der Nutzer keine weiteren Quellen benötigt.

Fails to Meet / Slightly Meets

  • Seite beantwortet die Frage nicht direkt
  • Nutzer muss weitersuchen
  • Inhalt passt nicht zur Suchintention
  • Seite lädt nicht oder ist nicht zugänglich
  • Irreführender Titel, der nicht hält, was er verspricht

Highly Meets / Fully Meets

  • Direkte, vollständige Antwort auf die Suchanfrage
  • Kein weiterer Klick notwendig
  • Format passt zur Intention (Liste, Tabelle, Erklärung)
  • Alle relevanten Aspekte der Frage abgedeckt
  • Nutzer kehrt nicht zur Suchergebnisseite zurück

"Fully Meets" ist selten – und bewusst so konzipiert. Google reserviert diese Bewertung für Seiten, die eine Suchanfrage so präzise treffen, dass kein Informationsbedarf offen bleibt. Für navigational queries (Nutzer sucht eine bestimmte Website) oder simple fact queries (Nutzer sucht eine konkrete Zahl) ist "Fully Meets" erreichbar. Für komplexe B2B-Themen ist "Highly Meets" das realistische Ziel.

Warum beide Ratings zusammen entscheiden

PQ und NM sind unabhängig, aber nicht gleichwertig. Eine Seite mit niedrigem PQ-Rating kann kein hohes NM-Rating erhalten – Google instruiert Rater explizit, bei Low-Quality-Seiten das NM-Rating entsprechend zu begrenzen. Umgekehrt schützt ein hohes PQ-Rating nicht vor einem niedrigen NM-Rating, wenn die Seite thematisch nicht zur Suchanfrage passt.

Das hat eine direkte strategische Konsequenz: B2B-Unternehmen, die ausschließlich auf Keyword-Optimierung setzen, adressieren nur das NM-Rating. Wer ausschließlich auf E-E-A-T-Signale setzt, adressiert nur das PQ-Rating. Organische Sichtbarkeit entsteht, wenn beide Dimensionen gleichzeitig erfüllt sind.

Fully Meets (NM) + Highest (PQ)Optimum
Highly Meets (NM) + High (PQ)Zielniveau B2B
Moderately Meets (NM) + Medium (PQ)Durchschnitt
Slightly Meets (NM) + Low (PQ)Sichtbarkeitsrisiko

Needs Met im B2B-Kontext: Suchintention ernst nehmen

B2B-Suchanfragen haben oft eine komplexe Intention. Wer nach "ERP-System für Fertigungsunternehmen" sucht, will keine Produktseite, sondern eine Entscheidungshilfe. Wer nach "Unterschied zwischen MES und ERP" sucht, will eine klare Erklärung, keine Verkaufspräsentation.

Google unterscheidet in den SQEG vier Intentionstypen:

Intentionstyp Beispiel B2B Needs-Met-Anforderung
Know "Was ist ein SLA?" Vollständige, präzise Erklärung
Know Simple "Wie viele Mitarbeiter hat SAP?" Eine direkte Antwort
Do "ERP-Anforderungsliste erstellen" Handlungsanleitung mit konkreten Schritten
Website "Salesforce Preise" Direkte Navigation zur Preisseite

Für "Know"-Anfragen – die im B2B-Bereich dominieren – ist "Highly Meets" erreichbar, wenn der Content alle relevanten Aspekte abdeckt, klar strukturiert ist und keine offenen Fragen lässt. Slegg empfiehlt, Google Search Console-Daten zu nutzen, um zu prüfen, welche Suchanfragen auf welche Seiten führen, und dann zu bewerten, ob der Content die Intention tatsächlich erfüllt.

Die Verbindung zu AI Overviews ist direkt: Google trainiert seine KI-Antworten auf denselben Qualitätskriterien. Seiten, die "Highly Meets" erreichen, sind strukturell besser positioniert, als Quelle in AI Overviews zitiert zu werden, weil sie genau das liefern, was Google als vollständige Antwort definiert. Wer KI-Sichtbarkeit als strategisches Ziel verfolgt, optimiert damit gleichzeitig für klassische Rankings und für AI-Overview-Zitierungen.

AI Overviews: Neue Bewertungskriterien

Die aktualisierten Guidelines vom März 2026 führen erstmals konkrete Beispiele für die Bewertung von AI Overviews ein. Ein Signal, dass Google KI-generierte Antworten und klassische Suchergebnisse zunehmend nach denselben Qualitätskriterien behandelt. Die Bewertungslogik bleibt dieselbe: Hilfsbereitschaft, Korrektheit und Vollständigkeit.

Für Content, der auf AI-Overview-Sichtbarkeit abzielt, gelten keine separaten Regeln:

  • Direkte Antworten auf W-Fragen (Was, Wie, Warum)
  • Strukturierte Daten mit Listen und Tabellen
  • Fokussierte Absätze mit "Passage-level clarity"
  • Präzise, faktenbasierte Sätze ohne Füllwörter

Diese Entwicklung verstärkt die Bedeutung von KI-Sichtbarkeit als eigenständige Disziplin neben traditioneller SEO. Wer E-E-A-T-Kriterien erfüllt, ist strukturell gut positioniert – für klassische Rankings und für AI Overviews gleichzeitig.

Die Conflict-of-Interest-Falle

Die SQEG enthalten eine Warnung, die B2B-Unternehmen direkt betrifft:

"The website or content creator may not be a trustworthy source if there is a clear conflict of interest."

Googles Beispiel: "Reviews" des eigenen