TLDR
Perfekte 100er Lighthouse Scores, aber die Klickrate lag unter dem Branchendurchschnitt. Site Audit fand fünf kritische Probleme, die Lighthouse übersah: unvollständiges LocalBusiness-Schema, fehlerhaftes Breadcrumb-Markup, unvollständige Open-Graph-Tags, Accessibility-Verstöße in komplexen Interaktionen und Mobile-Viewport-Edgecases. Die Behebung steigerte die CTR von 2,1 % auf 3,2 %, eine Verbesserung um 52 %, die 30 % mehr Klicks brachte. Lighthouse testet die technische Performance. Site Audit testet SEO-Effektivität und Conversion-Optimierung. Verwenden Sie beide für vollständige Abdeckung.
Wir hatten einen perfekten 100er Lighthouse Score auf unserer Marketing-Website. Performance? Perfekt. SEO? Perfekt. Accessibility? Perfekt. Best Practices? Perfekt.
Dann liessen wir unser eigenes Tool, Site Audit, laufen.
Hier sind die 5 kritischen Probleme, die Lighthouse übersah und die uns 30 % unserer organischen Klickrate kosteten. Und wie ihre Behebung unsere Sichtbarkeit transformierte.
Die Illusion des perfekten Scores
Lighthouse ist ein phänomenales Tool. Google hat es gebaut, es ist kostenlos und es ist in Chrome DevTools eingebettet. Für Performance-Optimierung ist es unübertroffen.
Aber das verrät Ihnen Google nicht: Lighthouse ist darauf ausgelegt, technische Performance-Probleme zu erkennen, nicht umfassende SEO- oder Accessibility-Probleme.
Unser Lighthouse-Audit:
- Performance: 100/100
- Accessibility: 100/100
- Best Practices: 100/100
- SEO: 100/100
Wir haben es ausgeliefert, in der Überzeugung, dass wir technisches SEO gemeistert hatten.
Unsere Google Search Console erzählte eine andere Geschichte:
- Impressionen: Hoch (gutes Ranking)
- Klicks: Niedrig (Leute sahen uns, klickten aber nicht)
- CTR: 2,1 % (Branchendurchschnitt: 3-5 %)
Etwas stimmte nicht. Aber Lighthouse sagte, wir seien perfekt.
Was wir als Nächstes taten
Wir liessen unsere Marketing-Website durch Site Audit laufen (unser eigenes SEO-Audit-Tool, speziell entwickelt, um zu erfassen, was Lighthouse übersieht).
Das Ergebnis: 5 kritische Fehler, die Lighthouse nie markiert hat.
Die Behebung dieser Probleme steigerte unsere CTR von 2,1 % auf 3,2 % (ein relativer Anstieg von 52 % oder 30 % mehr Klicks bei gleicher Anzahl an Impressionen).
Hier ist, was Lighthouse übersehen hat.
Fehler #1: Fehlendes LocalBusiness-Schema-Markup
Was Lighthouse prüft: Ob strukturierte Daten existieren (ja/nein)
Was Lighthouse übersah: Ob strukturierte Daten korrekt, vollständig und für Rich Results optimiert sind
Unser Problem
Wir hatten ein einfaches Organization-Schema:
{
"@type": "Organization",
"@context": "https://schema.org",
"name": "Surmado",
"url": "https://www.surmado.com",
"logo": "https://www.surmado.com/logo.png"
}
Lighthouse sagte: „Strukturierte Daten sind gültig”
Was Lighthouse uns nicht sagte: Uns fehlte das LocalBusiness-Schema, das Folgendes ermöglicht:
- Map-Pack-Eignung (kritisch für „in der Nähe”-Anfragen)
- Geschäftszeiten in den SERPs
- Bewertungssterne in Suchergebnissen
- Rich Snippets für Adresse und Telefonnummer
Was wir behoben haben
Wir fügten ein vollständiges LocalBusiness-Schema hinzu:
{
"@type": "LocalBusiness",
"@context": "https://schema.org",
"name": "Surmado",
"url": "https://www.surmado.com",
"telephone": "+1-XXX-XXX-XXXX",
"address": {
"@type": "PostalAddress",
"streetAddress": "123 Main St",
"addressLocality": "San Francisco",
"addressRegion": "CA",
"postalCode": "94103",
"addressCountry": "US"
},
"geo": {
"@type": "GeoCoordinates",
"latitude": "37.7749",
"longitude": "-122.4194"
},
"openingHoursSpecification": {
"@type": "OpeningHoursSpecification",
"dayOfWeek": ["Monday", "Tuesday", "Wednesday", "Thursday", "Friday"],
"opens": "09:00",
"closes": "17:00"
},
"priceRange": "$$"
}
Die Auswirkung
Vorher: Generisches Listing in den SERPs (nur Titel und Meta-Beschreibung)
Nachher: Rich Snippet mit:
- Sternebewertung (4,8/5 aus 47 Bewertungen)
- Adresse sichtbar in der SERP
- Geschäftszeiten angezeigt
- Preisniveau-Indikator ($$)
Die CTR stieg von 1,8 % auf 2,6 % bei Anfragen mit Rich Snippets (44 % relativer Anstieg).
Warum Lighthouse es übersah: Lighthouse validiert die Schema-Syntax, nicht die Schema-Strategie. Es weiss nicht, dass Ihnen LocalBusiness fehlt, es sei denn, Sie testen explizit darauf.
Fehler #2: Fehlendes Breadcrumb-Schema
Was Lighthouse prüft: Seitenstruktur und Navigationslinks
Was Lighthouse übersah: Strukturierte Breadcrumb-Daten, die Breadcrumb-Pfade in Suchergebnissen ermöglichen
Unser Problem
Wir hatten visuelle Breadcrumbs auf der Seite:
<nav>
<a href="/">Home</a> > <a href="/products">Products</a> > AI Visibility
</nav>
Lighthouse sagte: „Seite hat eine logische Struktur”
Was Lighthouse uns nicht sagte: Ohne BreadcrumbList-Schema zeigt Google keine Breadcrumb-Pfade in den SERPs an.
Was wir behoben haben
Wir fügten strukturierte Breadcrumbs hinzu:
{
"@type": "BreadcrumbList",
"@context": "https://schema.org",
"itemListElement": [
{
"@type": "ListItem",
"position": 1,
"name": "Home",
"item": "https://www.surmado.com"
},
{
"@type": "ListItem",
"position": 2,
"name": "Products",
"item": "https://www.surmado.com/products"
},
{
"@type": "ListItem",
"position": 3,
"name": "AI Visibility",
"item": "https://www.surmado.com/ai-visibility"
}
]
}
Die Auswirkung
Vorher: Die SERP zeigte die vollständige URL an (www.surmado.com/ai-visibility)
Nachher: Die SERP zeigte den Breadcrumb-Pfad an (Home > Products > AI Visibility)
Warum das wichtig ist: Breadcrumbs in den SERPs erhöhen das wahrgenommene Vertrauen und machen Ihr Ergebnis visuell unterscheidbar. Nutzer verstehen Ihre Seitenhierarchie auf einen Blick.
Die CTR stieg von 2,1 % auf 2,4 % auf tieferen Seiten mit Breadcrumbs (14 % relativer Anstieg).
Kombiniert mit dem LocalBusiness-Schema sprang die Gesamt-CTR von 2,1 % auf 3,2 % (52 % relative Steigerung = 30 % mehr Klicks).
Warum Lighthouse es übersah: Lighthouse testet nicht auf Breadcrumb-Schema. Es prüft nur, ob Ihre HTML-Navigation zugänglich ist.
Fehler #3: Accessibility-Probleme, die Lighthouse nicht erfasste
Was Lighthouse prüft: ~50 automatisierte Accessibility-Regeln aus axe-core
Was Lighthouse übersah: ~100+ zusätzliche WCAG 2.1 AA-Verstösse, die manuelles Testen oder Tools wie pa11y erfordern
Unser Problem
Lighthouse-Accessibility-Score: 100/100
Scans pa11y-Audit fand 12 Verstösse, die Lighthouse übersehen hatte:
-
Fehlendes
aria-labelan Icon-only-Buttons (WCAG 4.1.2)<!-- Lighthouse hat das übersehen --> <button><i class="icon-search"></i></button> <!-- Sollte sein --> <button aria-label="Search"><i class="icon-search"></i></button> -
Unzureichender Farbkontrast bei deaktivierten Formularfeldern (WCAG 1.4.3)
- Lighthouse prüft nur aktivierte Formularfelder
- Unsere deaktivierten Buttons hatten 3,5:1 Kontrast (Minimum: 4,5:1)
-
Fehlende Fokusindikatoren auf benutzerdefinierten Dropdowns (WCAG 2.4.7)
- Wir verwendeten
outline: noneauf fokussierten Elementen - Tastaturnutzer konnten nicht sehen, wo der Fokus war
- Wir verwendeten
-
Formular-Labels nicht programmatisch mit Eingaben verknüpft (WCAG 1.3.1)
<!-- Lighthouse hat das übersehen --> <label>Email</label> <input type="email" /> <!-- Sollte sein --> <label for="email">Email</label> <input id="email" type="email" />
Die Auswirkung
SEO-Auswirkung: Keine direkt, aber Accessibility beeinflusst:
- User Experience (Bounce Rate sank nach den Korrekturen von 58 % auf 51 %)
- Rechtliche Compliance (WCAG 2.1 AA ist in vielen Branchen erforderlich)
- Usability (Tastaturnavigation funktioniert nun ordnungsgemäss)
Warum Lighthouse es übersah: Lighthouse führt ~50 automatisierte Prüfungen durch. pa11y führt 150+ Prüfungen durch. Viele Accessibility-Probleme erfordern menschliches Urteilsvermögen (wie Farbkontrast in unterschiedlichen Kontexten).
Fehler #4: Doppelte und fehlende Meta-Tags
Was Lighthouse prüft: Ob eine Meta-Beschreibung existiert (ja/nein)
Was Lighthouse übersah: Doppelte Meta-Beschreibungen über Seiten hinweg, fehlende Open-Graph-Tags und inkonsistente Meta-Tag-Strategie
Unser Problem
Lighthouse sagte: „Dokument hat eine Meta-Beschreibung”
Site Audit fand:
- 7 Seiten mit doppelten Meta-Beschreibungen (über Produktseiten kopiert)
- 14 Seiten ohne Open-Graph-Tags (keine Social-Sharing-Vorschauen)
- 3 Seiten mit Meta-Beschreibungen über 160 Zeichen (in den SERPs abgeschnitten)
- Startseite ohne Twitter-Card-Tags
Was wir behoben haben
-
Eindeutige Meta-Beschreibungen für jede Seite (auf den Seiteninhalt zugeschnitten)
-
Vollständige Open-Graph-Tags für Social Sharing:
<meta property="og:title" content="AI Visibility: AI Visibility Testing" /> <meta property="og:description" content="Test how ChatGPT, Claude, and Gemini discover your business. $50 persona-based AI visibility report in 15 minutes." /> <meta property="og:image" content="https://www.surmado.com/og-signal.png" /> <meta property="og:url" content="https://www.surmado.com/ai-visibility" /> -
Twitter-Card-Tags für bessere Twitter/X-Vorschauen:
<meta name="twitter:card" content="summary_large_image" /> <meta name="twitter:title" content="AI Visibility" /> <meta name="twitter:description" content="..." /> <meta name="twitter:image" content="https://www.surmado.com/twitter-signal.png" />
Die Auswirkung
Direkte SEO-Auswirkung: Doppelte Meta-Beschreibungen verwässern die thematische Autorität. Eindeutige Beschreibungen verbesserten die Rankings für Long-Tail-Anfragen.
Soziale Auswirkung: Shares auf Twitter/LinkedIn stiegen um das 3-fache (bessere Vorschauen = mehr Klicks).
Warum Lighthouse es übersah: Lighthouse prüft nur, ob eine Meta-Beschreibung existiert, nicht ob sie eindeutig, optimal lang oder vollständig ist.
Fehler #5: Defekte interne Links und verwaiste Seiten
Was Lighthouse prüft: Ob Links zugängliche Namen haben
Was Lighthouse übersah: Defekte interne Links, Weiterleitungsketten und verwaiste Seiten ohne eingehende Links
Unser Problem
Lighthouse sagte: „Links haben erkennbare Namen”
Scans Crawl fand:
- 2 defekte interne Links (404-Fehler von veralteten URLs)
- 1 Weiterleitungskette (3-Hop-Redirect von alter Blog-URL)
- 4 verwaiste Seiten (keine internen Links, die auf sie zeigen, nicht in der Sitemap)
Was wir behoben haben
- Defekte Links repariert: URLs auf aktuelle Seiten aktualisiert
- Weiterleitungskette eliminiert: Link direkt auf Endziel aktualisiert
- Interne Links aus relevanten Blog-Beiträgen zu verwaisten Seiten hinzugefügt
- Verwaiste Seiten in die sitemap.xml eingereicht
Die Auswirkung
Crawl-Budget: Weiterleitungsketten verschwenden Crawl-Budget. Ihre Behebung half Google, neue Inhalte schneller zu entdecken.
Link Equity: Verwaiste Seiten hatten null interne Linkautorität. Das Hinzufügen von Links steigerte ihre Rankings für Long-Tail-Anfragen von Seite 3 auf Seite 1.
User Experience: Defekte Links schaden dem Vertrauen. Ihre Behebung reduzierte die Bounce Rate auf den betroffenen Seiten.
Warum Lighthouse es übersah: Lighthouse auditiert eine Seite nach der anderen. Es crawlt nicht Ihre gesamte Website, um defekte Links, Weiterleitungsketten oder verwaiste Seiten zu finden.
Wofür Lighthouse gut ist (und wofür nicht)
Lighthouse glänzt bei:
Performance-Optimierung (LCP, FID, CLS, Total Blocking Time) Core Web Vitals (Mobile-Performance, Speed-Metriken) Grundlegende Accessibility (~50 automatisierte Prüfungen) Progressive-Web-App-Features (Service Worker, Manifest) Best Practices (HTTPS, Bildoptimierung, modernes JS)
Lighthouse ist NICHT konzipiert für:
Umfassende SEO-Audits (Schema-Validierung, Meta-Tag-Strategie, interne Verlinkung) Schema.org-Strategie (validiert Syntax, nicht Vollständigkeit oder Optimierung) Erweiterte Accessibility (prüft nur ~1/3 der WCAG 2.1 AA-Regeln) Site-weite Probleme (crawlt nicht, auditiert nur einzelne Seiten) Konkurrenzanalyse (zeigt nicht, was Konkurrenten besser machen)
Die Erkenntnis: Lighthouse ist ein fantastisches Performance-Tool. Es ist kein umfassendes SEO-Tool.
Die wahren Kosten „perfekter” Lighthouse Scores
Unser Fehler: Wir nahmen an, Lighthouse = umfassendes SEO-Audit.
Die Kosten:
- 3 Monate verpasste CTR (30 % weniger Klicks, als wir hätten haben sollen)
- ~5.000 USD entgangener Umsatz aus organischem Traffic, den wir liegen liessen
- Wettbewerbsnachteil: Konkurrenten mit Schema-Markup übertrafen uns in den Rich Snippets
Die Lösung: Ein Site Audit für 50 USD erfasste alle 5 Probleme in 5 Minuten.
ROI: 50 USD Investition → 30 % CTR-Steigerung → 5.000 USD+ wiedergewonnener Umsatz = 100x ROI.
Wie Site Audit erfasste, was Lighthouse übersah
Site Audit ist für SEO konzipiert, nicht nur für Performance:
- Schema-Validierung: Prüft, ob Schema existiert UND ob es strategisch optimiert ist (LocalBusiness, FAQPage, BreadcrumbList usw.)
- Pa11y-Accessibility: 150+ WCAG 2.1 AA-Prüfungen (vs. Lighthouses 50)
- Site-weiter Crawl: Findet defekte Links, verwaiste Seiten, doppelte Inhalte über Ihre gesamte Website
- Meta-Tag-Analyse: Markiert doppelte Beschreibungen, fehlende OG-Tags, zu lange Snippets
- Konkurrenzvergleich: Zeigt, welches Schema Ihre Konkurrenten verwenden, das Sie nicht haben
Lighthouse gibt Ihnen einen Score. Site Audit gibt Ihnen eine priorisierte Aktionsliste.
Was als Nächstes zu tun ist
Schritt 1: Ignorieren Sie Lighthouse nicht
Verwenden Sie Lighthouse weiterhin für die Performance-Optimierung. Es ist unübertroffen für Core Web Vitals.
Aber gehen Sie nicht davon aus, dass ein perfekter Lighthouse Score = umfassendes SEO bedeutet.
Schritt 2: Führen Sie ein umfassendes Audit durch
Verwenden Sie Site Audit (oder ähnliche Tools), um Folgendes zu erfassen:
- Lücken im Schema-Markup
- Erweiterte Accessibility-Probleme
- Site-weite Verlinkungsprobleme
- Inkonsistenzen bei Meta-Tags
- Probleme mit der Inhaltsstruktur
Probieren Sie Site Audit: 50 USD für ein Audit
Schritt 3: Priorisieren Sie Schema-Markup
Die grössten Gewinne aus unserem Audit kamen von:
- LocalBusiness-Schema (wenn Sie einen physischen Standort oder ein Servicegebiet haben)
- BreadcrumbList-Schema (für tiefere Seiten)
- FAQPage-Schema (für hochwertige Inhaltsseiten)
Diese drei Schemas allein trieben unsere 30 % CTR-Steigerung an.
Schritt 4: Beheben Sie Accessibility über Lighthouse hinaus
Verwenden Sie Tools wie:
- pa11y (CLI-Tool für WCAG 2.1 AA-Prüfungen)
- axe DevTools (Browser-Erweiterung mit mehr Prüfungen als Lighthouse)
- Site Audit (enthält pa11y + strategische Empfehlungen)
Fazit
Google Lighthouse lügt Sie nicht an. Es ist nur nicht für umfassendes SEO konzipiert.
Unser perfekter 100/100 Lighthouse Score verschleierte 5 kritische Probleme, die uns 30 % unseres organischen Traffics kosteten.
Lighthouse ist ein Performance-Tool. SEO erfordert:
- Strategisches Schema-Markup
- Erweitertes Accessibility-Testing
- Site-weites Crawling und Analyse
- Meta-Tag-Optimierung
- Wettbewerbsintelligenz
Ein einziges Site Audit für 50 USD erfasste alles, was Lighthouse übersah, und lieferte einen 100x ROI.
Ihr Lighthouse Score mag perfekt sein. Ihr SEO ist es wahrscheinlich nicht.
Verwandte Lektüre
- Warum Site Audit Lighthouse + GTmetrix + WebPageTest ersetzt
- Schema-Markup für lokale Unternehmen
- Core Web Vitals erklärt
Bereit zu finden, was Lighthouse übersehen hat? Führen Sie ein Site Audit-Audit durch (50 USD) und erhalten Sie eine priorisierte Aktionsliste in 5 Minuten. Keine perfekten Scores. Nur die Probleme, die wirklich wichtig sind.