Frage-Erkennung
-

Analysiert Text auf Fragezeichen und Fragewörter (wer/was/wie/
). Berechnet Fragendichte relativ zur Wortzahl. Erkennt Fragen in H1–H3. PrĂŒft JSON-LD auf FAQ/Question/HowTo-Typen. Bewertet Vielfalt der Frage-Starter und kennzeichnet zu kurze Fragen. Liefert Beispielausschnitte.

Erfasst FragesÀtze und FAQ-Signale im Inhalt.
JSON‑LD
-

Findet script type="application/ld+json", parst JSON, zĂ€hlt gĂŒltige Blöcke. Extrahiert @type/@context und @graph-Nutzung. Bewertet SchlĂŒsselschemata (Organization, Website, WebPage, Article, Product, FAQPage, HowTo, BreadcrumbList, LocalBusiness). Meldet ungĂŒltiges JSON oder fehlenden schema.org-Kontext.

PrĂŒft LD-JSON-Blöcke auf GĂŒltigkeit und @type.
Listen‑Struktur
-

ZĂ€hlt UL/OL/DL/LI und die Quote nicht-leerer LI. Ermittelt maximale Verschachtelungstiefe und markiert ĂŒbermĂ€ĂŸige Tiefe. Meldet leere EintrĂ€ge. Vergibt Bonus fĂŒr UL/OL-Vielfalt und korrekt genutzte DL (DT/DD). Liefert Hinweise zu Umfang und Lesbarkeit.

Bewertet UL/OL/DL-Umfang, Dichte und Tiefe.
BOT Protection
-

Ruft die Seite mit Browser- und Bot-User-Agent ab. Erfasst Blockcodes (401/403/429/503) und Cloudflare/Challenge-Indikatoren. Liest X-Robots-Tag (noindex, nofollow, noai, noimageai, none). Meldet Inkonsistenzen, wenn Menschen Zugriff haben, Bots jedoch blockiert werden.

Vergleicht Human-/Bot-Abruf und X-Robots-Tag.
Sitemap
-

Liest robots.txt auf Sitemap-Hinweise, prĂŒft Fallback-Pfade, unterscheidet Index und URL-Sitemaps. Summiert Gesamt-URLs, wertet lastmod auf Frische (Tage) aus. Erkennt GZIP, Host-/Schema-Inkonsistenzen und HTTP-Fehler einzelner Sitemaps. Liefert Optimierungshinweise.

Findet und bewertet XML-Sitemaps inkl. AktualitÀt.
Bilder-Analyse
-

Testet IMG/OG-Bilder via HEAD/GET auf Content-Type und -Length. ZĂ€hlt defekte und ĂŒbergroße Dateien (Schwellwert). Erfasst Einsatz moderner Formate (WebP/AVIF/SVG), srcset/sizes und lazy-loading. Berechnet ALT-Text-Abdeckung und liefert Beispiel-URLs fĂŒr ok/oversize/broken.

PrĂŒft Bild-Erreichbarkeit, DateigrĂ¶ĂŸe, ALT-Texte und Formate.
Ladezeit
-

Ermittelt Antwortzeit/TTFB und DownloadgrĂ¶ĂŸe der Hauptseite. PrĂŒft GZip/Brotli-Kompression sowie Cache-Header (Cache-Control/ETag/Expires). Erkennt unnötige Redirect-Ketten. Gibt Hinweise zu Server-Antwortzeiten, RessourcengrĂ¶ĂŸen und HTTP-Caching.

Misst TTFB, TransfergrĂ¶ĂŸe, Kompression, Caching.
Microdata & RDFa
-

Analysiert itemscope/itemtype (Microdata) und vocab/prefix/typeof (RDFa). ZĂ€hlt Instanzen und Tiefe, erkennt Mischformen mit JSON-LD. PrĂŒft Anbindung an schema.org und grundlegende Konsistenz. Meldet fehlende Kontexte bzw. uneinheitliche Typisierung.

Detektiert Microdata/RDFa und GrundqualitÀt.
W3C‑Validation
-

Erkennt typische Markup-Fehler (ungĂŒltige Elemente/Attribute, nicht geschlossene Tags, falsche Verschachtelung). Bewertet Fehler-/Warnungsniveau und potenzielle Auswirkungen auf Semantik, Parser und Barrierefreiheit. Liefert kompakte Behebungshinweise.

Bewertet HTML-ValiditÀt nach W3C.
llm.txt
-

Ruft /llm.txt ab und prĂŒft HTTP-Status, GrĂ¶ĂŸe, Textinhalte. Validiert Richtlinien (z. B. Crawl/Train Allow/Deny) und optionale Agent-Spezifika. Ordnet die Datei gegenĂŒber robots.txt und X-Robots-Tag ein. Meldet Konflikte oder fehlende Direktiven.

ÜberprĂŒft /llm.txt und KI-Richtlinien.
Doctype & HTML-Version
-

Erkennt HTML5-Doctype und Position am Dokumentanfang. PrĂŒft Charset-Angaben (Meta/HTTP-Header) und Quirks-Mode-Risiken. Meldet veraltete/inkonsistente Deklarationen. Hebt Auswirkungen auf Rendering, Features und SEO-Signale hervor.

PrĂŒft Doctype, HTML-Version und Charset.
Mobile Friendly
-

PrĂŒft meta name="viewport" und typische Parameter. Bewertet responsive Images (srcset/sizes) sowie Basis-Heuristiken zu Text/UI (Touch-Targets, SchriftgrĂ¶ĂŸen, horizontales Scrollen). Erfasst CLS-Risiken durch fehlende Dimensionen. Liefert Basisempfehlungen.

Bewertet grundlegende mobile Eignung.
Broken-Link-Detection
-

Extrahiert interne/externe HREF-Ziele und relevante Ressourcen. Validiert HTTP-Status (2xx/3xx/4xx/5xx) und erkennt Redirect-Loops. Meldet Ankerziele ohne Fragment-Ziel. Liefert Beispiel-Links nach Kategorien (kaputt/umgeleitet/ok) zur schnellen Behebung.

PrĂŒft Links auf defekte Ziele und Schleifen.
robots.txt
-

LĂ€dt /robots.txt und prĂŒft HTTP-Status. Interpretiert Allow/Disallow inkl. Wildcards/Anchors. Erfasst agent-spezifische Regeln. Meldet blockierte Kernpfade und fehlende Sitemap-EintrĂ€ge. Bewertet GrĂ¶ĂŸe und Caching-Header.

Analysiert robots.txt auf Regeln und Sitemaps.
Heading-Analyse
-

ZĂ€hlt Überschriftenebenen und prĂŒft H1-Regel (idealerweise genau eine). Validiert Reihenfolge (H1 vor H2) und vermeidet Level-SprĂŒnge. Ermittelt leere/ĂŒberlange Titel und Duplikate. Bewertet H1-LĂ€nge (≈15–70 Zeichen) und zeigt eine Vorschau der ersten H1/H2.

PrĂŒft H1–H6-Struktur und Reihenfolge.
Canonical & Redirect-Hygiene
-

PrĂŒft HTTP-Status und Anzahl Weiterleitungen bis zur Ziel-URL. Erkennt genau einen gĂŒltigen Canonical, dessen Ziel erreichbar ist und nicht weiterleitet. Vergleicht finale Abruf-URL mit der Canonical-URL (www/Slash/HTTPS-Normalisierung). Meldet Cross-Domain-Canonicals und Mehrfach-Canonicals. Kennzeichnet Canonicals mit 3xx/4xx/5xx und gibt Hinweise zur Kettenreduktion.

PrĂŒft rel="canonical", Redirect-Ketten und URL-Konsistenz.