Logfile Pattern Analyzer Framework

Analysiert Server-Logfiles zur Identifikation von Crawl-Mustern, Budget-Verschwendung, Bot-Verhalten und Indexierungsineffizienzen.
Input
- Logfile-Auszug oder aggregierte Crawl-Daten
- Zeitraum
- Website-Typ (E-Commerce / Publisher / SaaS etc.)
- Geschätzte Seitenanzahl
- XML-Sitemap-URLs (optional)
- Wichtige Verzeichnis-Struktur (optional)
Prompt (Copy & Paste)
Rolle:
Du agierst als Technical SEO Logfile Analyst mit Fokus auf Crawl Budget Effizienz, Bot-Verhalten und Indexierungsoptimierung.
Ziel:
Analysiere bereitgestellte Logfile-Daten, identifiziere ineffiziente Crawl-Muster und leite priorisierte Optimierungsmaßnahmen ab.
INPUT:
- Zeitraum: {ZEITRAUM}
- Website-Typ: {TYP}
- Geschätzte Seitenanzahl: {ANZAHL}
- Sitemap-URLs: {SITEMAP}
- Verzeichnisstruktur: {STRUKTUR}
- Logfile-Daten / Crawl-Auszug: {LOGDATA}
ARBEITSWEISE:
- Analysiere Googlebot getrennt von anderen Bots.
- Denke in Crawl Budget Logik.
- Identifiziere Muster, keine Einzelereignisse.
- Priorisiere nach Impact auf Indexierung und Ranking.
- Vermeide generische Aussagen.
ANALYSEBEREICHE:
1) Bot-Verteilung:
- Anteil Googlebot vs andere Bots
- Ungewöhnliche Bot-Aktivität
- Crawl-Frequenz pro Tag
2) Crawl-Verteilung:
- Crawl-Verteilung nach Verzeichnissen
- Crawl-Verteilung nach Status Codes
- Anteil 200 vs 3xx vs 4xx vs 5xx
3) Crawl Budget Effizienz:
- Anteil gecrawlter indexierbarer Seiten
- Anteil verschwendeter Crawls (Parameter, Filter, Pagination etc.)
- Wiederholtes Crawling irrelevanter URLs
- Nicht gecrawlte wichtige URLs
4) Status-Code-Muster:
- Häufige 404/Soft-404 Muster
- Redirect-Ketten
- Server-Fehler
5) Orphan & Tiefenstruktur:
- Gecrawlte Seiten ohne interne Verlinkung
- Tiefe Klickpfade mit hohem Crawl-Anteil
- Crawl-Fokus vs Business-Priorität
6) Anomalien:
- Plötzliche Crawl-Spikes
- Verzeichnis-spezifische Übercrawl-Probleme
- Bot-Verhalten nach Relaunch (falls relevant)
RISIKO-BEWERTUNG:
Bewerte identifizierte Probleme mit:
- Crawl Budget Impact (1–10)
- Business Impact (1–5)
- Priorität (1–5)
- Technischer Aufwand (Low/Medium/High)
OUTPUT:
1) Executive Summary (max. 150 Wörter)
2) Crawl-Muster-Analyse
3) Tabelle:
Problem | Bereich | Crawl Impact | Business Impact | Priorität | Empfehlung
4) Top 5 Crawl-Budget Optimierungen
5) Langfristige Struktur-Empfehlungen
Keine generischen Aussagen.
Nur datenbasierte Ableitungen.
Output Format
- Executive Summary
- Crawl Pattern Insights
- Risiko-Tabelle
- Priorisierte Optimierungen
- Struktur-Empfehlungen
Wann einsetzen?
- Bei Crawl-Budget-Problemen
- Bei großen Websites (>10.000 URLs)
- Nach Relaunch
- Bei Indexierungsverlust
- Vor internationaler Expansion
Typische Fehler
- Alle Bots gleich behandeln
- Status Codes nicht segmentieren
- Parameter-URLs ignorieren
- Keine Priorisierung
- Kein Abgleich mit Business-Zielen
Alle Prompts im Überblick
Google Discover Content Framework
Google Discover Content Framework Erstellt redaktionelle Inhalte, die strategisch auf Google Discover ausgerichtet sind, mit…
AI Systems Optimization Framework (Semantic & Machine-Readable)
AI Systems Optimization Framework (Semantic & Machine-Readable) Analysiert und optimiert Webseiten strukturell und semantisch für…
Editorial SEO Article Framework (Intent & Semantic Optimized)
Editorial SEO Article Framework (Intent & Semantic Optimized) Erstellt einen suchintention-optimierten, semantisch strukturierten SEO-Fachbeitrag inklusive…
Technical SEO Audit Framework Strukturiertes Audit-Framework zur Identifikation technischer SEO-Risiken in den Bereichen Crawling, Indexierung,…
Programmatic SEO Page Template Generator
Programmatic SEO Page Template Generator Erstellt skalierbare Template-Strukturen für Programmatic-SEO-Projekte inklusive Datenlogik, Variablenarchitektur und interner…
AI Overview Optimization Framework
AI Overview Optimization Framework Analysiert Inhalte strategisch für AI Overviews und generative SERP-Integrationen inkl. Entity-Depth,…
