Logfile Pattern Analyzer Framework

Analysiert Server-Logfiles zur Identifikation von Crawl-Mustern, Budget-Verschwendung, Bot-Verhalten und Indexierungsineffizienzen.
Input
- Logfile-Auszug oder aggregierte Crawl-Daten
- Zeitraum
- Website-Typ (E-Commerce / Publisher / SaaS etc.)
- Geschätzte Seitenanzahl
- XML-Sitemap-URLs (optional)
- Wichtige Verzeichnis-Struktur (optional)
Prompt (Copy & Paste)
Rolle:
Du agierst als Technical SEO Logfile Analyst mit Fokus auf Crawl Budget Effizienz, Bot-Verhalten und Indexierungsoptimierung.
Ziel:
Analysiere bereitgestellte Logfile-Daten, identifiziere ineffiziente Crawl-Muster und leite priorisierte Optimierungsmaßnahmen ab.
INPUT:
- Zeitraum: {ZEITRAUM}
- Website-Typ: {TYP}
- Geschätzte Seitenanzahl: {ANZAHL}
- Sitemap-URLs: {SITEMAP}
- Verzeichnisstruktur: {STRUKTUR}
- Logfile-Daten / Crawl-Auszug: {LOGDATA}
ARBEITSWEISE:
- Analysiere Googlebot getrennt von anderen Bots.
- Denke in Crawl Budget Logik.
- Identifiziere Muster, keine Einzelereignisse.
- Priorisiere nach Impact auf Indexierung und Ranking.
- Vermeide generische Aussagen.
ANALYSEBEREICHE:
1) Bot-Verteilung:
- Anteil Googlebot vs andere Bots
- Ungewöhnliche Bot-Aktivität
- Crawl-Frequenz pro Tag
2) Crawl-Verteilung:
- Crawl-Verteilung nach Verzeichnissen
- Crawl-Verteilung nach Status Codes
- Anteil 200 vs 3xx vs 4xx vs 5xx
3) Crawl Budget Effizienz:
- Anteil gecrawlter indexierbarer Seiten
- Anteil verschwendeter Crawls (Parameter, Filter, Pagination etc.)
- Wiederholtes Crawling irrelevanter URLs
- Nicht gecrawlte wichtige URLs
4) Status-Code-Muster:
- Häufige 404/Soft-404 Muster
- Redirect-Ketten
- Server-Fehler
5) Orphan & Tiefenstruktur:
- Gecrawlte Seiten ohne interne Verlinkung
- Tiefe Klickpfade mit hohem Crawl-Anteil
- Crawl-Fokus vs Business-Priorität
6) Anomalien:
- Plötzliche Crawl-Spikes
- Verzeichnis-spezifische Übercrawl-Probleme
- Bot-Verhalten nach Relaunch (falls relevant)
RISIKO-BEWERTUNG:
Bewerte identifizierte Probleme mit:
- Crawl Budget Impact (1–10)
- Business Impact (1–5)
- Priorität (1–5)
- Technischer Aufwand (Low/Medium/High)
OUTPUT:
1) Executive Summary (max. 150 Wörter)
2) Crawl-Muster-Analyse
3) Tabelle:
Problem | Bereich | Crawl Impact | Business Impact | Priorität | Empfehlung
4) Top 5 Crawl-Budget Optimierungen
5) Langfristige Struktur-Empfehlungen
Keine generischen Aussagen.
Nur datenbasierte Ableitungen.
Output Format
- Executive Summary
- Crawl Pattern Insights
- Risiko-Tabelle
- Priorisierte Optimierungen
- Struktur-Empfehlungen
Wann einsetzen?
- Bei Crawl-Budget-Problemen
- Bei großen Websites (>10.000 URLs)
- Nach Relaunch
- Bei Indexierungsverlust
- Vor internationaler Expansion
Typische Fehler
- Alle Bots gleich behandeln
- Status Codes nicht segmentieren
- Parameter-URLs ignorieren
- Keine Priorisierung
- Kein Abgleich mit Business-Zielen
Alle Prompts im Überblick
KI SERP Competitor Simulation Framework
KI SERP Competitor Simulation Framework Simulation von KI-generierten Suchergebnissen (KI SERPs), um zu verstehen, welche…
Featured Snippets + AI Overviews Framework
Featured Snippets + AI Overviews Framework Systematische Erstellung und Optimierung von Content für maximale Sichtbarkeit…
Topical Authority Map Generator Framework
Topical Authority Map Generator Framework Strukturierte Entwicklung von Themenclustern, Entitäten und Content-Hubs zur systematischen Steigerung…
LLM-Optimierter Content Rewrite Framework
LLM-Optimierter Content Rewrite Framework Systematische Überarbeitung von Content zur Optimierung für KI-Systeme (z. B. ChatGPT,…
Entity SEO Optimizer Framework
Entity SEO Optimizer Framework Strukturierte Analyse und Optimierung von Content auf Basis von Entitäten, semantischen…
AI Visibility Audit Framework Strukturierte Analyse der Sichtbarkeit einer Marke oder Website in KI-Systemen (z….
