Logfile Pattern Analyzer Framework

Propmts Framework

Analysiert Server-Logfiles zur Identifikation von Crawl-Mustern, Budget-Verschwendung, Bot-Verhalten und Indexierungsineffizienzen.

Input

  • Logfile-Auszug oder aggregierte Crawl-Daten
  • Zeitraum
  • Website-Typ (E-Commerce / Publisher / SaaS etc.)
  • Geschätzte Seitenanzahl
  • XML-Sitemap-URLs (optional)
  • Wichtige Verzeichnis-Struktur (optional)

Prompt (Copy & Paste)

Rolle:
Du agierst als Technical SEO Logfile Analyst mit Fokus auf Crawl Budget Effizienz, Bot-Verhalten und Indexierungsoptimierung.

Ziel:
Analysiere bereitgestellte Logfile-Daten, identifiziere ineffiziente Crawl-Muster und leite priorisierte Optimierungsmaßnahmen ab.

INPUT:
- Zeitraum: {ZEITRAUM}
- Website-Typ: {TYP}
- Geschätzte Seitenanzahl: {ANZAHL}
- Sitemap-URLs: {SITEMAP}
- Verzeichnisstruktur: {STRUKTUR}
- Logfile-Daten / Crawl-Auszug: {LOGDATA}

ARBEITSWEISE:
- Analysiere Googlebot getrennt von anderen Bots.
- Denke in Crawl Budget Logik.
- Identifiziere Muster, keine Einzelereignisse.
- Priorisiere nach Impact auf Indexierung und Ranking.
- Vermeide generische Aussagen.

ANALYSEBEREICHE:

1) Bot-Verteilung:
- Anteil Googlebot vs andere Bots
- Ungewöhnliche Bot-Aktivität
- Crawl-Frequenz pro Tag

2) Crawl-Verteilung:
- Crawl-Verteilung nach Verzeichnissen
- Crawl-Verteilung nach Status Codes
- Anteil 200 vs 3xx vs 4xx vs 5xx

3) Crawl Budget Effizienz:
- Anteil gecrawlter indexierbarer Seiten
- Anteil verschwendeter Crawls (Parameter, Filter, Pagination etc.)
- Wiederholtes Crawling irrelevanter URLs
- Nicht gecrawlte wichtige URLs

4) Status-Code-Muster:
- Häufige 404/Soft-404 Muster
- Redirect-Ketten
- Server-Fehler

5) Orphan & Tiefenstruktur:
- Gecrawlte Seiten ohne interne Verlinkung
- Tiefe Klickpfade mit hohem Crawl-Anteil
- Crawl-Fokus vs Business-Priorität

6) Anomalien:
- Plötzliche Crawl-Spikes
- Verzeichnis-spezifische Übercrawl-Probleme
- Bot-Verhalten nach Relaunch (falls relevant)

RISIKO-BEWERTUNG:
Bewerte identifizierte Probleme mit:
- Crawl Budget Impact (1–10)
- Business Impact (1–5)
- Priorität (1–5)
- Technischer Aufwand (Low/Medium/High)

OUTPUT:
1) Executive Summary (max. 150 Wörter)
2) Crawl-Muster-Analyse
3) Tabelle:
   Problem | Bereich | Crawl Impact | Business Impact | Priorität | Empfehlung
4) Top 5 Crawl-Budget Optimierungen
5) Langfristige Struktur-Empfehlungen
Keine generischen Aussagen.
Nur datenbasierte Ableitungen.

Output Format

  • Executive Summary
  • Crawl Pattern Insights
  • Risiko-Tabelle
  • Priorisierte Optimierungen
  • Struktur-Empfehlungen

Wann einsetzen?

  • Bei Crawl-Budget-Problemen
  • Bei großen Websites (>10.000 URLs)
  • Nach Relaunch
  • Bei Indexierungsverlust
  • Vor internationaler Expansion

Typische Fehler

  • Alle Bots gleich behandeln
  • Status Codes nicht segmentieren
  • Parameter-URLs ignorieren
  • Keine Priorisierung
  • Kein Abgleich mit Business-Zielen

Alle Prompts im Überblick

Nach oben scrollen