1. Log Dosyası Nedir?

Log dosyaları, sunucunun gelen her isteği satır satır kaydettiği teknik kayıtlardır: kim geldi (bot/kullanıcı), hangi URL’i istedi, hangi status code döndü (200/301/404/500), ne zaman geldi, bazen yanıt süresi gibi detaylar. Teknik SEO’da log’ların değeri şuradan gelir: “Googlebot dediğin gerçekten ne yapıyor?” sorusuna teorik değil, gerçek cevap verir.
Log analizi nedir?
Log analizi, sunucu log’larını inceleyerek Googlebot ve diğer botların hangi URL’leri ne sıklıkla ziyaret ettiğini, hangi hataları aldığını ve tarama kaynaklarını nasıl kullandığını çıkarmaktır.
Yetki ve güvenlik notu (kritik)
Log dosyalarına erişim genellikle hosting/sunucu yetkisi gerektirir ve güvenlik süreçleriyle yönetilmelidir. Analizden önce “hangi log’lar, hangi dönem, hangi format” netleştirilmeli; kişisel veri ve güvenlik politikaları gözetilmelidir.
☑ Mini Check (Log erişimi)
- •Log erişimi kimde? (hosting/IT/ajans)
- •Hangi log? (access/error, CDN log’u, WAF log’u)
- •Hangi dönem? (en az 7–30 gün)
- •Veri güvenliği ve paylaşım yöntemi net mi?
- •Bot ayıklama için User-Agent alanı var mı?
Ne yapmalıyım?
- • Önce erişim ve güvenlik çerçevesini yazılı hale getir.
- • Minimum 14 gün log ile başla (sezon etkisi varsa 30 gün).
- • Access log + (varsa) CDN log’unu birlikte iste.

2. Googlebot ve Diğer Botların Davranışını Log’dan Okumak
Log analizi, önce “kim geliyor?” sorusuyla başlar. Googlebot dışında Bingbot, Yandex, çeşitli SEO araç botları ve kötü niyetli botlar olabilir. Otel sitelerinde özellikle yoğun kampanya dönemlerinde bot trafiği artabilir; bu da sunucu yanıt sürelerini etkileyebilir. Bu nedenle bot davranışını okurken iki eksen önemlidir: bot türü ve URL türü.
Hangi botlar sitenizi ziyaret ediyor?
- •Googlebot (mobile/desktop farklı user-agent varyasyonları olabilir)
- •Diğer arama motorları
- •SEO araç botları
- •Şüpheli botlar (agresif tarama)
Varsayım: User-agent spoofing mümkündür; kritik kararlar için “reverse DNS doğrulama” gibi ileri doğrulamalar gerekir. Bu rehberde amaç pratik okuma standardı vermektir.
☑ Mini Check (Bot sınıflandırma)
- •Googlebot istekleri ayrı gruplandı mı?
- •Mobil/desktop bot ayrımı var mı?
- •Aşırı istek atan şüpheli botlar tespit edildi mi?
- •CDN/WAF log’larıyla eşleşme var mı?
Ne yapmalıyım?
- • Önce Googlebot’u izole et, sonra diğer botları ayrı raporla.
- • Aşırı bot trafiği varsa WAF/CDN kurallarıyla sınırlama planla.
- • Bot davranışını “URL türlerine göre” okuyacak şekilde etiketle.
3. Crawl Budget Kavramı
Crawl budget, Googlebot’un sitenize ayırdığı tarama kaynaklarının pratik karşılığıdır. Büyük, çok sayfalı veya çok parametreli sitelerde bu kaynak boşa harcanırsa, yeni/önemli sayfalar geç taranabilir ve geç indexlenebilir. Otel sitelerinde “oda/destinasyon/kampanya” değerli; “filtre/parametre/rezervasyon adımları” çoğunlukla değer üretmeyen tarama yüküdür.
Crawl budget otel siteleri için neden önemlidir?
Çünkü otel sitelerinde çok sayıda sayfa ve varyasyon bulunur; Googlebot’un zamanını filtre/parametre gibi düşük değerli URL’lerde harcaması, oda ve kampanya sayfalarının keşfini ve güncellenmesini yavaşlatabilir.
☑ Mini Check (Crawl budget riski)
- •Filtre/parametre URL’leri log’da çok mu görünüyor?
- •Oda/destinasyon sayfaları beklenenden az mı taranıyor?
- •Redirect zinciri taramayı mı tüketiyor?
- •404/5xx hataları yüksek mi?
Ne yapmalıyım?
- • URL’leri değer türüne göre sınıflandır: money pages vs waste pages.
- • Waste sayfaları robots/noindex/canonical ve UI tasarımıyla azalt.
- • Redirect zinciri ve hata oranını düşürerek bot verimini artır.
4. Önemli Sayfaların Ne Sıklıkla Taranıp Taranmadığını Görmek
Log analiziyle asıl amaç, değerli sayfaların (oda/destinasyon/kampanya) taranma sıklığını görmek ve “hiç taranmayan” değerli sayfaları keşfetmektir. Örneğin Antalya veya Belek destinasyon sayfanız önemli olabilir; ama bot oraya hiç gelmiyorsa, internal link, sitemap veya performans tarafında bir sorun olabilir.
Googlebot’un hangi sayfaları taradığını log’tan nasıl görürüm?
Googlebot user-agent’lerini filtreleyip URL’leri sayfa türlerine göre gruplayın (oda, destinasyon, kampanya, blog, filtre/parametre). Ardından her grup için taranma sayısını ve son görülme zamanını çıkarın; “en sık” ve “hiç” tarananları ayrı listeleyin.
Pratik sınıflandırma (otel)
- •Money pages: /odalar/, /destinasyon/, /kampanya/
- •Support pages: blog, SSS, iletişim
- •Waste pages: filtre parametreleri, arama sonuçları, booking steps
☑ Mini Check (Frekans analizi)
- •“En sık taranan 100 URL” listesi çıkarıldı mı?
- •“Hiç taranmayan ama önemli 50 URL” listesi çıkarıldı mı?
- •Oda/destinasyon/kampanya tarama payı hedefleniyor mu?
- •Sitemap’te olan URL’ler log’da görünüyor mu?
Ne yapmalıyım?
- • Önce “hiç taranmayan önemli URL” listesini düzelt: iç link + sitemap + performans.
- • Money pages tarama payını artır: navigasyon ve hub sayfaları güçlendir.
- • Waste sayfaları azalt: parametre kontrolü + canonical/noindex.

5. Hatalar ve Yönlendirme Zincirlerini Log Üzerinden Tespit Etmek

Crawl bütçesini en hızlı tüketen şeylerden biri, hatalar ve redirect zincirleridir. Log’da 404/5xx artışı görüyorsanız, Googlebot enerjisini boşa harcıyor demektir. Redirect zincirleri (301→301→200) ise her taramada ekstra adım demektir. Otel sitelerinde bu, eski kampanya URL’leri ve yenilenen oda URL’lerinde sık görülür.
Filtre ve parametre sayfaları crawl bütçesini nasıl tüketir?
Filtre/parametre kombinasyonları binlerce URL varyasyonu üretir. Botlar bu URL’leri taradıkça crawl bütçesi boşa gider; önemli oda/destinasyon sayfalarına daha az zaman kalır. Çözüm, parametre stratejisi (canonical/noindex), UI kısıtları ve robots/sitemap hijyeniyle bu alanı kontrol altına almaktır.
☑ Mini Check (Hata + redirect)
- •Googlebot 404 alan URL’ler listelendi mi?
- •5xx alan URL’ler ve saat aralığı tespit edildi mi?
- •Redirect zinciri olan URL’ler çıkarıldı mı?
- •Booking adımları taranıyor mu? (çoğu zaman waste)
- •Parametreli URL’ler log’da yüksek paya sahip mi?
Ne yapmalıyım?
- • 404/5xx’leri “money pages” önceliğiyle temizle.
- • Redirect zincirlerini 1 hop’a indir; eski→yeni tek adım hedefle.
- • Parametre/filtre için canonical/noindex + UI kısıtları uygula.

6. Otel Siteleri İçin Örnek Log Analizi Senaryoları
Bu bölüm, “log’dan gördüm, şimdi ne yapacağım?” sorusuna otel odaklı senaryolarla cevap verir.
Senaryo 1: Googlebot filtre URL’lerinde boğuluyor
Belirti: En sık taranan URL’ler filtre/parametre içeriyor. Neden: Faceted navigation kontrolsüz; canonical/noindex yok. Çözüm: Parametre stratejisi + canonical/noindex + robots hijyeni; değerli kombinasyonlar için ayrı landing.
Senaryo 2: Oda sayfaları nadiren taranıyor
Belirti: /odalar/ URL’leri düşük frekansta. Neden: İç link zayıf, sitemap eksik, performans düşük veya render sorunu. Çözüm: Oda hub sayfası güçlendirme + sitemap + CWV iyileştirme.
Senaryo 3: Kampanya döneminde 5xx artıyor
Belirti: Log’da belirli saatlerde 5xx patlıyor. Neden: Trafik/bot yükü + sunucu kapasitesi. Çözüm: CDN/WAF, cache, infra ölçekleme; hatalı endpoint temizliği.
Senaryo 4: Redirect zinciri crawl’u tüketiyor
Belirti: Googlebot çok sayıda 301 görüyor. Neden: Eski URL haritası karmaşık, zincirli yönlendirme. Çözüm: Tek adımlı redirect haritası; zincir temizliği.
Key Statistics / Data Point
- • Log analizine dayalı düzeltmeler sonrası, Googlebot’un önemli sayfaları daha sık ziyaret ettiği ve index hızının iyileştiği sıkça gözlemlenir.
Ne yapmalıyım?
- • Log bulgularını “money/support/waste” sınıflarıyla raporla.
- • İlk sprint’te 404/5xx ve redirect zincirlerini temizle.
- • İkinci sprint’te filtre/parametre stratejisi + iç link güçlendirme yap.

7. Fark Yaratan Mini Bölüm: “Log → Aksiyon” Çeviri Sözlüğü
(AI Competitor Gap Notes: Enterprise generic anlatım çok; otel sayfa tiplerine göre pratik çeviri az — bu bölüm farkı kapatır.)
Log analizi tek başına rapor değildir; aksiyon sözlüğü olmalıdır:
- •Çok taranan filtre URL → parametre kuralı + canonical/noindex
- •Hiç taranmayan oda sayfası → iç link + sitemap + performans
- •301 yoğunluğu → redirect haritası sadeleşsin
- •5xx spike → infra/cache/CDN + kritik endpoint kontrolü
Bu çeviri sözlüğü, log’u teknik backlog’a dönüştürür.
8. İçerik Tablosu
Tablo seçimi: Log satırı açıklama + aksiyon (sheet önerisiyle uyumlu)
| Log alanı | Ne anlatır? | Otel SEO’da nasıl yorumlanır? | Aksiyon |
|---|---|---|---|
| User-Agent | Bot/kullanıcı kimliği | Googlebot mu, başka bot mu? | Botları sınıflandır |
| URL | Ziyaret edilen sayfa | Oda mı filtre mi? | URL türü etiketle |
| Status code | 200/301/404/5xx | Hata mı zincir mi? | 404/5xx temizliği, zincir kırma |
| Timestamp | Zaman | Kampanya saatlerinde spike var mı? | Infra/caching planı |
| Referrer (varsa) | Kaynak | İç link mi dış link mi? | İç link sorunlarını bul |

9. Log Analizinden Aksiyon Planı Çıkarma Şablonunu İndir — SEO / Log Analizi
Log Analizinden Aksiyon Planı Çıkarma Şablonunu İndir — SEO / Log Analizi (v1.0)
Bu şablon, sunucu log’larından Googlebot tarama davranışını çıkarıp otel siteniz için crawl budget optimizasyon aksiyonlarına çevirmek üzere hazırlanmıştır. URL’leri “oda/destinasyon/kampanya” gibi değerli gruplar ve “filtre/parametre/booking” gibi waste gruplarına ayırır; 404/5xx ve redirect zinciri bulgularını sprint planına taşır.
Kim Kullanır?
SEO uzmanı + teknik ekip (hosting) + ajans (audit ve uygulama).
Nasıl Kullanılır?
- 14–30 günlük access log’u al, Googlebot’u filtrele.
- URL’leri sayfa türlerine göre sınıflandır; frekans ve hata dağılımını çıkar.
- Bulguları etki–öncelikle etiketleyip 14 günlük sprint planına aktar.
Ölçüm & Önceliklendirme (Kısa sürüm)
- ▢ ✅ Googlebot istekleri doğru ayrıldı
- ▢ ✅ Money pages tarama payı ölçüldü
- ▢ ✅ Waste URL pattern’leri belirlendi
- ▢ ✅ 404/5xx ve redirect zinciri listesi çıktı
- ▢ ✅ 14 günlük sprint planı üretildi
PDF içinde: Problem→Kök Neden→Çözüm tablosu + 14 gün sprint planı + önce/sonra KPI tablosu
10. Kapanış: Log Analizi = Gerçek Tarama Gerçeği
Search Console bir pano sunar; log analizi ise Googlebot’un gerçek davranışını gösterir. Otel sitelerinde crawl budget’ın nerede boşa gittiğini, hangi değerli sayfaların ihmal edildiğini ve hataların taramayı nasıl tükettiğini log’dan okuyarak; botu oda/destinasyon/kampanya sayfalarına yönlendirebilirsiniz. Bunu bir kez yapmak yetmez: site yapısı, kampanyalar ve filtreler değiştikçe log kontrolleri de periyodik güncellenmelidir.
Bir Sonraki Adım
Googlebot’un gerçek tarama davranışını veriye dayalı okuyup önemli otel sayfalarına kaydırmak isteyen ekipler için.
