Log Analizi ile Crawl Budget ve Bot Davranışı Otel Sitelerinde Nasıl Okunur?

Log Analizi ile Crawl Budget ve Bot Davranışı Otel Sitelerinde Nasıl Okunur?

9 dk okuma24 Nisan 2026DGTLFACE Editorial

Search Console size önemli sinyaller verir; ama Googlebot’un sitenizde gerçekten hangi URL’leri ne sıklıkla gezdiğini en net gösteren kaynak log’lardır. Otel sitelerinde yüzlerce oda/destinasyon/kampanya sayfası, buna ek olarak filtre/parametre URL’leri ve rezervasyon adımları birlikte yaşadığı için crawl bütçesi kolayca boşa harcanır. Log analizi sayesinde “Googlebot enerjisini nereye harcıyor?”, “hangi değerli sayfa hiç taranmıyor?” ve “404/5xx/redirect zincirleri nerede?” sorularını somut veriye bağlayabilirsiniz. Bu rehberde log erişimi–güvenliği, temel okuma mantığı, otel odaklı senaryolar ve log’dan aksiyon planı çıkarma adımlarını pratik biçimde kuruyoruz.

Öne Çıkan Cevap

Log analizi, otel sitelerinde Googlebot’un hangi URL’leri ne sıklıkla taradığını, nerede 404/5xx aldığını ve yönlendirme zincirlerinde zaman kaybettiğini görmenin en net yoludur. Bu verilerle; oda, destinasyon ve kampanya sayfalarının daha sık taranmasını sağlayabilir, filtre/parametre URL’lerinin crawl bütçesini tüketmesini engelleyebilirsiniz. Etkili bir yaklaşım: log’dan “sık taranan vs hiç taranmayan” URL’leri çıkarıp, bulguları teknik SEO aksiyon planına çevirmektir.

Özet

Log analiziyle Googlebot’un tarama sıklıklarını ve hata noktalarını ölç; filtre/parametre ve redirect zincirlerini azalt; oda/destinasyon/kampanya sayfalarına crawl budget’ı kaydır.

Maddeler

  • Hedef kitle: Otel yönetimi + ajans/SEO + teknik ekip (hosting/sunucu)
  • KPI: Önemli URL’lerin tarama frekansı, index hızı, 404/5xx oranı, redirect zinciri sayısı, gereksiz tarama payı
  • Entity (AIO): log files, Googlebot, crawl budget, hotel URLs, errors, redirects
  • Funnel: MoFu (ölç → teşhis → optimize → izleme)
  • Risk: Log erişimi/güvenliği; yanlış yorumla “yararlı sayfayı kapatma”
  • Otel özel: oda/destinasyon/kampanya vs filtre/parametre/booking adımları ayrımı
  • Çıktı: log → aksiyon planı (sprint) + izleme metrikleri

Kısa Cevap

Log’lar Googlebot’un hangi sayfaları gezdiğini gösterir; hataları görüp crawl bütçesini doğru sayfalara yönlendirirsiniz.

Hızlı Özet

  • 1) Log erişimini ve güvenlik çerçevesini netleştir
  • 2) Googlebot’u diğer botlardan ayır ve URL türlerine göre sınıflandır
  • 3) Money pages ile waste pages ayrımını yap
  • 4) 404/5xx, redirect zinciri ve parametre yükünü tespit et
  • 5) Log bulgularını 14 günlük crawl budget sprint planına çevir

1. Log Dosyası Nedir?

Sık taranan ve az taranan URL’leri karşılaştıran bağlam görseli
Sık taranan ve az taranan URL’leri karşılaştıran bağlam görseli

Log dosyaları, sunucunun gelen her isteği satır satır kaydettiği teknik kayıtlardır: kim geldi (bot/kullanıcı), hangi URL’i istedi, hangi status code döndü (200/301/404/500), ne zaman geldi, bazen yanıt süresi gibi detaylar. Teknik SEO’da log’ların değeri şuradan gelir: “Googlebot dediğin gerçekten ne yapıyor?” sorusuna teorik değil, gerçek cevap verir.

Log analizi nedir?

Log analizi, sunucu log’larını inceleyerek Googlebot ve diğer botların hangi URL’leri ne sıklıkla ziyaret ettiğini, hangi hataları aldığını ve tarama kaynaklarını nasıl kullandığını çıkarmaktır.

Yetki ve güvenlik notu (kritik)

Log dosyalarına erişim genellikle hosting/sunucu yetkisi gerektirir ve güvenlik süreçleriyle yönetilmelidir. Analizden önce “hangi log’lar, hangi dönem, hangi format” netleştirilmeli; kişisel veri ve güvenlik politikaları gözetilmelidir.

☑ Mini Check (Log erişimi)

  • Log erişimi kimde? (hosting/IT/ajans)
  • Hangi log? (access/error, CDN log’u, WAF log’u)
  • Hangi dönem? (en az 7–30 gün)
  • Veri güvenliği ve paylaşım yöntemi net mi?
  • Bot ayıklama için User-Agent alanı var mı?

Ne yapmalıyım?

  • Önce erişim ve güvenlik çerçevesini yazılı hale getir.
  • Minimum 14 gün log ile başla (sezon etkisi varsa 30 gün).
  • Access log + (varsa) CDN log’unu birlikte iste.
Log temelleri bölüm ayracı, teknik SEO
Log temelleri bölüm ayracı, teknik SEO

2. Googlebot ve Diğer Botların Davranışını Log’dan Okumak

Log analizi, önce “kim geliyor?” sorusuyla başlar. Googlebot dışında Bingbot, Yandex, çeşitli SEO araç botları ve kötü niyetli botlar olabilir. Otel sitelerinde özellikle yoğun kampanya dönemlerinde bot trafiği artabilir; bu da sunucu yanıt sürelerini etkileyebilir. Bu nedenle bot davranışını okurken iki eksen önemlidir: bot türü ve URL türü.

Hangi botlar sitenizi ziyaret ediyor?

  • Googlebot (mobile/desktop farklı user-agent varyasyonları olabilir)
  • Diğer arama motorları
  • SEO araç botları
  • Şüpheli botlar (agresif tarama)

Varsayım: User-agent spoofing mümkündür; kritik kararlar için “reverse DNS doğrulama” gibi ileri doğrulamalar gerekir. Bu rehberde amaç pratik okuma standardı vermektir.

☑ Mini Check (Bot sınıflandırma)

  • Googlebot istekleri ayrı gruplandı mı?
  • Mobil/desktop bot ayrımı var mı?
  • Aşırı istek atan şüpheli botlar tespit edildi mi?
  • CDN/WAF log’larıyla eşleşme var mı?

Ne yapmalıyım?

  • Önce Googlebot’u izole et, sonra diğer botları ayrı raporla.
  • Aşırı bot trafiği varsa WAF/CDN kurallarıyla sınırlama planla.
  • Bot davranışını “URL türlerine göre” okuyacak şekilde etiketle.

3. Crawl Budget Kavramı

Crawl budget, Googlebot’un sitenize ayırdığı tarama kaynaklarının pratik karşılığıdır. Büyük, çok sayfalı veya çok parametreli sitelerde bu kaynak boşa harcanırsa, yeni/önemli sayfalar geç taranabilir ve geç indexlenebilir. Otel sitelerinde “oda/destinasyon/kampanya” değerli; “filtre/parametre/rezervasyon adımları” çoğunlukla değer üretmeyen tarama yüküdür.

Crawl budget otel siteleri için neden önemlidir?

Çünkü otel sitelerinde çok sayıda sayfa ve varyasyon bulunur; Googlebot’un zamanını filtre/parametre gibi düşük değerli URL’lerde harcaması, oda ve kampanya sayfalarının keşfini ve güncellenmesini yavaşlatabilir.

☑ Mini Check (Crawl budget riski)

  • Filtre/parametre URL’leri log’da çok mu görünüyor?
  • Oda/destinasyon sayfaları beklenenden az mı taranıyor?
  • Redirect zinciri taramayı mı tüketiyor?
  • 404/5xx hataları yüksek mi?

Ne yapmalıyım?

  • URL’leri değer türüne göre sınıflandır: money pages vs waste pages.
  • Waste sayfaları robots/noindex/canonical ve UI tasarımıyla azalt.
  • Redirect zinciri ve hata oranını düşürerek bot verimini artır.

4. Önemli Sayfaların Ne Sıklıkla Taranıp Taranmadığını Görmek

Log analiziyle asıl amaç, değerli sayfaların (oda/destinasyon/kampanya) taranma sıklığını görmek ve “hiç taranmayan” değerli sayfaları keşfetmektir. Örneğin Antalya veya Belek destinasyon sayfanız önemli olabilir; ama bot oraya hiç gelmiyorsa, internal link, sitemap veya performans tarafında bir sorun olabilir.

Googlebot’un hangi sayfaları taradığını log’tan nasıl görürüm?

Googlebot user-agent’lerini filtreleyip URL’leri sayfa türlerine göre gruplayın (oda, destinasyon, kampanya, blog, filtre/parametre). Ardından her grup için taranma sayısını ve son görülme zamanını çıkarın; “en sık” ve “hiç” tarananları ayrı listeleyin.

Pratik sınıflandırma (otel)

  • Money pages: /odalar/, /destinasyon/, /kampanya/
  • Support pages: blog, SSS, iletişim
  • Waste pages: filtre parametreleri, arama sonuçları, booking steps

☑ Mini Check (Frekans analizi)

  • “En sık taranan 100 URL” listesi çıkarıldı mı?
  • “Hiç taranmayan ama önemli 50 URL” listesi çıkarıldı mı?
  • Oda/destinasyon/kampanya tarama payı hedefleniyor mu?
  • Sitemap’te olan URL’ler log’da görünüyor mu?

Ne yapmalıyım?

  • Önce “hiç taranmayan önemli URL” listesini düzelt: iç link + sitemap + performans.
  • Money pages tarama payını artır: navigasyon ve hub sayfaları güçlendir.
  • Waste sayfaları azalt: parametre kontrolü + canonical/noindex.
Log → sınıflandırma → aksiyon akışı diyagramı
Log → sınıflandırma → aksiyon akışı diyagramı

5. Hatalar ve Yönlendirme Zincirlerini Log Üzerinden Tespit Etmek

Hata ve yönlendirme analizine geçiş ayracı
Hata ve yönlendirme analizine geçiş ayracı

Crawl bütçesini en hızlı tüketen şeylerden biri, hatalar ve redirect zincirleridir. Log’da 404/5xx artışı görüyorsanız, Googlebot enerjisini boşa harcıyor demektir. Redirect zincirleri (301→301→200) ise her taramada ekstra adım demektir. Otel sitelerinde bu, eski kampanya URL’leri ve yenilenen oda URL’lerinde sık görülür.

Filtre ve parametre sayfaları crawl bütçesini nasıl tüketir?

Filtre/parametre kombinasyonları binlerce URL varyasyonu üretir. Botlar bu URL’leri taradıkça crawl bütçesi boşa gider; önemli oda/destinasyon sayfalarına daha az zaman kalır. Çözüm, parametre stratejisi (canonical/noindex), UI kısıtları ve robots/sitemap hijyeniyle bu alanı kontrol altına almaktır.

☑ Mini Check (Hata + redirect)

  • Googlebot 404 alan URL’ler listelendi mi?
  • 5xx alan URL’ler ve saat aralığı tespit edildi mi?
  • Redirect zinciri olan URL’ler çıkarıldı mı?
  • Booking adımları taranıyor mu? (çoğu zaman waste)
  • Parametreli URL’ler log’da yüksek paya sahip mi?

Ne yapmalıyım?

  • 404/5xx’leri “money pages” önceliğiyle temizle.
  • Redirect zincirlerini 1 hop’a indir; eski→yeni tek adım hedefle.
  • Parametre/filtre için canonical/noindex + UI kısıtları uygula.
Crawl budget için log analizi mini check kartı
Crawl budget için log analizi mini check kartı

6. Otel Siteleri İçin Örnek Log Analizi Senaryoları

Bu bölüm, “log’dan gördüm, şimdi ne yapacağım?” sorusuna otel odaklı senaryolarla cevap verir.

Senaryo 1: Googlebot filtre URL’lerinde boğuluyor

Belirti: En sık taranan URL’ler filtre/parametre içeriyor. Neden: Faceted navigation kontrolsüz; canonical/noindex yok. Çözüm: Parametre stratejisi + canonical/noindex + robots hijyeni; değerli kombinasyonlar için ayrı landing.

Senaryo 2: Oda sayfaları nadiren taranıyor

Belirti: /odalar/ URL’leri düşük frekansta. Neden: İç link zayıf, sitemap eksik, performans düşük veya render sorunu. Çözüm: Oda hub sayfası güçlendirme + sitemap + CWV iyileştirme.

Senaryo 3: Kampanya döneminde 5xx artıyor

Belirti: Log’da belirli saatlerde 5xx patlıyor. Neden: Trafik/bot yükü + sunucu kapasitesi. Çözüm: CDN/WAF, cache, infra ölçekleme; hatalı endpoint temizliği.

Senaryo 4: Redirect zinciri crawl’u tüketiyor

Belirti: Googlebot çok sayıda 301 görüyor. Neden: Eski URL haritası karmaşık, zincirli yönlendirme. Çözüm: Tek adımlı redirect haritası; zincir temizliği.

Key Statistics / Data Point

  • Log analizine dayalı düzeltmeler sonrası, Googlebot’un önemli sayfaları daha sık ziyaret ettiği ve index hızının iyileştiği sıkça gözlemlenir.

Ne yapmalıyım?

  • Log bulgularını “money/support/waste” sınıflarıyla raporla.
  • İlk sprint’te 404/5xx ve redirect zincirlerini temizle.
  • İkinci sprint’te filtre/parametre stratejisi + iç link güçlendirme yap.
Öncesi/sonrası tarama payı ve hata oranı KPI kartı
Öncesi/sonrası tarama payı ve hata oranı KPI kartı

7. Fark Yaratan Mini Bölüm: “Log → Aksiyon” Çeviri Sözlüğü

(AI Competitor Gap Notes: Enterprise generic anlatım çok; otel sayfa tiplerine göre pratik çeviri az — bu bölüm farkı kapatır.)

Log analizi tek başına rapor değildir; aksiyon sözlüğü olmalıdır:

  • Çok taranan filtre URL → parametre kuralı + canonical/noindex
  • Hiç taranmayan oda sayfası → iç link + sitemap + performans
  • 301 yoğunluğu → redirect haritası sadeleşsin
  • 5xx spike → infra/cache/CDN + kritik endpoint kontrolü

Bu çeviri sözlüğü, log’u teknik backlog’a dönüştürür.

8. İçerik Tablosu

Tablo seçimi: Log satırı açıklama + aksiyon (sheet önerisiyle uyumlu)

Tablo: Log Satırı Açıklama + Aksiyon
Log alanıNe anlatır?Otel SEO’da nasıl yorumlanır?Aksiyon
User-AgentBot/kullanıcı kimliğiGooglebot mu, başka bot mu?Botları sınıflandır
URLZiyaret edilen sayfaOda mı filtre mi?URL türü etiketle
Status code200/301/404/5xxHata mı zincir mi?404/5xx temizliği, zincir kırma
TimestampZamanKampanya saatlerinde spike var mı?Infra/caching planı
Referrer (varsa)Kaynakİç link mi dış link mi?İç link sorunlarını bul
Log raporu ve aksiyon planı teslimat kartı
Log raporu ve aksiyon planı teslimat kartı

9. Log Analizinden Aksiyon Planı Çıkarma Şablonunu İndir — SEO / Log Analizi

PDFv1.0Checklist + Sprint

Log Analizinden Aksiyon Planı Çıkarma Şablonunu İndir — SEO / Log Analizi (v1.0)

Bu şablon, sunucu log’larından Googlebot tarama davranışını çıkarıp otel siteniz için crawl budget optimizasyon aksiyonlarına çevirmek üzere hazırlanmıştır. URL’leri “oda/destinasyon/kampanya” gibi değerli gruplar ve “filtre/parametre/booking” gibi waste gruplarına ayırır; 404/5xx ve redirect zinciri bulgularını sprint planına taşır.

Kim Kullanır?

SEO uzmanı + teknik ekip (hosting) + ajans (audit ve uygulama).

Nasıl Kullanılır?

  1. 14–30 günlük access log’u al, Googlebot’u filtrele.
  2. URL’leri sayfa türlerine göre sınıflandır; frekans ve hata dağılımını çıkar.
  3. Bulguları etki–öncelikle etiketleyip 14 günlük sprint planına aktar.

Ölçüm & Önceliklendirme (Kısa sürüm)

  • ▢ ✅ Googlebot istekleri doğru ayrıldı
  • ▢ ✅ Money pages tarama payı ölçüldü
  • ▢ ✅ Waste URL pattern’leri belirlendi
  • ▢ ✅ 404/5xx ve redirect zinciri listesi çıktı
  • ▢ ✅ 14 günlük sprint planı üretildi

PDF içinde: Problem→Kök Neden→Çözüm tablosu + 14 gün sprint planı + önce/sonra KPI tablosu

PDF’i İndir Ücretsiz • PDF / Excel

10. Kapanış: Log Analizi = Gerçek Tarama Gerçeği

Media bulunamadı → slug: log-analizi-ile-crawl-budget-ve-bot-davranisi-otel-sitelerinde / slot: hero-cover

Search Console bir pano sunar; log analizi ise Googlebot’un gerçek davranışını gösterir. Otel sitelerinde crawl budget’ın nerede boşa gittiğini, hangi değerli sayfaların ihmal edildiğini ve hataların taramayı nasıl tükettiğini log’dan okuyarak; botu oda/destinasyon/kampanya sayfalarına yönlendirebilirsiniz. Bunu bir kez yapmak yetmez: site yapısı, kampanyalar ve filtreler değiştikçe log kontrolleri de periyodik güncellenmelidir.

Bir Sonraki Adım

Googlebot’un gerçek tarama davranışını veriye dayalı okuyup önemli otel sayfalarına kaydırmak isteyen ekipler için.

Sık Sorulan Sorular

Log analizi nedir?
Log analizi, sunucu log’larını inceleyerek Googlebot’un hangi URL’leri ne sıklıkla taradığını, nerede hata aldığını ve tarama davranışını anlamaktır.
Crawl budget otel siteleri için neden önemlidir?
Otel siteleri çok sayfalıdır ve filtre/parametre URL’leri taramayı boşa harcayabilir. Crawl bütçesi boşa giderse oda/destinasyon/kampanya sayfaları daha geç taranır ve indexlenebilir.
Googlebot’un hangi sayfaları taradığını log’tan nasıl görürüm?
Googlebot user-agent’lerini filtreleyip URL’leri sayfa türlerine göre gruplayın. Her grubun tarama frekansını ve son taranma zamanını çıkararak “sık vs az” tarananları belirleyin.
Filtre ve parametre sayfaları crawl bütçesini nasıl tüketir?
Her filtre kombinasyonu yeni bir URL üretebilir ve botlar bu varyasyonları taradıkça kaynak boşa gider. Canonical/noindex stratejisi ve UI kısıtlarıyla bu alanı kontrol etmek gerekir.
Log’da 404 ve 5xx görüyorsam ne yapmalıyım?
Önce değerli sayfalardaki 404/5xx’leri temizleyin ve redirect zincirlerini kısaltın. Hatalar bot verimini düşürür ve önemli sayfalara ayrılan zamanı azaltır.
Log analizi için hangi yetkiler gerekir?
Genellikle hosting/sunucu tarafında erişim gerekir ve güvenlik süreçleriyle yönetilir. Analizden önce paylaşım yöntemi ve veri güvenliği netleştirilmelidir.
Log Analiziyle Crawl Budget: Otel SEO | DGTLFACE