robots.txt ve XML Sitemap ile Otel Sitelerinde Tarama Kontrolü Nasıl Sağlanır?

robots.txt ve XML Sitemap ile Otel Sitelerinde Tarama Kontrolü Nasıl Sağlanır?

6 dk okuma13 Ocak 2026DGTLFACE Editorial

robots.txt ve XML sitemap, Google’ın sitenizi nasıl “gördüğünü” şekillendiren iki temel kontrol panelidir. Otel siteleri; görsel ağırlığı, kampanya sayfaları, çok dilli yapı ve özellikle rezervasyon adımları / filtre URL’leri nedeniyle tarama verimi açısından daha kırılgandır. Buradaki hedef “botları engellemek” değil; botlara doğru yolu göstermek ve gereksiz yerlere harcadıkları zamanı azaltmaktır. Bu rehberde; hangi sayfaların sınırlandırılması gerektiğini, sitemap’i nasıl segmentleyeceğinizi ve Search Console ile nasıl doğrulayacağınızı adım adım ele alacağız.

Öne Çıkan Cevap

robots.txt ve XML sitemap, Google botlarının sitenizde neyi tarayacağını ve hangi URL’leri önceliklendireceğini yönetmenizi sağlayan iki temel teknik SEO aracıdır. Otel sitelerinde admin/test/staging sayfaları, filtre URL’leri ve rezervasyon adımları gereksiz tarama yükü üretir; buna karşılık oda, destinasyon ve kampanya sayfaları hızlı ve doğru taranmalıdır. Doğru robots kuralları, doğru sitemap segmentasyonu ve Search Console testleriyle tarama bütçesini verimli kullanır, önemli sayfaların daha hızlı indexlenmesini desteklersiniz.

Özet

Otel sitelerinde robots.txt ile gereksiz sistem/filtre/rezervasyon adımlarını sınırla; XML sitemap’i oda–destinasyon–kampanya olarak böl; Search Console testleriyle taramayı güvenle yönetin.

Maddeler

  • Hedef kitle: Otel yönetimi + ajans/SEO + geliştirici ekip
  • Kritik entity’ler: robots.txt, XML sitemap, crawl budget, indexation control, booking steps, hotel pages
  • KPI: Önemli URL’lerin daha hızlı taranması, indeks kapsamı sorunlarının azalması, gereksiz taramanın düşmesi
  • Funnel: MoFu (kontrol → düzeltme → doğrulama → bakım)
  • Risk uyarısı: “Yanlışlıkla tüm siteyi kapatma” ve “kanonik sayfaları dışarıda bırakma”
  • Otel özel alanlar: Rezervasyon adımları, filtre URL’leri, çok dilli yapı, çok otelli yapı
  • Çıktı hedefi: Featured snippet + PAA (robots/sitemap/crawl budget soruları)

Kısa Cevap

robots.txt taramayı sınırlar, XML sitemap önemli URL’leri botlara listeler; ikisi birlikte taramayı yönetir.

robots.txt ve sitemap.xml
robots.txt ve sitemap.xml

1. robots.txt Nedir?

robots.txt, arama motoru botlarına “bu siteyi tararken hangi klasör ve URL desenlerine yaklaşma / yaklaş” diyen bir yönerge dosyasıdır. En kritik nokta şudur: robots.txt indeksleme komutu değildir, tarama komutudur.

robots.txt nedir, ne işe yarar?

robots.txt, botların hangi URL’leri tarayıp taramayacağını belirler. Amaç; gereksiz sayfaları sınırlayıp tarama bütçesini önemli sayfalara yönlendirmektir.

robots.txt ile “taramayı durdurmak” ne zaman yanlış olur?

  • CSS/JS gibi render için gerekli dosyaları engellemek
  • Kanonik sayfaları robots ile kapatmak
  • Yanlışlıkla Disallow: / ile tüm siteyi kapatmak

☑ Mini Check (robots temel)

  • /robots.txt 200 dönüyor mu?
  • Yanlışlıkla Disallow: / var mı?
  • CSS/JS kritik dosyalar engelli mi?
  • Sitemap satırı doğru mu?

Ne yapmalıyım?

  • robots.txt’yi tarama kontrolü olarak konumla
  • Kritik varlıkları (CSS/JS) engelleme
  • Her değişiklikten sonra Search Console robots testini çalıştır

2. Hangi Sayfalar Engellenmeli / Açık Olmalı?

Otel ve turizm sitelerinde amaç, botların zamanını “gelir getiren ve arama niyetiyle uyumlu” sayfalara ayırmaktır: oda, destinasyon, kampanya, konsept ve hizmet sayfaları. Buna karşılık; yönetim panelleri, test ortamları, teşekkür sayfaları, filtre kombinasyonları ve rezervasyon adımlarının çoğu tarama yükü üretir ve indekslenmesi genellikle istenmez.

Otel sitesinde robots.txt ile engellenmesi sık görülen alanlar

  • Admin / CMS: /admin/, /wp-admin/ vb.
  • Test/Staging: /staging/, /test/ veya ayrı alt alan adı
  • Teşekkür / form sonuç: /thank-you, /tesekkurler
  • Arama/filtre parametreleri: ?sort=, ?filter= gibi sonsuz kombinasyonlar
  • Rezervasyon adımları (booking steps): /booking/step-1, /checkout, /payment gibi
Hangi Sayfalar Engellenmeli / Açık Olmalı?
Rezervasyon Adımları İndeks Riski

Rezervasyon adımları: Neden “index” riskli?

Rezervasyon akışı çoğu zaman: kullanıcıya özel, oturum bazlı, parametreli ve tekrarlanan URL’ler üretir. Bunların indexlenmesi:

  • Kopya URL üretimi
  • Tarama bütçesi kaybı
  • Kullanıcıların SERP’ten yanlış sayfaya inmesi (dönüşüm kırılması) gibi sonuçlar doğurur.

Varsayım: Rezervasyon motoru bazen üçüncü parti bir altyapıda olabilir; bu durumda kontrol alanınız domain/subdomain düzeyinde değişir.

Örnek robots.txt (otel odaklı, güvenli başlangıç)

Örnek robots.txt (otel odaklı, güvenli başlangıç)
Örnek otel robots.txt dosyası

Kritik not (kilitli gerçek): robots pattern desteği sınırlıdır; her parametre kuralı her botta aynı çalışmayabilir. Parametre yönetimini “tek başına robots” ile değil; canonical/noindex ve URL tasarımıyla birlikte ele alın.

Commons mistakes (en yaygın hatalar)

  • Disallow: / ile tüm siteyi kapatma
  • Sitemap satırını yanlış URL ile yazma
  • Kanonik sayfaları veya görsel/CDN yollarını yanlışlıkla engelleme
  • Staging’i açık bırakıp Google’ın test ortamını indexlemesi

Ne yapmalıyım?

  1. “Engellenecekler” listesini otel özelinde standartlaştır (admin + booking + filtre).
  2. Parametre çöplüğünü robots + canonical + Search Console parametre yönetimi ile birlikte çöz.
  3. Rezervasyon akışını index yerine dönüşüm odaklı (analytics) yönetecek şekilde ayır.

3. XML Sitemap Türleri (Genel, Haber, Görsel vb.)

XML sitemap, botlara “bu site için önemli URL listesi burada” diyen bir envanter dosyasıdır. Sitemap, Google’a garanti vermez ama keşfi hızlandırır ve özellikle büyük/çok dilli yapılarda kontrol sağlar. Otel sitelerinde genellikle standart (urlset) sitemap yeterlidir; ancak görsel ağırlığı yüksek sayfalarda image sitemap mantığı da düşünülür.

XML sitemap nasıl hazırlanır?

Sitemap, indexlenmesini istediğiniz kanonik URL’leri listeleyen bir XML dosyasıdır. Büyük sitelerde sitemap index kullanılır; URL’ler içerik türüne, diline veya silo’suna göre ayrı sitemaps’lere bölünür.

Sitemap index (çoklu sitemap yönetimi)

Örnek sitemap.xml dosyası

URL entry örneği (kanonik + güncelleme sinyali)

Ne yapmalıyım?

  • Sitemap’i kanonik URL listesi olarak tut
  • Büyük yapılarda sitemap index kullan
  • lastmod değerini gerçek güncellemeyle uyumlu ver

4. Otel ve Turizm Sitelerinde Sitemap Yapısı

Otel sitelerinde sitemap stratejisi, site mimarisine paralel olmalıdır: oda, destinasyon, kampanya gibi “ticari niyetli” sayfalar ayrı takip edilirse hem tarama hem raporlama kolaylaşır. Ayrıca çok dilli yapı (TR/EN/DE/RU) varsa, dil bazlı sitemaps veya dil prefix’ine göre segmentasyon önem kazanır.

Dil bazlı sitemap senaryosu

Örnek:

  • sitemap-tr.xml → /tr/ URL’leri
  • sitemap-en.xml → /en/ URL’leri
  • sitemap-de.xml → /de/ URL’leri
  • sitemap-ru.xml → /ru/ URL’leri

Bu yaklaşım, Search Console’da dil bazında kapsama ve hata takibini kolaylaştırır.

Çok otelli yapı: birden fazla sitemap yaklaşımı

  • Tek domain / çok otel: otel bazlı sitemap bölümü (örn. sitemap-hotel-a.xml)
  • Ayrı domain: her domain kendi sitemap setini yönetir
  • Ayrı rezervasyon motoru domain’i: sitemap, ana siteyle karışmamalı; index stratejisi net olmalı

Teknik not: “Host” direktifi robots.txt’de bazı arama motorlarında anlamlı olabilir; Google için temel olan Sitemap bildirimidir. (Host kullanımı varsa bile stratejiyi bunun üzerine kurma.)

Ne yapmalıyım?

  • Oda/destinasyon/kampanya sitemaps’lerini ayrı yönet.
  • Çok dilli ise Search Console takip kolaylığı için dil bazlı bölmeyi düşün.
  • Çok otelli yapıda domain/subdomain kararına göre sitemap stratejisini yeniden çiz.

5. Tarama Bütçesini Yönetmek (Crawl Budget)

Crawl budget, Google botlarının sitenize ayırdığı tarama kaynaklarının pratik karşılığıdır. Çok sayıda gereksiz URL üretirseniz (filtre parametreleri, test sayfaları, kopya varyasyonlar), botlar enerjisini boşa harcar ve önemli sayfalarınız geç taranır veya geç güncellenir. Otel sitelerinde bu risk; kampanya dönemlerinde ve yoğun içerik üretiminde daha görünür olur.

Tarama bütçesini bozan otel senaryoları

  • Filtre URL’lerinin indexlenebilir gibi görünmesi
  • “Teşekkürler” ve rezervasyon adımlarının açık kalması
  • Staging ortamının crawl edilebilir olması
  • Aynı sayfanın çok sayıda URL varyasyonuyla erişilebilir olması (kanibalizasyon)

Hızlı kontrol: “Crawl hygiene” yaklaşımı

  • Gereksiz URL üretimini azalt (parametre/filtre yönetimi)
  • 404 ve redirect zincirlerini temizle
  • Sitemap’te sadece “temiz” kanonik URL’leri tut
  • İç linklerde “çöp URL” üretme
Tarama Bütçesini Yönetmek (Crawl Budget)
Crawl Budget Yönetimi: Verimli vs İsraf

Ne yapmalıyım?

  • Parametre ve filtre URL’lerini kontrol altına al (robots + canonical + noindex).
  • Sitemap’i “temiz liste” yap; bozuk veya redirect URL’leri sitemap’e sokma.
  • Staging/test ortamını kesin kapat (auth + robots + noindex).

6. Test ve Doğrulama Süreci (Search Console)

robots ve sitemap değişikliklerinde “tek yanlış satır” büyük hasar üretebilir; bu yüzden test ve doğrulama süreci kilit önemdedir. Hedef; değişiklikleri canlıya almadan önce kontrol etmek, canlıda ise Search Console üzerinden doğru okunup okunmadığını düzenli olarak izlemektir.

Search Console’da robots ve sitemap testleri

  • robots.txt test: belirli bir URL bot tarafından engelleniyor mu?
  • sitemap gönderimi: sitemap okunuyor mu, kaç URL keşfediliyor?
  • indeks kapsamı: “excluded” nedenleri artıyor mu?
  • URL Inspection: kritik sayfalar taranabiliyor mu?

En kritik güvenlik kuralı

robots.txt ile engellediğiniz URL’ler “tarama dışı” kalır; ancak indeksleme hedefiniz varsa, doğru araç çoğu zaman noindex + canonical + iç link düzeni olur. robots ile “yanlış sayfayı kapatmak” kolaydır; geri dönüşü ise zaman alıcı ve risklidir.

Test ve Doğrulama Süreci (Search Console)
Google Search Console Paneli

Ne yapmalıyım?

  • Değişiklik öncesi/sonrası ölçüm al (kapsam, keşif, tarama).
  • Search Console üzerinden “kritik 10 URL” ile tek tek doğrula.
  • Hata görürsen ilk 24 saatte geri dönüş planını hazır tut.

7. Otel Odaklı “Tarama Kontrolü” Mantığı

robots.txt ve sitemap birlikte kullanıldığında, botlara aynı anda iki net mesaj verirsiniz: “gereksiz sayfalar burada değil” ve “asıl sayfalar burada”. Otel sitelerinde rezervasyon adımları ve filtre URL’leri en büyük tarama bütçesi sızıntısıdır; oda, destinasyon ve kampanya sayfaları ise en yüksek iş değerini taşır. Doğru kurguyla hem index kapsamı daha temiz olur hem de yeni içerikler daha hızlı keşfedilir.

Öncesi/Sonrası: Tarama & Keşif Performansı

8. robots.txt ve Sitemap Kontrol Listesini İndir — Teknik SEO / Tarama Kontrolü

PDFv1.0Checklist + Sprint

robots.txt ve Sitemap Kontrol Listesini İndir — Teknik SEO / Tarama Kontrolü (v1.0)

Bu doküman, otel sitelerinde robots.txt ve XML sitemap yapılandırmasını hızlı ve güvenli şekilde denetlemek için hazırlanmış bir kontrol listesidir. Amaç; admin/test/staging/rezervasyon adımları ve filtre URL’leri gibi tarama bütçesini tüketen alanları kapatırken, oda, destinasyon ve kampanya sayfalarının daha hızlı ve doğru keşfedilmesini sağlamaktır.

Kim Kullanır?

SEO uzmanı, web geliştirici ve otel dijital ekibi (ortak denetim checklist’i).

Nasıl Kullanılır?

  1. Mevcut robots.txt ve sitemap setini çıkarın (URL listesi + Search Console durumu).
  2. Checklist ile riskleri işaretleyin ve Problem → Kök Neden → Çözüm tablosunu doldurun.
  3. 14 günlük sprint planını uygulayıp öncesi/sonrası kapsama ve keşif metriklerini karşılaştırın.

Ölçüm & Önceliklendirme (Kısa sürüm)

PDF içinde: Problem→Kök Neden→Çözüm tablosu + 14 gün sprint planı + önce/sonra KPI tablosu

PDF’i İndir Ücretsiz • PDF / Excel

Bir Sonraki Adım

Otel sitenizde tarama risklerini kapatıp, önemli URL’lerin doğru keşfedilmesini isteyen ekipler için

FAQ / PAA Bölümü

robots.txt nedir, ne işe yarar?
robots.txt, arama motoru botlarına hangi URL’leri tarayıp taramayacaklarını söyleyen yönerge dosyasıdır. Amaç, gereksiz sayfaları sınırlayıp taramayı önemli sayfalara yönlendirmektir.
Otel sitesinde hangi sayfalar robots.txt ile engellenmeli?
Genellikle admin/test/staging alanları, teşekkür sayfaları, filtre ve parametre URL’leri ile rezervasyon adımları (checkout/payment gibi) tarama dışı bırakılır. Oda, destinasyon ve kampanya sayfaları açık kalmalıdır.
XML sitemap nasıl hazırlanır?
XML sitemap, indexlenmesini istediğiniz kanonik URL’leri listeleyen XML dosyasıdır. Büyük sitelerde sitemap index kullanılır ve URL’ler oda, destinasyon, kampanya veya dil bazında ayrı sitemaps’lere bölünür.
Tarama bütçesi (crawl budget) nasıl yönetilir?
Gereksiz URL üretimini azaltmak, filtre ve parametreleri kontrol etmek, sitemap’i temiz tutmak ve staging veya booking gibi riskli alanları kapatmak crawl budget’ı korur. Böylece önemli sayfalar daha hızlı taranır.
robots.txt ile bir sayfayı engellersem Google index’ten düşer mi?
Her zaman değil. robots.txt taramayı engeller; sayfa daha önce indexlenmişse URL görünebilir. İndeks yönetimi için noindex, canonical ve gerekirse URL kaldırma süreçleri gerekir.
Sitemap’e noindex sayfalar koymalı mıyım?
Hayır. Sitemap, yalnızca kanonik ve indexlenebilir URL listesidir. noindex, redirect veya 404 URL’leri sitemap’e eklemek keşfi kirletir ve raporlamayı zorlaştırır.
Staging ortamını Google’dan nasıl korurum?
En güvenlisi HTTP auth (şifre) ile erişimi tamamen kapatmaktır. Ek olarak robots ve noindex uygulanabilir; ancak tek başına robots.txt’ye güvenmek risklidir.
?
DGTLFACE | Dijital Dönüşüm Partneriniz