• 28-02-2026, 15:57:26
    #1
    SEO ❤️
    Merhaba,
    Dün sizlere Case Study ile bir siteyi nasıl topladığımızı anlatmıştım, çok güzel yorumlarda geldi hepinize teşekkür ederim. Ama asıl kısmı anlatmadığımı fark ettim. Oradaki bilgiler bu bilgiyi bilmeden aslında tam olarak oturmamış havada kalmış olacaktı.

    Şu aralar LinkedIn ve R10 üzerinden en çok sorulan soru "sitem neden index almıyor?"dur büyük ihtimalle. Danışmanlık verdiğim sitelerde bazen aynı tabloyla karşılaşıyorum. Yeni kurulan siteler Search Console'da "Keşfedildi, şu anda dizine eklenmedi" (Discovered - currently not indexed) durumunda takılı kalıyor, haftalar geçiyor ve bir türlü çözülmüyor. Forumda da bu konunun sürekli sorulduğunu görüyorum ama verilen cevaplar genellikle "sitemap gönder, URL denetimi yap, Indexing API kur, hizmet verelim, bekle" seviyesinde kalıyor. Oysa sorunun kökü çok daha derinlerde.

    Şimdi size bu sorunun aslında eski SEO bilgileri ile kaldığınız için yaşandığını anlatmam gerekiyor. Sürekli olarak Google bu şekilde, Google bir güncelleme yaptı ve tüm sistemi bozdu olarak değerlendiriliyor. Bir döneme kadar aynı yanılgıya bende düşmüştüm ama bunun düzelmediğini görünce farklı bir şeyleri ele almak gerekiyor. Biraz daha geniş çaplı bakmak gerekiyor bu durumlara. Örnek Google hisselerine falan bakmanız gerekiyor. Şirket içi ciddi bir problem yaşandığında elbet biri sızdırdığında bu durum ilk hisselere yansıyor. Ee böyle bir durumda olmadığına göre yanlış açıyla baktığımızı anlıyorsunuz. Neyse konuya dönelim.

    Öncelikle şunu kabul etmemiz gerekiyor. Google'ın "her sayfayı tara ve indexle" dönemi bitti. Özellikle Haziran 2025 Core Update sonrasında Google, indexten sayfa çıkarma konusunda tarihinin en agresif hamlesini yaptı. Bu güncelleme sadece sıralamaları değiştirmekle kalmadı, milyonlarca sayfayı indexten tamamen sildi. Bazı site sahipleri bir milyonun üzerindeki sayfalarının yüzde 70'inin indexten düştüğünü raporladı. Güncellenen SpamBrain sistemi ise önceki yıllara göre 200 kat daha fazla spam site tespit ediyor.
    Bu tablo yeni siteler için ne anlama geliyor? Google artık "önce indexle, sonra değerlendir" yerine "önce değerlendir, yeterli bulursan indexle" mantığıyla çalışıyor. Yani yeni siteniz teknik olarak kusursuz olsa bile, Google'ın kalite eşiğini geçemezse indexlenmeyebilir.

    Harika bir içerik girdiğinizde Google sizi doğrudan zirveye kalıcı olarak yerleştirmez. Önce algoritmik bir "Mikro Tıklama Testi" başlar. Sayfanız günde sadece 20 dakika ilk sayfada gösterilir. Eğer kullanıcı davranış sinyalleri (dwell time, pogo-sticking oranları) pozitifse, bu süre 40 dakikaya, ardından kalıcı 24 saate çıkar. Markalı arama talebini (Brand Search Demand) artırmadan bu tarihsel veri açığını kapatmak artık çok zor.

    Google'ın her sayfayı taraması, render etmesi, işlemesi ve indexe eklemesi bir hesaplama maliyeti taşıyor. Buna "cost of retrieval" deniyor. Google sınırsız kaynağa sahip gibi görünse de, milyarlarca sayfayı işlemek ciddi bir altyapı yükü demek. Bu yüzden Google her siteye bir crawl budget ayırıyor ve bu bütçeyi iki faktöre göre belirliyor. Birincisi crawl capacity limit, yani sunucunuzun Google botlarına ne kadar hızlı cevap verebildiği. İkincisi crawl demand, yani Google'ın sitenizi taramaya ne kadar ihtiyaç duyduğu.

    Yeni bir site kurduğunuzda her iki faktör de aleyhinize çalışıyor. Sitenizin geçmişi yok, Google'ın gözünde henüz bir güven biriktirmediniz ve tarama talebi düşük. Eğer bu aşamada sitenizi yarım yamalak içeriklerle, zayıf bir internal linking yapısıyla ve topikal bir bütünlük olmadan yayına alırsanız, Google size ayırdığı zaten kısıtlı kaynağı daha da geri çekiyor. Bu noktadan sonra Search Console'da gördüğünüz "Keşfedildi, dizine eklenmedi" durumu kronikleşiyor.

    Konunun bir de çoğu kişinin bilmediği bir boyutu var. DOJ davasında Google'ın Arama Başkan Yardımcısı Pandu Nayak, NavBoost adlı sistemin en kritik sıralama sinyallerinden biri olduğunu resmen doğruladı. NavBoost, son 13 aylık kullanıcı tıklama verilerini biriktiren devasa bir tablo. Google bu veriyi kullanarak sayfaları yeniden sıralıyor.
    Peki yeni bir sitenin NavBoost tablosunda ne var? Hiçbir şey. Sıfır tıklama geçmişi, sıfır kullanıcı davranış verisi, sıfır marka arama hacmi. Oysa rakipleriniz yıllardır bu tabloyu dolduruyor. Google'ın 13 aylık veri havuzunun, Bing'in yaklaşık 17 yıllık verisine denk geldiği düşünülünce, bu asimetrinin boyutu daha net anlaşılıyor.
    Google yeni bir sayfayı SERP'te test ederken de bu geçmiş veriden faydalanıyor. Yeni sayfanızı kısa süreli gösterimlerle kullanıcılara sunuyor, tıklama oranını, sayfada kalma süresini ve aramaya geri dönüş davranışını ölçüyor. Bu testten geçemeyen sayfalar sessizce geri çekiliyor.


    Sektörde yıllardır "Google Sandbox" tartışılıyor. Google resmi olarak böyle bir mekanizmanın varlığını kabul etmiyor. Ancak sahada gördüğümüz tablo farklı. Yeni sitelerin genellikle 3 ila 6 ay arasında bir bekleme sürecine girdiği, bazı YMYL nişlerinde bunun bir yıla kadar uzayabildiği bir gerçek.

    Sandbox tek bir mekanizma değil, birden fazla sistemin birleşik etkisi. Cost of retrieval nedeniyle düşük crawl budget, NavBoost tablosundaki veri eksikliği, domain yaşının henüz güven oluşturamamış olması ve Google'ın Haziran 2025 sonrası sıkılaştırdığı kalite eşikleri... Bunların hepsi bir araya gelince yeni siteler doğal olarak dezavantajlı bir konumdan başlıyor.

    Index Problemini nasıl çözeceğiz?
    Yeni bir site oluşturacağım yapacağım zaman siteyi Google botlarına açmadan önce ciddi bir hazırlık süreci geçiriyorum. Birbirine anlamsal olarak bağlı, topical map üzerine oturmuş içeriklerin hazır olmasını bekliyorum. Internal linking yapısını tamamlıyorum, her içerik kümesinin birbirini desteklemesini sağlıyorum. Sayfa hızını, Core Web Vitals metriklerini ve rendering süreçlerini siteyi yayınlamadan önce test ediyorum. Sitemap yapısını düzgün kuruyorum ve gereksiz URL'lerin taranmasını robots.txt ile engelliyorum. Gereksiz tema sayfalarını çıkarıyorum, benim işime yaramayacak her şeyi çıkarıyorum. Site açtım, hazır temayı kurdum, içerik girdim ve hit geldi döneminde değiliz. Bunu zaten birinci elden deneyimliyorsunuz. Her açılan proje ya index sorunu ile karşılaşıyor ya da ilk 100'e çıkamayan kelimelerde kalıyor.

    Google'ın yeni bir siteye tanıdığı ilk değerlendirme penceresi gerçekten kritik. O pencerede Google'a "bu site ciddi, kapsamlı ve kullanıcıya değer sunuyor" mesajını veremezseniz, crawl frequency düşüyor ve indexleme süreci aylar boyunca sürüncemede kalıyor.


    Bir diğer kritik nokta da markalı arama talebi oluşturmak. Sosyal medya, PR çalışmaları ve doğrudan trafik kaynakları üzerinden insanların sitenizi marka adıyla aramasını sağlamak, NavBoost tablosuna pozitif sinyal göndermenin en etkili yollarından biri.


    Buna kesinlikle değinmek istiyorum, 2025 testlerinde sahte tıklama satın almanın ne görünürlüğü artırdığı ne de kalıcı sıralama sağladığı net biçimde ortaya kondu. Google'ın spam politikaları bu tür manipülasyonları artık doğrudan hedef alıyor. Dolayısıyla kısayol arayışı yerine temiz ve sürdürülebilir bir strateji kurmak her zaman daha akıllıca. Eğer Vur-Kaç sektöründe iş yapmıyorsanız sitenize hiçbir şekilde hit basmayın.

    Her şey dezavantaj gibi görünse de yeni sitelerin önemli bir avantajı var. Eski sitelerin HCU güncellemesinden, spam cezalarından ve yıllar içinde biriken düşük kaliteli sayfa yığınlarından kaynaklanan ciddi sorunları olabiliyor. Crawl kirliliği, index bloat ve içerik kannibalizasyonu gibi sorunlar köklü sitelerin en büyük açmazları arasında. Yeni bir site bunların hiçbirini taşımıyor. Temiz bir sicille, doğru bir stratejiyle başlamak büyük bir fırsat. Ancak bu fırsatı değerlendirebilmek için, siteyi olgunlaşmadan yayına almamak ve Google'ın ilk taramasında güçlü bir izlenim bırakmak şart.


    Umarım bu yazı, yeni site kurup index sorunu yaşayan arkadaşlara farklı bir bakış açısı sunar. Sorularınız varsa elimden geldiğince cevaplamaya çalışırım.
  • 28-02-2026, 16:02:31
    #2
    Çok yararlı bir bilgi olmuş hocam teşekkürler
  • 28-02-2026, 16:07:39
    #3
    Çok güzel bir paylaşım olmuş, teşekkürler, aslında uzun lafın kısası şu şekilde. Yeni site açıldığı zaman yarım yamalak yerine googleyi sitede tutucak şekilde beslemek gerekir, ilk etapta sitenize hit akışı olduğu zaman kullanıcıyı sitede tutma ya da arama sonrasında siteden çıkıp başka bir siteye girmesini engelleyecek tarzda içerik ve site yapısı olması lazım.
  • 28-02-2026, 16:08:54
    #4
    R10 ⚡#1 Sıra Garanti SEO
    Eline sağlık abi içerik için çok teşekkür ederim.
  • 01-03-2026, 00:19:34
    #5
    SEO ❤️
    ByHazerfen adlı üyeden alıntı: mesajı görüntüle
    Çok güzel bir paylaşım olmuş, teşekkürler, aslında uzun lafın kısası şu şekilde. Yeni site açıldığı zaman yarım yamalak yerine googleyi sitede tutucak şekilde beslemek gerekir, ilk etapta sitenize hit akışı olduğu zaman kullanıcıyı sitede tutma ya da arama sonrasında siteden çıkıp başka bir siteye girmesini engelleyecek tarzda içerik ve site yapısı olması lazım.
    Evet hocam özette öyle ama SEO uzmanı olarak ben o şekilde anlatamam. Neyi neden yapıldığını göstermeden birilerini ikna etmek sadece lafın gelişi bir söz gibi o yüzden bunun nedeni bizim için daha önemli. Detayları öğrenerek Google tarafında ufak aydınlanmalar bulunabilir. Burada anlatılan bir sistemde kafasında ışık yanıp ufak bir detayı bulup Google açığını bularak belki birisi index sorununu bile bu kurallara bağlı kalmadan çözebilir.
  • 02-03-2026, 10:40:27
    #6
    Başarılı konu. Tşkler.
  • 02-03-2026, 11:08:57
    #7
    bende dert yakınacağım sitem index almıyor 10 sayfayı indexledi google mümkünü yok daha bir tane sayfa eklemedi 15 gündür bekliyorum. site ilk yayınlandığında prerender yoktu sonradan ekledim. tarama maliyeti yüksek olduğu için bot göndermiyor diye algılıyorum. siteyi olgunlaşmadan yayına almama konusunda çok haklısınız. Bu durumdan çıkmak sadece zamana mı bağlı gerçekten yapabileceğimiz bir şey yok mu?
  • 02-03-2026, 18:11:28
    #8
    çok güzel konu
    Index Problemini nasıl çözeceğiz?
    Yeni bir site oluşturacağım yapacağım zaman siteyi Google botlarına açmadan önce ciddi bir hazırlık süreci geçiriyorum. Birbirine anlamsal olarak bağlı, topical map üzerine oturmuş içeriklerin hazır olmasını bekliyorum. Internal linking yapısını tamamlıyorum, her içerik kümesinin birbirini desteklemesini sağlıyorum. Sayfa hızını, Core Web Vitals metriklerini ve rendering süreçlerini siteyi yayınlamadan önce test ediyorum. Sitemap yapısını düzgün kuruyorum ve gereksiz URL'lerin taranmasını robots.txt ile engelliyorum. Gereksiz tema sayfalarını çıkarıyorum, benim işime yaramayacak her şeyi çıkarıyorum. Site açtım, hazır temayı kurdum, içerik girdim ve hit geldi döneminde değiliz. Bunu zaten birinci elden deneyimliyorsunuz. Her açılan proje ya index sorunu ile karşılaşıyor ya da ilk 100'e çıkamayan kelimelerde kalıyor.
    İşte bakın bence olayın özeti burası aslında burada büyük bir sır vermişsiniz. Bir konuda otorite olacaksan vereceğin iç linkleme mantığı senin otoriteni sağlamlaştıracaktır Yapın düzgün olmadıktan sonra istediğin kadar backlink al ancak bir yere kadar taşırsın.
    teşekkürler gerçekten okuyup çok fazla ders çıkartılacak konulara değinmişsiniz. katılmadığım 2-3 nokta var onlarıda ilerleyen zamanda açmak isterim.
  • 02-03-2026, 21:33:42
    #9
    Google artık yeni siteleri otomatik indexlemiyor; yeterli kalite, topikal bütünlük, kullanıcı sinyali ve marka talebi görmezse “Keşfedildi, dizine eklenmedi” durumunda bekletiyor.