smf robots.txt - R10.net
15
Bildirimler TÜMÜNÜ OKUNDU SAY
Yükleniyor, lütfen bekleyiniz..
Giriş Yap Kayıt Ol
  • 29-01-2010, 13:16:28
    #1
    Merhabalar,

    arkadaşlar bildiğiniz gibi smfde aynı konuya giden bir çok link oluyor (yazdırma sayfaları,yeni msj sayfaları vb).Bu da binlerce tekrarlanan içeriğe neden oluyordu.bunun için robots da bazı yerleri kısıtladım ve sonuc olarak site.com/forum/konu gibi linkler kaldı kaldı.(smf seo kurulu sitemde) sonuc olarak baktıgım gerekli hiçbir urlenin kısıtlanmadıgını goruyorum ancak toplam 1600 url robots tarafından kısıtlanıyor.

    robots.txt dosyamın ornegi şu şekildedir
    User-agent: *
    Disallow: /forum/help/
    Disallow: /forum/Themes/
    Disallow: /forum/verificationcode/
    Disallow: /forum/admin/
    Disallow: /forum/reminder/
    Disallow: /forum/profile/
    Disallow: *?sort=*
    Disallow: */new/*
    Disallow: *?start=*
    Disallow: *?expand=*
    Disallow: *?action=*
    Disallow: *?topic=*
    Disallow: */msg/*
    Disallow: *?prev_next=*
    Disallow: *smf*
    Disallow: *?PHPSESSID*
    Disallow: *msg*
    Disallow: *?collapse=*
    
    Allow: /
    sizce yazdırma sayfaları vb gibi içeriğin tekrarlanmasına neden urleri kadırmalımıyım yoksa henüz sadece 200 konusu olan bir site için 1600 kısıtlanan url e abartı mı?

    Saygılarımla
    www.uyaneyturk.com