Bilgili bir yazılımcının bakması gereken bir konu...
4
●228
- 25-07-2024, 23:08:17Merhaba, son zamanlarda requestlerde tersine mühendislik yaparken şöyle bir sorunla karşılaşıyorum; yeni bir cihazdan aynı requesti attığım zaman (proxy veya proxysiz aynı durum) curl ile veya curl kullanan diğer programlama dilleri (PHP) ile çalışırken, diğer programlama dilleriyle benim yaptığım selfbottingi algılayıp hata veriyor. Ne yaparsam yapayım çözemiyorum bu durumu. (user-agent gibi basit yöntemleri denedim) Ufkumu açacak biri varsa ona şimdiden teşekkür ederim.
- 25-07-2024, 23:24:21Headerlerdan dinamik değişen bir şey var mı onu kontrol edin.
Özel bir şifreleme içeriyor olabilir. timestample alakalı - 25-07-2024, 23:24:39Merhaba hocam bu tür problemler genellikle web servislerinin anti-bot ve güvenlik önlemlerinden kaynaklıyor. Şu yöntemleri deneyebilirsin.
Dinamik Başlıklar ve Çerezler:
- Sadece `User-Agent` değil, diğer başlıklar (`headers`) da önemlidir. Örneğin, `Accept`, `Accept-Encoding`, `Accept-Language`, `Connection`, `Referer`, `Origin`, `Upgrade-Insecure-Requests` ve `Sec-*` başlıkları gibi başlıklar kullanılabilir.
- Oturum çerezlerini (`cookies`) doğru bir şekilde yönetmelisin. Giriş yaptıktan sonra alınan çerezleri her istekle birlikte göndermelisin
JavaScript Emülasyonu:
- Bazı siteler JavaScript kontrolleri yapar. Bu kontrolleri geçmek için Selenium gibi tarayıcı otomasyon araçlarını kullanabilirsin.
- Puppeteer veya Playwright gibi başsız tarayıcılar (headless browser) kullanarak JavaScript işlemlerini taklit edebilirsin.
İsteği İnsansı Hale Getirme:
- İstekler arasında rastgele gecikmeler eklemeyi dene.
- Belirli kullanıcı davranışlarını taklit etmek için, sayfanın farklı bölümlerine istekler gönder ve sadece tek bir noktadan sürekli veri çekme.
- `Referer` ve `Origin` başlıklarını gerçek tarayıcıdan gelenlerle uyumlu hale getirip tekrar dene.
Tarayıcı Parmak İzleri:
- Bazı siteler tarayıcı parmak izi (browser fingerprinting) teknolojisi kullanıyor. Tarayıcının çeşitli özelliklerini (ekran boyutu, yazı tipleri, eklentiler, vs.) kontrol ediyorlar. Bu özellikleri doğru şekilde emüle etmek gerekir
- Puppeteer Extra gibi araçlar ile tarayıcı parmak izini değiştirebilirsin ve gerçeğe daha yakın hale getirebilirsin.
İki Faktörlü Doğrulama ve CAPTCHA:
- Eğer site CAPTCHA kullanıyorsa, manuel olarak çözmen gerekebilir veya CAPTCHA çözüm servislerini kullanabilirsin
- İki faktörlü doğrulama ile korunan siteler için bu doğrulamayı manuel olarak veya otomatikleştirme araçlarıyla (örneğin, API ile) yapman gerekebilir.
Network Trafik Analizi:
- Wireshark veya Burp Suite gibi araçlarla gerçek tarayıcıdan gelen istekleri detaylı bir şekilde analiz etmelisin
- SSL/TLS trafiğini çözerek isteğin tam olarak nasıl göründüğünü öğrenmelisin
API Anahtarları ve Tokenlar:
- Bazı istekler API anahtarları veya zaman damgası gibi dinamik veriler gerektirebilir. Bu değerleri doğru şekilde taklit etmek için tarayıcıda oluşan değerleri incele ve doğru şekilde yeniden üret
Yazdıklarımı deneyerek sonuca ulaşacağına inanıyorum. - 25-07-2024, 23:30:21Misafir adlı üyeden alıntı: mesajı görüntüle