index kullanılsa bile veri 10+milyon gibi değerlere ulaşınca süre çok çok uzamaya başlıyor.
Tablo yapısı, ilişkilendirmesi hepsi gayet başarılı. Neredeyse 1 Byte hesabı bile yapılmış durumda.
ID olayı saçmalık dediniz hocam ama tam olarak neden sebep öyle dediniz? Pagination mantığı sorunsuz çalışıyor ve 0.0080 gibi sürelerde getiriyor sonuçları.
veri silindiğinde vs sorun yaşayacaksınız, id ile çalışmak istiyorsanız örneğin sayfa başı 10 içeriğiniz olsun siz bu 10 içeriğinde silinmeyeceğini biliyorsunuz ama alttan silinen 20 içerik bütün sayfaları kaydıracak. onun için mesela ilk 100 sayfa için 10 lu düşündüğünüzde 1000 kayıt eder siz bunu 100 ile çarpıp orada bir swich yapısından geçirip mesela o limtilerin arasını kontrol edebilirsiniz. yani 10 milyon varsa siz bunu 100 parçaya ayırdığınızda sorgu sayınız azalır ve id sıralamsına göre daha uzun güven sağlayan bir çözüm olmuş olur. bu şekilde 100.000 içerik silinmediği sürece sayfalar kaymayacaktır.
Örnek şöyle olacak mesela 78. sayfa ilk 1000 de oludğundan 1000 x 100 = 100.000
SELECT (istenilenler) from (tablo) WHERE id > 0 AND id < 100.000 ORDER BY id DESC LIMIT 780, 10