скажите пожалуйста, как поставить простое и эффективное ограничение на get запросы, хотелось бы без базы данных например в логах какие то боты левые по 10 запросов делают в течении 2х секунд для одной страницы, хотелось бы средствами php или .htaccess выдавать ошибку 403 когда такие запросы идут, ограничеть нужно что бы повторный запрос можно было выполнить раз в десять секунд для одной страницы лучший вариант, можно такое установить в .htaccess, колличество запросов к любым файлам ограничить интервал ?
Если апач с модулями, то http://stackoverflow.com/questions/131681/how-can-i-implement-rate-limiting-with-apache-requests-per-second Если чисто средствами php http://stackoverflow.com/questions/5761851/limit-page-request-with-php http://webmasters.stackexchange.com/questions/35171/number-of-page-requests-by-any-bot-in-5-secs или сам напиши...
вариант на php у меня самодельный есть, только ip в ручную пока добавляются, но результат не улучшается, после блокировки боты всё равно долбятся на страницу ошибок, и нагрузка на хостинг продолжается. попробовал пример с апач, ошибка 500 на сайте - возможно модуля нет или он не настроен у хостера, есть ли стандартные способы и модули в апач для ограничений количества запросов ?
Если по серьезному решать, то нужно сразу этот айпи блокировать через фаирвол. Первый раз на пол часа, второй раз на сутки. Если же совсем по серьезному, то смотри в сторону сурикана или ему подобных.
у хостинга файрвол есть, но управлять на виртуальном хостинге владельцам им не возможно, так как в панели хоста нет таких менюшек, самый лучший вариант который может быть, управление апач через .htaccess