Экспоненциально задерживать повторные запросы к одному и тому же файлу в php
Я стараюсь не допустить, чтобы роботы сканировали наш сайт и загружали тысячи размещенных там изображений.
Я прочитал это в последнее время https://github.com/remy/password-policy о лучших практиках для политики паролей. Одна из идей заключалась в том, чтобы экспоненциально задерживать повторные запросы, не ограничивая людей, а наказывая ботов.
Будет ли это возможно в php?
1 ответ
Решение
Самый простой способ - переписать соответствующие URL-адреса в скрипт PHP, который реализует загрузку. Это будет
- вести список адресов источника (например, в memcached) с их последней отметкой времени и временем штрафа
- удвоить или обнулить штрафное время в соответствии с отметкой времени,
- написать запись обратно
- и, наконец, спать и сделать загрузку.