Экспоненциально задерживать повторные запросы к одному и тому же файлу в php

Я стараюсь не допустить, чтобы роботы сканировали наш сайт и загружали тысячи размещенных там изображений.

Я прочитал это в последнее время https://github.com/remy/password-policy о лучших практиках для политики паролей. Одна из идей заключалась в том, чтобы экспоненциально задерживать повторные запросы, не ограничивая людей, а наказывая ботов.

Будет ли это возможно в php?

1 ответ

Решение

Самый простой способ - переписать соответствующие URL-адреса в скрипт PHP, который реализует загрузку. Это будет

  • вести список адресов источника (например, в memcached) с их последней отметкой времени и временем штрафа
  • удвоить или обнулить штрафное время в соответствии с отметкой времени,
  • написать запись обратно
  • и, наконец, спать и сделать загрузку.
Другие вопросы по тегам