Нужна автоматизированная система резервного копирования папок на сайте? Любые рекомендации?
Привет, ребята, есть ли программное обеспечение для резервного копирования, которое может периодически создавать резервные копии папок на веб-сайте и сохранять их в автономном режиме в локальной системе. Нужно что-то крепкое и было бы неплохо, если бы там было что-то бесплатное, что может сделать работу:)
Спасибо за ссылки - у меня есть доступ по ftp и мой веб-сайт, а также немного веб-сайта для обмена документами с пользовательскими загрузками, и я хотел бы периодически создавать резервные копии файлов, время от времени загружаемых на веб-сайт. Просто хочу автоматизировать этот процесс. Моя локальная система основана на Windows, хотя.
3 ответа
Если у вас есть доступ к веб-серверу, эту работу выполнит cronjob, который отправит по электронной почте или через ftps архив.
Если у вас нет доступа к оболочке на сайте, вы можете использовать wget:
#!/bin/bash
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
wget -m -np -P $BCKDIR http://www.example.com/path/to/dir
Варианты Wget:
- -m - Зеркально отразить все, перейти по ссылкам
- -np - не иметь доступа к родительским каталогам (избегает загрузки всего сайта)
- -P - хранить файлы ниже $BCKDIR
Если у вас есть доступ к оболочке, вы можете использовать rsync. Один из способов сделать это - запустить этот цикл в сеансе screen(1) с автоматическим входом в систему с помощью ssh-agent:
#!/bin/bash
while :; do
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
rsync -az user@hostname:/path/to/dir $BCKDIR
sleep 86400 # Sleep 24 hours
done
Не уверен, какую операционную систему вы используете, но это должно нормально работать под *NIX. А для MS Windows есть Cygwin.