Проверьте сайт на наличие файлов моего сайта

Существует ли программа, которая сканирует указанный веб-сайт и будет выплевывать, если есть ссылка на другой веб-сайт? У меня есть изображения, видео файлы, PDF и т. Д. что мне нужно дать другому разработчику, чтобы завершить перенос на новый сервер.

Я только что передал старый сайт другому человеку, и они все еще используют мои файлы. Я не знаю, были ли все файлы на 100%, и я хочу быть уверенным, какие файлы мне нужно дать им. Было бы неплохо иметь что-то вроде linkchecker, который может сканировать, и если есть ссылка на корень сайта (например, sub.domain.com), то он будет выдавать информацию об этом (какая страница, какой URL).

Я не хочу блокировать сайт на данный момент от использования файлов, так что нет.

Я на Mac, так что любая терминальная программа будет в порядке.

2 ответа

Вы можете попробовать Sitesucker, который можно использовать для загрузки всех файлов, используемых на сайте (и любых, на которые он ссылается в зависимости от настроек). Это OSX (и iPhone) для пожертвований, так что это может быть именно то, что вы ищете. Я полагаю, что он создает файл журнала файлов, которые он загружает, так что вы можете отправить его, если вы просто хотите отправить URL своему коллеге вместо реальных файлов.

Вы можете проверить wget, Может рекурсивно (-r вариант) скачать сайт и сохранить его содержимое на свой жесткий диск. Обычно (то есть, если не указано иное) загружает все в каталоги, названные как хост.

Но будьте осторожны, чтобы не загружать весь интернет рекурсивно;) Так что не забудьте указать правильный --domains или же --exclude-domains опции.

Другие вопросы по тегам