Как загрузить все файлы (кроме HTML) с веб-сайта с помощью wget?

Как пользоваться wget и получить все файлы с сайта?

Мне нужны все файлы, кроме файлов веб-страниц, таких как HTML, PHP, ASP и т. Д.

10 ответов

Решение

Чтобы отфильтровать по определенным расширениям файлов:

wget -A pdf,jpg -m -p -E -k -K -np http://site/path/

Или, если вы предпочитаете длинные имена вариантов:

wget --accept pdf,jpg --mirror --page-requisites --adjust-extension --convert-links --backup-converted --no-parent http://site/path/

Это будет зеркало сайта, но файлы без jpg или же pdf расширение будет автоматически удалено.

Это загрузило весь сайт для меня:

wget --no-clobber --convert-links --random-wait -r -p -E -e robots=off -U mozilla http://site/path/
wget -m -p -E -k -K -np http://site/path/

Страница man расскажет вам, что делают эти опции.

wget будет следовать только по ссылкам, если на странице индекса нет ссылки на файл, wget не будет знать о его существовании, а значит и не скачивать его. то есть. помогает, если все файлы связаны с веб-страницами или в каталогах.

Я пытался скачать zip-файлы, связанные со страницы тем Omeka - довольно похожая задача. Это сработало для меня:

wget -A zip -r -l 1 -nd http://omeka.org/add-ons/themes/
  • -A: принимать только zip-файлы
  • -r: recurse
  • -l 1: один уровень глубоко (т.е. только файлы, напрямую связанные с этой страницей)
  • -nd: не создавайте структуру каталогов, просто загрузите все файлы в этот каталог.

Все ответы с -k, -K, -E Опции etc, возможно, не совсем поняли вопрос, например, переписать HTML-страницы для создания локальной структуры, переименовать .php файлы и тд. Не имеет значения.

Буквально получить все файлы, кроме .html так далее:

wget -R html,htm,php,asp,jsp,js,py,css -r -l 1 -nd http://yoursite.com

Я знаю, что эта тема очень старая, но я попал сюда в 2021 году в поисках способа загрузить все файлы Slackware с зеркала (http://ftp.slackware-brasil.com.br/slackware64-current/).

Прочитав все ответы, лучшим вариантом для меня был:

      wget -m -p -k -np -R '*html*,*htm*,*asp*,*php*,*css*' -X 'www' http://ftp.slackware-brasil.com.br/slackware64-current/

Мне пришлось использовать *html* вместо просто html чтобы избежать скачиваний вроде index.html.tmp.

Пожалуйста, простите меня за возрождение этой темы, я подумал, что она может быть полезна кому-то другому, кроме меня, и мои сомнения очень похожи на вопрос @ Aniruddhsinh.

Вы можете попробовать:

wget --user-agent=Mozilla --content-disposition --mirror --convert-links -E -K -p http://example.com/

Также вы можете добавить:

-A pdf,ps,djvu,tex,doc,docx,xls,xlsx,gz,ppt,mp4,avi,zip,rar

принять определенные расширения или отклонить только определенные расширения:

-R html,htm,asp,php

или исключить конкретные области:

-X "search*,forum*"

Если файлы игнорируются для роботов (например, поисковых систем), вы также должны добавить: -e robots=off

wget -m -A * -pk -e robots=off www.mysite.com/

это загрузит все типы файлов локально и укажет на них из файла html, и это будет игнорировать файл роботов

Попробуй это. У меня всегда работает

wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL

В системах Windows, чтобы получить wget, вы можете

  1. скачать Cygwin
  2. скачать GnuWin32

Это работает для меня:

wget -r -np http://yoursite.com/path/
Другие вопросы по тегам