Загрузите все zip-файлы в сети с "разбивкой на страницы". Я пробовал с Jdownloader2, wget и curl и безуспешно
Я говорю об этой странице: https://discourse.fullandroidwatch.org/c/round-custom-faces
Он содержит бесплатные циферблаты для умных часов, и я хотел бы загрузить все сразу.
У каждого сообщения в этой сети есть другая страница, которая содержит комментарий и ссылку для скачивания в Dropbox, на Google Диске или крошечные URL-адреса, которые перенаправляют вас на одну из этих платформ.
Я пробовал использовать Jdownloader и плагин Linkgrabber, в котором я сначала настроил захват файлов, которые были zip, rar, 7zip и с подстановочными знаками *.zip, *.rar, *.7zip, а позже я попытался отфильтровать файлы, которые не были zip, rar, 7zip и с подстановочными знаками *.zip, *.rar, *.7zip на случай, если я сделал это неправильно, ни одна из попыток мне не удалась.
Также я пробовал использовать команды linux wget и curl, как предлагается в этих ссылках: Как загрузить все ссылки на файлы.zip на данной веб-странице с помощью wget/curl?
Здесь меняем FLAC для zip-файла: https://www.commandlinefu.com/commands/view/4616/download-full-flac-albums-from-archive.org
Здесь ничего не скачалось (ну как и все попытки): https://www.commandlinefu.com/commands/view/901/download-an-entire-website
https://www.commandlinefu.com/commands/view/3269/parallel-file-downloading-with-wget
Здесь, но вместо основной команды с командой комментария: https://www.commandlinefu.com/commands/view/14922/download-files-linked-in-a-rss-feed
локон $1 | grep -E "http..zip" | sed "s /. (http..zip). / \1/" | xargs wget https://discourse.fullandroidwatch.org/c/round-custom-faces
wget curl -s https://discourse.fullandroidwatch.org/c/round-custom-faces | grep -o 'https*://[^"]*zip'
https://discourse.fullandroidwatch.org/c/round-custom-faces
https://www.commandlinefu.com/commands/view/8303/thepiratebay.org-torrent-search wget -U Mozilla -qO - " https://discourse.fullandroidwatch.org/c/round-custom-faces" | grep -o 'http://torrents.thepiratebay.org/.*.zip'
https://www.commandlinefu.com/commands/view/12498/download-all-music-files-off-of-a-website-using-wget wget -r -l1 -H -nd -A zip -e robots = выкл. https://discourse.fullandroidwatch.org/c/round-custom-faces
Я попробую использовать такие инструменты, как Webcopy, HTTrack и WebCopy, но я не верю, что эти инструменты могут читать каждую из публикаций и получать доступ к URL-адресам Dropbox / дисков и загружать zip-файлы, в конце концов, эти файлы не принадлежат веб-сайту, как документация, статические файлы, динамические файлы или CSS.
Заранее спасибо за помощь!!