Если у вас есть список URL-адресов в файле с именем links.txt:
for url in $(cat links.txt); do wget $url; done
С aria2:
aria2c -i links.txt
Если у вас есть файл html с большим количеством href и других тегов. .., вы можете использовать регулярное выражение, чтобы проанализировать их и, наконец, получить чистый список.
HTTP на самом деле не раскрывает файловую систему, поэтому wget
обычно не может просто захватить весь каталог и т.д. Он может работать только с ресурсами, о которых он знает. Он попытается захватить каждый URL-адрес, который является href
или src
соответствующих элементов на странице / сайте, на который вы указываете, но если файлы не связаны с page, wget
даже не знает о них, поэтому не будет пытаться их получить.
Перевод: если вы хотите получить все это, сделайте ссылку где-нибудь на странице / сайт. Или используйте FTP, который намного лучше подходит для работы.