Я получаю кучу относительно небольших страниц с сайта и задаюсь вопросом, могу ли я как-то сделать это параллельно в Bash. В настоящее время мой код выглядит так, но для выполнения требуется некоторое время (я думаю, что замедляет меня - это латентность в соединении).
for i in {1..42}
do
wget "https://www.example.com/page$i.html"
done
Я слышал об использовании xargs, но я ничего не знаю об этом, и страница man очень запутанна. Есть идеи? Возможно ли это сделать параллельно? Есть ли другой способ, чтобы я мог атаковать это?