Ya sé que hay una extensión para Firefox (DownThemAll) que permite descargar todos los links de una página. La desinstalé hace mucho tiempo, porque molesta más de lo que ayuda.
Pero seguía necesitando descargar todos los links. Resultado:
Código: Seleccionar todo
#!/bin/bash -x
read -p "indique directorio raíz " RAIZ
curl $RAIZ >/tmp/raiz.html
sed -e 's/="/ /g
s/="/ /g
s/">/ /g
s/"/ /g
s/</ /g ' /tmp/raiz.html >> raiz.html
for i in $(cat raiz.html|tr ' ' '\n'|grep http); do wget $i; done
Lo que me trae a la memoria esta cita de The Unix Haters Book.
Traducción:I liken starting one’s computing career with Unix, say as an undergraduate, to being born in East Africa. It is intolerably hot, your body is covered with lice and flies, you are malnourished and you suffer from numerous curable diseases. But, as far as young East Africans can tell, this is simply the natural condition and they live within it. By the time they find out differently, it is too late. They already think that the writing of shell scripts is a natural act
Me gusta comparar el iniciar una carrera informática en Unix, con nacer en África Oriental. Es intolerablemente cálido, tu cuerpo está cubierto de piojos y moscas, estás desnutrido y sufres de numerosas enfermedades curables. Pero, por lo que los jóvenes del Este de África pueden decir, esta es simplemente la condición natural en que ellos viven. Para cuando, con el tiempo, averiguan que hay algo diferente, es demasiado tarde. Ya piensan que escribir shellscripts es algo natural.