Primero y antes de que sigas leyendo esto es para Linux. Si usas Window$ cambiate y usa este minicomo
Para hacer esto solo necesitamos el potente y muchas veces infravalorado wget.
La linea mágica será:
wget -t5 -r -l2 -k -p http://www.direccionweb.com
- -t5 indica que se probará 5 veces cada descarga.
- -r indica que se descargarán recursivamente los enlaces.
- -l2 indica el nivel en la recursividad de descarga de los enlaces. Esto es, se descargaran las páginas que esten enlazadas por las páginas enlazadas por la página que quiero descargar. Normalmente en 2 niveles es mas que suficiente ( y ya lleva su tiempo) pero si quieres mas amplitud y tines paciencia puedes usar numeros mayores (ten en cuenta que las descargas aumentan de manera exponencial)
- -k convertirá los enlaces para que sea posible navegar en local.
- -p se descargarán tambien los elementos externos a la página, pero que son útiles para su visualizacion, como fotos, hojas de estilo...
Para empaquetar todo lo que has bajado en un bonito war puedes:
- Renombrar la página que queremos q sea nuestra principal como "index.html" (espero que sepas hacer esto)
- Meterlo todo en un tar con extension .tar; pra ello:
cd directorioCreadoPorWGET;
tar -cvf nombreArchivo.war *;
mv nombreArchivo.war ../;
cd ..;
tar -cvf nombreArchivo.war *;
mv nombreArchivo.war ../;
cd ..;
Ahora en el directorio en el que estais habrá una carpeta que es la que creo el wget y un archivo empaquetado .war que el konqueror podrá leer.
1 comentario:
Hoy necesité bajar una web y me acordé de que había leido este post. Resulta que tu solución me parece que no funciona para webs con enlaces javascript. Buscando me encontré con http://www.httrack.com/ licencia GPL y que va bien :)
Publicar un comentario