Libertonia
Portada · Todo · Software Libre · Desarrolladores · Comunidad · Internet · Tecnología · Meta · Diarios
pequeñas joyas

preage's Diary
Por preage
departamento little-jewels , Sección Diarios
Puesto a las Sun Dec 28th, 2003 at 06:22:44 PM CET
Pocas cosas más inútiles que la reinvención de la rueda.

Algo así quería hacer yo para descargar unas ISOs. Mi conexión a Internet es mediante una línea telefónica que me ofrece un "ancho de banda" de 56 kbps y está claro que dicha descarga me va a llevar muchos días. También está claro que va a haber cortes en la conexión durante todo ese tiempo: puede haber cortes de luz, la propia conexión se puede caer (con mi ISP esto pasa muy pocas veces, pero pasa) y, sobre todo, mi tarifa "ondulada" me permite conectarme a Internet los días laborables a partir de las 15h. En resumen, que necesito descargar esos archivos por partes.

Así que me puse a buscar una aplicación que me ofreciese esa funcionalidad...

 


...y googleando, googleando un enlace me llevó a una aplicación, cuyo nombre no recuerdo ahora, que era un front-end gráfico de wget.

Y entonces tuve uno de mis, por desgracia, poco frecuentes ataques de inteligencia. ¿Y si esa aplicación "de consola" ya me estuviese ofreciendo lo que quería? Así que consulté la página man de wget y descubrí la opción -c:

-c
--continue
Continue getting a partially-downloaded file. This is useful when
you want to finish up a download started by a previous instance of
Wget, or by another program. For instance:

wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z

If there is a file named ls-lR.Z in the current directory, Wget
will assume that it is the first portion of the remote file, and
will ask the server to continue the retrieval from an offset equal
to the length of the local file.
...


Al final de la explicación de esta opción se advertía que

Note that -c only works with FTP servers and with HTTP servers that
support the "Range" header.


Vamos, que con esta pequeña utilidad (o joya) todo se reducía a encontrar un servidor que tuviese implementada dicha funcionalidad. En este sentido, acudí a la fuerza bruta: encontré un servidor FTP con las ISOs que quiero descargar, comencé la descarga de la primera de ellas y a los pocos segundos de hacer comenzado la descarga, la interrumpí y la volví a iniciar para ver si continuaba en el punto en el que yo había interrumpido la descarga. Tuve suerte, en el primer servidor que probé dicha funcionalidad estaba implementada.

Por poco intento utilizar una rueda reinventada (¡suponiendo que existiese!).
< MandrakeSoft publica sus 8 reglas de Oro (15 comments) | "Hackeo" de libertonia por parte de BaDoPi (0 comments) >
Enlaces Relacionados
· wget
· More on preage's Diary
· Also by preage

Menu
· crear cuenta
· FAQ
· búsqueda
· Fuentes de Noticias

Login
Nueva cuenta
Usuario:
Contraseña:

Ver: Modo: Orden:
pequeñas joyas | 4 comentarios (4 temáticos, editoriales, 0 ocultos)
Yo uso Kget (4.00 / 1) (#1)
por melenas a las Sun Dec 28th, 2003 at 06:41:20 PM CET
(Información Usuario)

Lo sé, el nombre en español es feo de cojones y simula cierta acción bastante escatológica....

Se integra en konqueror, te dice si el servidor soporta continuidad, si pierde la conexión se autoconecta solo al servidor para volver a intentarlo.

Además para alguien como tú que tiene tarifa ondulada te permite desconectar la línea a cierta hora o antes si se ha bajado el archivo completo.

Tiene muchas más funcionalidades pero no las voy a explicar todas aquí ;-)

El único problema claro, es que no tengas X-window instalado (o las librerías de KDE).

Y que yo sepa no es un front-end gráfico de wget, o al menos en el paquete Debian no aparece entre sus dependencias.

P.D. De acuerdo, lo sé, siento el SPAM ;-)

P.D.D. El programa existe, no es una inocentada


FDO. ER_MELENAS No te preguntes sólo que puede hacer el S.L. por ti sino también que puedes hacer tú por él.


 
Como consola no hay nada ;-) (none / 0) (#2)
por jamarier a las Mon Dec 29th, 2003 at 12:03:48 AM CET
(Información Usuario) http://barbacana.net/blog/

yo opino que como en consola no hay nada. Un uso apropiado de wget con un onliner en perl me soluciona todas mis necesidades de bajada.

Si quieres un programa para las X windows, hay uno muy completo llamado ownloader for X

-----
- Porque mañana será un gran día.



 
El wget es una gozada (none / 0) (#3)
por alfandor a las Mon Dec 29th, 2003 at 12:14:43 AM CET
(Información Usuario)

Es un programa más potente de lo que parece, de hecho lo prefiero a otras opciones. Y una de las opciones que me gusta del mismo es la de poder limitar la descarga que vas a realizar.



wget --limit-rate=10k y permites que otros en tu casa puedan seguir conetados a la www



 
Descargar varios archivos (none / 0) (#4)
por RinzeWind (chema AT sl-form DOT com) a las Mon Dec 29th, 2003 at 09:16:04 AM CET
(Información Usuario) http://chema.sl-form.com

Otra cosa que me gusta del wget es la posibilidad de pasarle como argumento un archivo en el que haya varias URLs separadas por retornos de carro, y el wget las irá bajando una a una hasta que termine con todas. Con un poco de maña en scripting y el wget, te pones a bajar N enlaces de una web en cuestión de segundos.

--
Las Penas del Agente Smith


 
pequeñas joyas | 4 comentarios (4 temáticos, editoriales, 0 ocultos)
Ver: Modo: Orden:

ecol Logo Powered by Scoop
Todas las Marcas Registradas y copyrights de esta página son propiedad de sus respectivos dueños.
Los comentarios son propiedad del que los escribe.
Los iconos de las noticias y el logotipo son propiedad de Javier Malonda.
El Resto © 2002 Escomposlinux.org y aledaños.

Puedes sindicar los contenidos de libertonia en formato RSS 1.0 y RDF 0.9. También se puede sindicar la cola de envíos pendientes de moderación.

El proyecto escomposlinux.org está dedicado a la memoria de tas

crear cuenta | faq | búsqueda