Evitar el desabastecimiento.

Escrito el 26 Marzo, 2002 – 13:48 | por storm | 721 lecturas

No quiero ser pajaro de mal aguero, pero, despues de la devaluacion (argentina) no puedo creer como los precios de los abonos de acceso a Internet siguan en pesos….
Panico, locura, descontrol… cacerolazos, huelgas, incendios a ISPs… que pasaria si nos quedamos sin Internet??? (sigue…)

Llamado a la solidaridad

Temiendo mucho este futuro incierto, debemos hacer algo! dentro de un tiempo, estaremos encontrandonos de nuevo en algun tipo de BBSs modernosos…. quizas la Biblioteca Nacional de email gratis via BBS de nuevo 😉

No hay que ser demasiado brillante para imaginarse la situacion: falta de informacion, falta de musica extranjera, falta de DivX, falta de Slashdot… falta de porno!

Malditaintenet.com, hace un llamado a la solidaridad: DEBEMOS stockear informacion. Debemos prepararnos para la crisis internetistica.

Bajen, bajen, bajen, bajen. todo. todo lo que haya. les interese o no. llenen sus HDs. Nunca se sabe, si el dia de mañana tendremos que aprender a programar en XYZ o desempolvar e instalar aquel router del ’92.

Mi propuesta, es que cada uno llene el 1o\% de su disco con cosas que no le interesen. Asi, estamos seguros de que por azar o gracia divina, cada uno vera satisfecha su necesidad de informacion.

Cuando ya tengamos nuestros discos repletos y corten los lazos al mundo (fibra), armar nuestra gigantesca LAN y sobrevivir por unos años, hasta que haya convertibilidad de nuevo (8 a 1?) o nos donen Internet.

Queda por definir que programejo usaremos (p2p?) para intercambiarnos los filitos… quizas podriamos armar una especie de google local.. o algo x el estilo 😉

Probablemente, la mejor manera de conseguir la info que no nos interesa (o, que en este momento no nos interesa) sea esta:

1. Agarrar una palabra al azar

2. Bajar recursivamente el resultado de la busqueda de google para esa palabra

#!/bin/bash

palabra=`perl -e ‘open f,”/usr/share/dict/words” or die (“cannot open $ARGV[0]”); seek(f,rand(int(-s f)),1); $p=;$p=; print $p’`

pavuk -noRobots “http://www.google.com.ar/search?q=$palabra&hl=es&btnG=Busqueda+en+Goo&meta=”

(pavuk es un programejo para bajar sitios recursivamente, onda wget, pero aparentemente wget es muy educado y no hay manera de que no respete robots.txt ;))

una version mejorada, del script de arriba:

#!/bin/bash

palabra=`perl -e ‘open f,”/usr/share/dict/words” or die (“cannot open $ARGV[0]”); seek(f,rand(int(-s f)),1); $p=;$p=; print $p’`

pavuk -url_strategy level -skip_url_pattern q=cache,www.google.com/intl/ -ddomain images.google.com.ar,groups.google.com.ar,groups.google.com,images.google.com,directory.google.com.ar,directory.google.com -noRobots “http://www.google.com.ar/search?q=$palabra&hl=es&btnG=Busqueda+en+Goo&meta=”

Lo que resta, es correrlo y despues de, digamos, 10 dias, darle CTRL+C.

Bzipear todo, y esperar en par de meses el proximo comunicado para la organizacion de nuestra ArgenLAN? LimaLAN? (etc)

runa@malditainternet.com

You must be logged in to post a comment.

Buscar: