La web como ecosistema virtuoso/vicioso

7 08 2009

La web como ecosistema virtuoso/vicioso. Alejandro Piscitelli
////////////////////////////////////////////////////////////////////

> Abstract

A pesar de su crecimiento azaroso la web posee regularidades subyacentes sorprendentes. Ya se
trate de la organización de los links o de los patrones de comportamiento de sus casi mil millones
de usuarios. Muchas de estas regularidades han sido anticipadas por la mecánica estadística, una de
las ramas de la física. Si estas metáforas son válidas será posible diseñar en forma más eficiente el
uso de la red. Pero también se comprobará que hay leyes de la forma o de la organización que se
aplican a las estructuras mas variadas (trátese de átomos o de infoagentes). Vista de este modo la
web es un ecosistema informacional gigantesco que puede ser utilizado como laboratorio físico (y
metafísico) para testear el comportamiento humano y la interacción social. Porque contrariamente
a nuestras expectativas ‐y a pesar de su enorme tamaño‐ la red exhibe regularidades y patrones, y
si bien los buscadores son ciegos a una parte significativa de la misma, ello no impide imaginar usos
mas inteligentes de recuperación de los datos asi como la creación de nuevos formatos y narrativas
que la utilicen y la reinventen de una forma mucho mas inteligente y apropiada que lo que hemos
podido/sabido hacer hasta ahora.

> ¿Como empezó todo?

Los diez años de WEB que hemos sabido diseñar, revelan una pantalla convertida en un nuevo
soporte intelectual. Como lo fueron en un momento los ejercicios del arte de la memoria de los
griegos y romanos, la inscripción en piedra o en cera; el papiro y el papel y mas recientemente los
soportes electromagnéticos. Lo que sucedió con/en Internet, refugio del texto y del blanco y negro,
que terminó explotando en una paleta de nuevas formas expresivas, de textos unidos a la distancia,
de nuevas y divertidas formas de enseñar, aprender, ver, oír, negociar, vender, abusar, entretener y
aburrir es lo mismo que pasó con el resto de las tecnologías.
Están operando aquí dos principios evolutivos de los medios de comunicación que estamos
desanudando permanentemente. El primero es que con cada nuevo avance tecnológico se gana
mucho y se pierde también bastante. El segundo es que los nuevos medios generalmente recuperan
elementos de la comunicación natural (biológica) eclipsados por los medios primitivos anteriores
(que extendieron la comunicación sacrificando algunos de sus beneficios naturales, Grusin, & Bolter
(2000)).
Pero es imposible entender estos resultados si antes no se entiende qué y cómo se producen. Para
ello hay que investigar la infraestructura que hace posible el nuevo medio, y sobretodo las reglas
que regulan su emergencia, crecimiento y expansión/declinación (1).
Sólo que Internet con su poder e idiosincrasia no es una excepción sino la regla. Se trata de una red
libre de escala (Barabasi, 2001), donde la interacción de elementos simples desprovistos de toda
inteligencia terminan generando un cerebro y una piel globales inesperada y superpoderosa. Por
ello antes de adentrarnos en la red propiamente dicha habrá que examinar una familia de palabras
entre las que se incluyen: mundos pequeños, redología, redes libres de escala, regla del 80/20……
que forman su contexto y hacen posible su comprensión
En el caso específico de Internet sus aspectos lingüísticos o mediáticos han estado
sistemáticamente oscurecidos por las narrativas que han dominado su intelección, que han oscilado
entre el tecnicismo, el discurso ingenieril y mas recientemente ‐en la ultima década‐ los mitos filoeconómicos
que la habían transformado en Rey Midas.
Con la mínima distancia que nos permite haberla recorrido en múltiples direcciones (Piscitelli,
2001; 2002) y con un escepticismo creciente acerca de su capacidad de totalizacion o de anulación
de lecturas alternativas, un nuevo recorrido por sus comienzos socio‐técnicos (que falta nos hace
un Latour de la red (2)) ayuda a poner las cosas en una perspectiva mas moderada y útil.
> Los desconocidos de siempre
Cada vez que se habla de los orígenes de Internet un personaje mítico reaparece en el relato. Se
trata nada mas y nada menos que de Paul Baran (Abbate, 1999), quien con sus recién cumplidos 30
años aceptó un flamante trabajo en la Rand Corporation, un think tank creado por el gobierno de
USA en 1946.
Corría el lejanísimo 1959 y a Baran le ofrecieron un conchabo por demás ambicioso. Diseñar un
sistema de comunicaciones que fuera capaz de detener un presunto ataque nuclear soviético. Por
esa época la Rand estaba demasiado asociada a las elucubraciones de personajes como Herman
Kahn una de cuyas debilidades fue dedicarse a los juegos de guerra ‐al mejor estilo del Dr Insólito
de Stanley Kubrick‐ calculando la muerte eventual de millones de personas como resultado de un
ataque nuclear.
A Baran tales elucubraciones no le preocupaban demasiado, y con mucho entusiasmo miró hacia
otro lado y se puso a inventar un sistema de comunicaciones totalmente distinto al existente, algo
que plasmó publicando una serie de 12 volúmenes que harían historia, aunque con unos cuantos zig
zags en el medio.
Para Baran la vulnerabilidad de la red de comunicaciones existente derivaba obviamente del
sistema de control y comando sobre la que se basaba en los años 50. Dado que una detonación
nuclear destruye todo lo que está alrededor de la zona de impacto Baran imaginó como preservar a
otros nodos no colindantes de los efectos del ataque.
Analizando los sistemas dominantes en la época encontró tres tipos de organizaciones de redes a
los que denominó centralizado, descentralizado y distribuido. Obviamente descartó de un plumazo
como objeto de elección a las dos primeras configuraciones dado el altísimo grado de
vulnerabilidad que las mismas exhibirían ante un ataque nuclear.
Para Baran la estructura ideal para esos fines habría de ser una red distribuida en forma de retícula,

muy parecida a un sistema de autopistas, con tan alto grado de redundancia, que aun cuandomuchos de los nodos fueran borrados del mapa por un ataque, caminos alternativos mantendrían la conexión entre el resto de los nodos sobrevivientes
Primer punto interesante: los militares le pidieron a Baran que diseñara la red alternativa, por lo
cual la fantasía o mito acerca de un origen militar de la red tiene un punto a su favor. Pero lo que
esta narrativa olvida/oculta es que finalmente los militares no le hicieron un ápice de caso a Baran.
Es por ello que la estructura real de la red tal como la conocemos hoy tiene poco y nada que ver con
las propuestas concretas de Baran ‐aunque quienes finalmente la diseñaron por ese remanido
mecanismo de equifinalidad‐ llegaron a un idéntico fin a través de numerosos caminos alternativos.

> Cuando ser digital fue una mala palabra

Además la oposición de los militares (pero también de la industria) a las ideas de Baran no se
reflejó tan solo en filosofías o ideologías incompatibles, sino en un hecho mucho mas insoportable a
la mentalidad de la época ‐lo que muestra cuanto mas fuerte es la resistencia económica y/o
cultural que la incultura técnica.
A saber que la propuesta de Baran incluía descomponer los mensajes en pequeños paquetes de
información capaces de viajar independientemente uno de los otros en la red. Para lograr este
(entonces) delirio hacía falta un sistema de comunicación inexistente en ese momento, es por ello
que Baran abogó por la creación de un sistema de comunicación digital.
Esta demanda difícilmente podía ser sostenida o cumplida por el monopolio telefónico de AT&T
que desde la década de 1910 reinó omnímodo en USA, hasta su desmembramiento en 1982.
Por eso el entonces presidente de AT&T, Jack Ostermani rechazó de un plumazo la propuesta de
Baran, sosteniendo que era imposible de lograr, y de que en el caso de que llevara a algo, eso
implicaría crearle una competencia interna a AT&T.
Las ideas de Baran naufragaron pues ante la oposición combinada del pensamiento centralizado de
los militares y de las prácticas monopólicas ‐no menos centralizadas (3) ‐ de la industria, y sólo
serían valoradas casi una década mas tarde cuando ARPA (Advanced Research Project Agency) las
desarrollara por su propia cuenta para (re)‐descubrir imprevistamente, que solo habían llegado 10
años mas tarde al mismo lugar. Pero entonces todo sería diferente en el escenario internacional y
local y lo otrora inviable se demostraría ineluctablemente necesario.

> Modelos alternativos de topología y diseño

Necesitamos entender la topología (la arquitectura espacial) de la red si queremos diseñar
herramientas, y queremos ofrecer servicios que corran eficazmente sobre ella. Curiosamente,
aunque es un producto 100% humano, la red no ha sido diseñada en forma centralizada. Desde el
punto de vista estructural la red se parece mucho más a un ecosistema que a un reloj suizo o a
cualquier otro aparato que haya brotado a partir de un plano y que se haya concretado en el
espacio físico.
Es por ello que entender a Internet supone no solo competencias ingenieriles o matemáticas ‐
indispensables por otra parte‐ sino sobretodo una comprensión detallada del intrincado juego de
fuerzas políticas, económicas sociales y culturales que subyacen en su genealogía y devenir.
Por eso conviene volver al corazón de la guerra fría. Al durísimo golpe narcisista que supuso para
los norteamericanos el lanzamiento de la perra Laica (ya sea que ésta fuera única o varias como en
las mejores películas‐perros de Hollywod) al espacio.
Como respuesta a esa obscenidad el presidente y general Dwight Einsehower (ese del botón I like
Ike) creó ARPA. A los pocos años ‐y sobretodo como respuesta a la visión del presidente John
Fitzgerald Kennedy que a su vez creó a la NASA (National Astronautical Space Agency)‐ DARPA se
quedó sin credenciales ni objetivos ‐mostrando como la competencia inter‐burocrática también
tiene su dinámica interna y juega un rol estratégico en la dinámica de las innovaciones.
Por ello DARPA se convirtió en una usina estratégica de proyectos para los militares. Y así Internet
entró en el radar de sus preocupaciones en 1965/1966 cuando Bob Taylor el director de los
programas de computación de ARPA se encontró con un agujero negro que consumía millones de
dólares del presupuesto federal.
En esa época las computadoras costaban millones de dólares y Taylor en un día de epifanía y
revelación se dio cuenta de algo al mismo tiempo trivial y catastrófico. Las distintas redes de
computadoras entonces existentes eran incapaces de comunicarse entre si. Es mas, dos máquinas
pertenecientes a distintas redes, cohabitantes en la misma sala no eran capaces de hablar entre
ellas.
Divisado el problema se trataba entonces de crearle la solución y esta consistiría debidamente en
algún protocolo capaz de interconectar máquinas hasta ese momento mudas o competentes
exclusivamente en dialectos que nadie era capaz de traducir entre si. Con un millón de poderosos y
sustanciales dólares de la época ‐al mismo tiempo que un grupo de investigadores ingleses
comandados por Donald Davis del laboratorio nacional Ingles de Física redescubría las principales
ideas y enseñanzas de Baran por su cuenta testimoniando el peso de los descubrimientos múltiples
uy simultáneos ‐ ARPA se puso a trabajar en serio.
En un simposio que tuvo lugar en Texas en 1967 estas ideas empezaron a circular ampliamente y lo
que había sido anatema una década atrás se convertiría en la ciencia normal de la época. El packetswitching
devendría el abc de la red y aunque los militares intervendrian poco y nada en su

desarrollo, Internet estaba lista para dar sus primeros pasos.
Pero no nos perdamos en la historia sino que concentrémenos básicamente en la topología… actual
de la red, así como en tratar de desentrañar los principios de crecimiento y de construcción ‐si es
que son detectables‐ que dan cuenta de porque Internet tiene la forma actual, en qué se parece ésta
a otras redes, y qué podemos deducir a partir del conocimiento de la topología de la red conducente
a una anticipación de sus posibles futuros.
Aunque de Internet hay miles de mapas no existe EL MAPA de la red. Lo que si existen son
innumerables mapas que buscan delinearla o recorrer sus principales configuraciones (Dodge,
Martin & Kitchin, 2000; 2001).
Por eso si nos apersonamos en peacockmaps.com encontraremos unos impresionantes mapas
realizados por Bill Cheswick y Hal Burch. Se trata de unos llamativos entramados densos en nodos y
enlaces que solo tienen como homólogos las tomografías computadas o las resonancias nucleares
magnéticas del cerebro. Con una importante distinción, mientras que el cerebro hace milenios que
se ha estabilizado anatómicamente, la red crece sin parar y multiplica diariamente su
hiperconectividad y su densidad.
¿Porqué es tan importante esta cuestión de los mapas? En todo caso resulta sumamente sugestivo
que siendo el camino que va de la idea al objeto o producto invariablemente un proceso que
comienza con detallados inventarios y topografías, partiendo de meticulosos diagramas y
visualizaciones, Internet esté recorriendo el camino inverso.
Nadie sabe exactamente qué forma tiene la red, y por mas que permanentemente se la patrulla y se
la fotografía, se la ausculta y se la mide, sus contornos son borrosos y sus centros son difícilmente
localizables y discernibles.
Esta inmarcesibilidad está profundamente ligada al carácter anárquico, auto‐organizado y
fundamentalmente local y distribuido que subyace a la evolución de la red.
Cualquiera ‐cumpliendo un mínimo de requisitos‐ se “enchufa” a la red. Y si hubiera alguien que
decidiera cerrar la red (a excepción tal vez de un locura insana del gobierno de USA que algún día
decidiera darse de baja en la red‐ como lo hizo hace un tiempo atrás saliéndose de la UNESCO), lo
único que lograría es aislar una porción minúscula de la misma, pero inmediatamente la
información se auto‐rerutearía y a los efectos prácticos tal caída seria invisible o en todo caso
insignificante.
Es precisamente la naturaleza distribuida, descentralizada y localmente aislada de la red la que la
vuelve por un lado prácticamente inmune a cualquier ataque, pero al mismo tiempo lo que hace tan
difícil retratarla y aislarla.

> Navegando en el mar de los sargazos

Insistimos. Si estamos obsesionados por establecer uno (o varios) mapa de la red ello obedece a
que el diseño de servicios nuevos y mas eficientes requiere obligadamente que tengamos un mucho
mejor conocimiento de su topología.
Por otra parte cuando Internet se inventó nadie imaginó que podría llegar a tener mas de 1 millón
de usuarios, o que sus usos trascenderían primero a los militares y luego a los relacionados con la
investigación. Ni en 1970 ni en 1980 pero tampoco en el mucho mas cercano 1990 a nadie se le
ocurrió jamás que existiría una Internet comercial y mucho menos una red de comunicación
universal ‐que inclusive llegaría a Marte y que a junio del 2004 tiene mas de 800 millones de
usuarios.
Incluso el e‐mail ‐best seller de todas las aplicaciones en la red de todos los tiempos‐ emergió en
forma inopinada de un travestismo en el uso de la transferencia de archivos a manos de Rega
Tomlinson un empleado de BBN y uno de los inventores de la propia red (4).
Lo mismo está pasando con la web que es uno de los mejores ejemplos que podemos mostrar hoy
de desastre exitoso. Es decir de un sistema que escapado de la mesa del dibujante, es abrazado
entusiastamente por una cantidad impresionante de usuarios, antes de que su diseño o
funcionalidad esté estabilizada, y que de pronto toma al mundo por sorpresa y se autoconfigura de
un modo al mismo tiempo creativo y sumamente ineficiente.
Porque si Tim Berners‐Lee o Robert Caillou pudieron haberse imaginado algunas de las
consecuencias de lo que estaban pergeñando en el CERN al dibujar los primeros esbozos de la
WWW a fines de la década de 1980, seguramente la experiencia de los usuarios hubiese sido
totalmente distinta y la forma en que hoy usamos la web se hubiese modificado acorde.
Lamentablemente la red tal como existe hoy difícilmente se adapte a nuestras necesidades y no es
casual que la revolución de los weblogs haya implicado un cambio brutal en su uso y su
reapropiación por parte de los usuarios comunes y silvestres. Si los weblogs son tan exitosos ello se
debe justamente a las fallas estructurales en la concepción y el diseño de la red.
Nada sorprendentemente mientras que muchos investigadores y programadores insisten en crear
nuevas aplicaciones y servicios, un grupo de memetistas (entre los cuales afortunada y
orgullosamente nos encontramos) hemos empezado a hacernos una pregunta clave: ¿Qué es
exactamente lo que hemos inventado? ¿Qué tipo de criatura hemos liberado en el ciberespacio? y
¿En qué puede o nos podemos convertir nosotros a partir de su mediamorfosis y evolución? ¿Hasta
qué punto los hábitos de lectura y escritura, que sabemos son constitutivos de nuestra identidad y
subjetividad se verán transformados y modificados por su emergencia?
Porque aunque es un producto 100% humano, Internet tiene una vida propia. A poco que la usamos
y analizamos exhibe todas las propiedades que son específicas de un sistema complejo evolutivo, lo
que la vuelve mucho más parecida a una célula que a un chip.
Es por ello que quienes usamos e investigamos la red hemos devenido en tiempo récord de
exploradores en diseñadores. Todos los internetólogos nos asemejamos cada día mas a los biólogos
y los a ecólogos (de la información) ‐mas que a los físicos y a los matemáticos‐ que deben lidiar con
un sistema increíblemente complejo que a todos los efectos prácticos nos preexiste y es
independiente de nosotros.
Pero si por un lado estamos en muchas mejores condiciones que los biólogos para entender a la red,
porque después de todo nosotros la hemos diseñado, y conocemos cada uno y todos los
componentes que la conforman, por el otro concordamos con los bioanalistas, en que no tenemos la
mas remota idea de qué pasa (qué tipo de estructura es la que emerge) cuando el sistema se pone
en movimiento y se auto‐organiza como mejor le place.
Pero hoy estamos en el 2004 y no en 1997 o en el 2000. Porque si antes del 2000 se sabia poco y
nada de la topología de Internet, a partir del trabajo seminal de los hermanos Michalis, Petros y
Christos Faloutsos “On Power‐Law Relationship of the Internet Topology” lo que sabemos ahora es
que la red de routers que corona Internet es una red scale‐free (5). Dicho en romance todos los
modelos de la red que imaginaban hasta bien entrado 1999 que ésta crecía en forma aleatoria
estaban profunda y definitivamente equivocados.
Lo que los hermanos Faloutsos no sabían, empero, es que sus investigaciones se aplicaban pari
passu a la WWW. O lo que es lo mismo, dicho nuevamente en romance, que Internet no pertenece a
la categoría de las redes aleatorias, sino que merece un lugar destacado en el zoológico de las
topologías scale‐free.
Este descubrimiento no es nada menor o secundario e implicó un claro cuestionamiento a la
concepción tradicional de que las redes físicas y los routers no tenían ninguna motivación ni
inteligencia para desarrollarse según preceptos y reglas que valen mucho mas para el caso de las
relaciones sociales o de la libre elección de jerarquías en la páginas que navegamos que para la
casualidad y el azar propios de sistemas inertes.
Cualquier inventario o análisis de la evolución de la red muestra su carácter exponencial como lo
podemos testimoniar en numerosos gráficos y cuadros (6). Esta expansión está literalmente
conectada a la naturaleza scale‐free de la red. Pero esto no alcanza. Para entender Internet
necesitamos tres principios adicionales.

Principios para entender a la Red

Debemos considerar entonces también la conexión preferencial (preferential attachment). La lógica
indica que todos deberíamos conectar nuestra computadora al router mas cercano, después de todo
cuanto mas largo sea el cable mas nos costará estar conectado.
Sin embargo tal apreciación intuitiva es profundamente errónea. El largo del cable es irrelevante
cuando del costo de las comunicaciones se trata. Porque lo que realmente nos interesa cuando nos
interesa abaratar la conexión, no es la distancia al nodo sino su ancho de banda. Y no siempre es
mucho mas económico conectarnos con un router cercano pero pobre en bits que con uno lejano
pero mucho mas rico en ellos.
Esto se traduce en algo evidente, los nodos mas ricos (porque proveen mas ancho de banda) son
ipso facto los que mas conexiones atraen ‐confirmando un efecto bola de nieve o una estructura “el
ganador se queda con todo” (the‐winner‐takes‐all).
Pero no alcanza aun con estos dos criterios para entender como funciona la red. Porque aunque no
sea el criterio definitivo, la distancia también importa. 2 km de fibra óptica son mas caros que 0.5
km……. Por otra parte los nodos no aparecen al azar en los mapas. Hay mas routers donde hay mas
demanda de ellos, y la demanda es a su vez una propiedad de quienes quieren usarlos.
Además la correlación pertinente es aquella que pone en correspondencia la densidad de la
población y la densidad de los nodos de Internet. Para nuestra infinita sorpresa la distribución de
los routers sobre el territorio de USA conforma un conjunto fractal (7), esos objetos autosimilares
descubiertos por Benoit Mandelbrot en los años 70.
Por lo tanto para entender la dinámica de la red debemos tener en cuanta estas cuatro dimensiones
o variables: reconocimiento, conexión preferencial, dependencia de la distancia y estructura fractal
subyacente.
Cada una de estas dimensiones si se desbandaran por la suya podrían destruir la red. Así si la
longitud del cable fuera la única consideración a tener en cuenta la red podría fácilmente recaer en
una estructura semejante a la de las autopistas, pero increíblemente (¿mágicamente?) las cuatro
dimensiones interactuan entre si eliminando cualquier posible inestabilidad y haciendo posible una
Red scale‐free.

Computación parásita y los usos debidos e indebidos de la red

Sin embargo esto no debe hacernos olvidar que tremenda labilidad es al mismo tiempo motivo de
sorpresa y alegría pero simultáneamente una posible condición para el eventual colapso de la red.
Tuvimos un atisbo de caos en el episodio que ocurrió el 25 de abril de 1997, a saber la catástrofe de
MAI Network Services que por error convirtió a una configuracion defectuosa de routers en un
agujero negro por el cual se perdió todo el tráfico de la red en pocas horas (8).
Pero ese ejemplo ‐y hay muchos mas ligados a la proliferación de viruses y otras intoxicaciones en
la red‐ mostró la vulnerabilidad de la red a la propagación de errores u horrores.
Paul Baran jamás se imaginó que los enemigos de la red podrían estar durmiendo en su seno y que
serían no los rusos sino los hackers o mas bien los crackers quienes con una facilidad sorprendente
podrían liquidar a la red en tiempo récord ‐algo que puede hacerse apropiándose de los routers
clave en los servidores de nombres de raíz (hay 13 en toda la red) (9) que orientan todo el tráfico,
ya sea lanzando marejadas de ataques de denegacion de servicio contra los nodos mas activos ‐tal
como acontenció en Febrero del 2000 contra Yahoo, Amazon, CNN y eBay. Y lo mismo sucedió con
el gusano Código Rojo.
Pero ¿qué es efectivamente Internet? ¿Podría como se le ocurrió a alguien ser una computadora ‐
aunque mas no fuera en clave metafórica? Es obvio que la red está compuesta por computadoras
que intercambian páginas y e‐mails, pero esto por si mismo de ningún modo convierte a la red en
una super‐computadora. A menos que… a menos que se pudieran inventar programas, gusanos,
troyanos o algún tipo de dispositivos de software que tomaran por ataque a todas las computadoras
del mundo y las hicieran trabajar para alguien ‐ya fuese el profesor Neurus o el doctor Zeus?
Que esta idea no era descabellada pudo comprobarse cuando en Agosto del 2001 una nota
aparecida en Nature publicada por Albert‐Lazlo Barabasi y otros autores acerca de la computación
parásita, fue respondida por decenas de miles de mails enviados desde todos los rincones del
mundo, amenazando a los intrépidos que habían osado invadir las máquinas sagradas de la red con
represalias sin fin.
Lo que hizo el equipo comandado por Albert Lazlo‐Barabasi, fue disfrazar simples pedidos de
armado de páginas, con verdaderas proezas computacionales que le eran exigidas a las
computadoras host. Cuando una computadora recibía un paquete hacia un chequeo rutinario para
comprobar que el mensaje no se había corrompido en su viaje sideral, pero sin saberlo al mismo
tiempo estaba resolviendo un problema que les interesaba a los investigadores usando recursos
computacionales ajenos ‐sin que encima los dueños de los equipos se dieran cuenta.
Lo que los investigadores descubrieron era la posibilidad de esclavizar máquinas remotas abriendo
así el abanico a una parafernalia de preguntas y problemas computacionales, éticos y legales que ni
siquiera hoy están bien planteados y mucho menos resueltos.
¿Que pasaría si alguien (al estilo de la pelicula El hombre en el jardín 1 de Brett Leonard)
perfeccionara la técnica y pudiera generar un sistema de concentración de recursos ajenos a gran
escala? ¿De quienes son los recursos disponibles en la red que de pronto son esclavizados o
apropiados por terceros? ¿Seria esto el inicio de Internet como supercomputadora? ¿Podría
emerger un ser consciente e inteligente (al estilo de Skynet en Terminator 1 y 2) como resultado de
estos devaneos?
De lo que no hay duda es de que en un futuro sumamente cercano las computadoras empezarán a
intercambiar servicios y esfuerzos sobre la base de una demanda ad hoc. Si hoy los chips funcionan
mucho mas rápido que las redes, en el futuro ambas velocidades se equipararán y problemas
inverosímilmente complejos se resolverán a manos de una computadora única o de un grupo de
investigadores aislado.
Ya tenemos ejemplos de este tipo discutidos en esa excelente obra sobre el par a par compilada por
Andy Oram Peer‐to‐peer. Harnessing the power of disruptive technologies. De hecho experiencias
como SETI acudieron a este esquema aunque claro en una escala infinitamente menor, pero
sobretodo pidiendo permiso, algo que Barabasi y sus colegas evitaron graciosamente hacer.
Pero si el procesamiento distribuido fuera una norma una infinidad de recursos actualmente
disponibles (las horas sino semanas o meses que nuestras maquina permanecen conectada al ADSL
indolentemente por ejemplo) podrían servir para tamaños y maravillosos fines, sin que nosotros
debiéramos enterarnos necesariamente.
Nuevamente las tecnologías van mucho mas rápido que nuestra capacidad de investigarlas,
analizarlas y sobretodo normativizarlas. En el próximo capítulo avanzaremos en la aplicabilidad de
estas nociones al caso de la WWW y sobretodo a la posibilidad ‐sobre la base del descubrimiento de
leyes de información en sistemas gigantescos‐ de la posibilidad de rediseñarlos y de imaginar su
domesticación y/o posibilidad de pliegue a nuestras necesidades, aunque éste en realidad pase
mucho mas por un auto‐control que por cualquier hetero‐regulación.

Dg3. Cátedra Rico. Dossier Teórico Diseño de Información Interactivo
http://www.catedrarico.com.


Acciones

Information

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s




A %d blogueros les gusta esto: