En 1989, el investigador del LBL Bill Johnston fue llamado a Washington para una audiencia en el Senado de Estados Unidos. Su propósito: explorar el potencial de una supercarretera nacional de la información.

Johnston y sus colegas mostraron a Washington el futuro. Durante la primera demostración informática en vivo realizada ante una audiencia del Senado, exhibieron las posibilidades de una red informática transcontinental de alta velocidad. Los investigadores conectaron un ordenador y mostraron datos procesados, analizados y montados en «películas» científicas animadas por dispositivos e investigadores distribuidos a miles de kilómetros de distancia. Demostraron cómo equipos como una unidad de resonancia magnética, superordenadores, dispositivos de almacenamiento de datos y estaciones de trabajo informáticas podían conectarse temporalmente entre sí, vinculando a personas y recursos de una manera nunca antes posible.

IMÁGEN DEL TRÁFICO DE INTERNET EN LA RED T1 DE LA NSFNET

Cuatro años después, el presidente Bill Clinton y el vicepresidente Al Gore, que como senador había presidido la audiencia de 1989, volaron al Silicon Valley de California. Reunidos en Silicon Graphics Inc. fueron informados del estado de la emergente supercarretera de la información y, a su vez, compartieron su visión sobre su futuro. Gore ha defendido este proyecto desde sus inicios.

En la víspera de la visita de Clinton y Gore, Andrew Cherenson, de Silicon Graphics, envió un mensaje improvisado sobre una red informática que se está extendiendo, como una telaraña, y que ahora une a muchas instituciones académicas y de investigación de todo el mundo: ¿Alguien está interesado en la conferencia Clinton/Gore? Al conectarse más tarde, comprobó la respuesta. A la mañana siguiente, Cherenson conectó una minicámara Sony y acompañó a Clinton y a Gore en su sesión de intercambio de ideas con los planificadores y actores que están ayudando a construir la superautopista de la información. Alrededor del mundo, 200 «participantes» embelesados se sentaron en sus escritorios frente a estaciones de trabajo informáticas, observando los acontecimientos en Silicon Graphics mientras comentaban entre ellos. La videoconferencia improvisada de Cherenson -un presagio de la facilidad con la que podremos hablar, visitar juntos y compartir información en un futuro próximo- se transmitió en 11 países y 22 zonas horarias.

Hace una década, este tipo de comunicación era convencional dentro del mundo de la ciencia ficción, pero nueva y extraña como objetivo de la política nacional. A partir de 1968, el gobierno federal, a través de su Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), proporcionó el capital inicial para establecer primero una y luego varias redes experimentales que pudieran mover datos entre instituciones de investigación a alta velocidad. Estas redes prototipo han evolucionado, proliferado y se han conectado rápidamente. En la actualidad, una infraestructura fusionada de más de 11.000 redes conocida como Internet, o simplemente «la red», une a más de 10 millones de personas en todo el mundo.

Desde el principio, el Laboratorio Lawrence Berkeley ha sido uno de los principales arquitectos de la computación en red, ayudando a «hacer crecer la red» desde 1972. El LBL «salió al aire» en 1975, convirtiéndose en una de las pocas instituciones conectadas a la red. Cuando Internet se sobrecargó, se empantanó y estuvo a punto de autodestruirse en 1986, el investigador del LBL Van Jacobson formó parte de un equipo de dos personas que ayudó a rescatarla, salvándola de quienes recomendaban abandonarla. Más recientemente, Jacobson y su equipo han hecho otras contribuciones clave, diseñando la metamorfosis de lo que había sido un conducto de datos y correo electrónico en una red que ahora permite a muchas personas hablar e interactuar instantáneamente a través de conferencias de red de audio y vídeo. Hoy en día, esta cultura antes dominada por el correo electrónico está floreciendo, permitiendo a personas de todo el mundo interactuar de forma rutinaria, tal y como hicieron durante la visita de Clinton/Gore a Silicon Graphics. El LBL también es pionero en la computación científica distribuida, forjando nuevos vínculos que hacen irrelevante la ubicación de los costosos recursos informáticos.

Mirando lo que se ha logrado y lo que se está preparando, el Director de la División de Ciencias de la Información y Computación del LBL, Stu Loken, dice que estamos en los albores de una nueva Era de la Información.

«El gobierno federal tiene una larga historia de inversión en la infraestructura de la nación», señala Loken. «Construyó canales en el siglo XVIII, ferrocarriles en el siglo XIX y carreteras interestatales en el siglo XX. Luego, hace unos 10 años, comenzó la construcción de redes informáticas de alta velocidad. Estas redes son las autopistas de la Era de la Información».

Loken y casi todos los demás investigadores del sector afirman que las superautopistas de la información darán lugar a la inevitable convergencia de la televisión, el teléfono, la televisión por cable, los ordenadores, la electrónica de consumo, las editoriales y las empresas de información en una única industria de la información interactiva. El vicepresidente Gore predice que éste será «el mercado más importante y lucrativo del siglo XXI». AT&T dice que espera que el mercado mundial de la información tenga un valor de 1,4 billones de dólares en 1996; Apple Computer estima que el mercado crecerá hasta los 3,5 billones de dólares en el año 2001.

La visión de las superautopistas de la información estuvo a punto de estrellarse en 1986.

Entonces, con casi dos décadas de vida, Internet contaba con 10.000 usuarios. Habían llegado a confiar en la red porque ya se había convertido en mucho más que un medio para intercambiar correo electrónico y mover datos. La red servía de pasillo de oficina virtual, conectando íntimamente a colaboradores distantes.

En octubre de 1986, Internet experimentó lo que sus numerosos diseñadores diagnosticaron como «colapso por congestión». Las comunicaciones -un flujo de datos digitales que consiste en todo, desde mensajes escritos hasta datos científicos en bruto- habían estado fluyendo a través del sistema hasta 56 kilobits por segundo (56.000 bits, o unas dos páginas escritas, por segundo). Pero un día, este sistema de información del siglo XXI se redujo repentinamente al ritmo del telégrafo. Ese día, la velocidad de transmisión entre el Laboratorio Lawrence Berkeley y la Universidad de California en Berkeley, a sólo un cuarto de milla de distancia, se redujo a 320 bits por segundo. Los usuarios del sistema estaban desconcertados y consternados.

Los usuarios de Internet de todo el país, tan dependientes de la red como la mayoría de nosotros de nuestros teléfonos, se preguntaban cómo revivirla. Van Jacobson, de la División de Ingeniería del LBL, fue uno de los que se involucró.

«La red se había ralentizado por un factor de mil», recuerda Jacobson. «El correo que había pasado en minutos ahora tardaba un día entero. La gente empezó a renunciar a ello. Toda la idea de la comunicación en red estaba en peligro».

«Estaba trabajando con Mike Karels (del grupo de desarrollo de Berkeley Unix en la Universidad de California en Berkeley). Llevábamos seis meses preguntándonos por qué fallaba Internet, golpeándonos la cabeza contra un muro. Entonces, una noche en un café de Berkeley, hubo un momento de iluminación. Le dimos la vuelta a la pregunta. La verdadera pregunta era: «¿Cómo ha funcionado Internet?

«Piénsalo», dice Jacobson: Una estación de trabajo puede transmitir datos a 10 megabits por segundo (10 millones de bits) y un router los pone en Internet, que tiene una capacidad de 56 kilobits por segundo. Se empieza con este cuello de botella y luego hay que lidiar con miles de personas que utilizan la red simultáneamente. Ante esto, dice, era inevitable que se produjera un atasco en Internet.

A medida que aumentaba el tráfico en Internet, los numerosos usuarios del sistema recurrían a lo que equivalía a un comportamiento autodestructivo en sus intentos de superar el atasco de la red. Los paquetes de información eran transmitidos a la red por un ordenador y posteriormente devueltos al remitente debido a la congestión. Los ordenadores habían sido programados para hacer frente a esta situación, intentándolo de nuevo inmediatamente, reenviando repetidamente el mensaje hasta que lo recibían. Jacobson compara la situación con echar gasolina al fuego.

AL IGUAL QUE LOS PAQUETES ENVIADOS POR CORREO, LAS COMUNICACIONES ENVIADAS A TRAVÉS DE UNA RED SE DIVIDEN EN PEQUEÑOS PAQUETES Y SE ENVUELVEN CON INSTRUCCIONES DE ENVÍO Y MONTAJE, LLAMADOS PROTOCOLOS

La solución, dice, era hacer que los usuarios de la red fueran más educados.

«Si demasiada gente intenta comunicarse a la vez», explica Jacobson, «la red no puede lidiar con ello y rechaza los paquetes, devolviéndolos. Cuando una estación de trabajo retransmite inmediatamente, la situación se agrava. Lo que hicimos fue escribir protocolos de cortesía que requieren una ligera espera antes de retransmitir un paquete. Todo el mundo tiene que usar estos protocolos de cortesía o Internet no funciona para nadie».

Los protocolos de Jacobson y Karels, ahora parte universal de Internet, se llaman «Slow Start». Slow Start evita la congestión monitorizando la red y, cuando la congestión parece inminente, retrasando la transmisión de paquetes desde milisegundos hasta un segundo. Slow Start retrasa las tasas de transmisión basándose en factores que incluyen la capacidad disponible en ese momento en la red, así como un múltiplo del tiempo de transmisión de ida y vuelta (esencialmente, la distancia) entre el remitente y el destino elegido. Seis años después de su introducción, Slow Start sigue evitando la congestión de la red a pesar de que tanto la velocidad de la red como el número de usuarios se han multiplicado por mil.

Hace unos dos años, Jacobson y los investigadores del Centro de Investigación de Palo Alto (PARC) de Xerox emprendieron un proyecto para añadir audio y videoconferencia a Internet. Al igual que con los sistemas telefónicos, las conferencias de audio y vídeo entre varias partes a través de un ordenador eran una visión antigua, pero no alcanzada.

En términos de conferencia, una red informática parte con una ventaja inherente sobre un sistema telefónico. Mientras que una línea telefónica conecta dos puntos y transporta una conversación, Internet conecta cada parte de la línea y transporta múltiples «conversaciones» simultáneas. Para soportar este enorme flujo de información, descompone las comunicaciones en pequeños paquetes que se mezclan en el flujo continuo de paquetes que atraviesan la red. Cada paquete está envuelto con instrucciones de envío y ensamblaje (llamadas protocolos), que dan el destino, la dirección de retorno y cómo el ordenador receptor puede reordenar todos los paquetes de nuevo en la comunicación original.

Debido a los ligeros retrasos inherentes a Internet, varios grupos de investigación encargados de llevar la audioconferencia y la videoconferencia a la red concluyeron que se les había encomendado una misión imposible. Aconsejaron que se construyera una nueva red.

«Nos pareció ridículo», recuerda Jacobson. «Internet soportaba la comunicación entre dos superordenadores Cray, que transmiten a un gigabit por segundo (mil millones de bits). También funcionaba para alguien sentado ante un teclado, escribiendo a 20 bits por segundo. Esta solidez y rango dinámico parecían demasiado buenos para abandonarlos. Así que buscamos con ahínco. No debería haber ninguna razón por la que no pudiéramos hacer audio y vídeo».

Los retrasos en realidad son más molestos para la gente que habla que para la videoconferencia. Los conferenciantes pueden tolerar una imagen fija ocasional durante una transmisión de vídeo, mientras que las voces que se escuchan en ráfagas irregulares de staccato suenan como un galimatías. Jacobson y Steve Deering, de Xerox PARC, se concentraron en idear un sistema que mantuviera la conectividad global de Internet y que, al mismo tiempo, permitiera un flujo de audio fluido y rápido.

Para que el oyente pueda escuchar un discurso continuo, Jacobson y Deering añadieron primero una marca de tiempo a cada paquete de audio. El receptor lee las marcas de tiempo, ordena cronológicamente los paquetes y los reproduce mientras sigue recibiendo y ordenando otros paquetes entrantes para su posterior reproducción. Esto evita el discurso en latín, pero no se ocupa de la naturaleza desigual del flujo de paquetes de la red y de las ráfagas de audio resultantes.

Para remediarlo, los dos investigadores aprovecharon la diferencia entre la increíble velocidad a la que la red mueve los paquetes y el retraso relativamente largo de dos décimas o medio segundo que los humanos pueden soportar sin que se interrumpa la conversación. Crearon un algoritmo que calcula el tiempo que tardan en llegar los paquetes y luego ralentiza la reproducción de la voz lo suficiente para que incluso los paquetes más lentos tengan tiempo suficiente para llegar. Los retrasos en la reproducción introducidos por el algoritmo son realmente muy cortos, normalmente menos de una décima de segundo. Gracias a los imperceptibles retrasos controlados introducidos por Jacobson y Deering, las conferencias de voz entre usuarios de Internet con micrófonos y altavoces de ordenador son ahora algo habitual.

Sentado en su despacho del LBL, Jacobson demostró cómo está conectado con los internautas de todo el mundo. Conectándose a Internet, llamó a Lightweight Sessions, una interfaz de ventana con un sencillo formulario para anunciar o inscribirse en una conferencia de audio o vídeo. Los usuarios de la red acceden habitualmente a Lightweight Sessions para recibir avisos sobre las próximas conferencias y apuntarse a las que les interesan. Algunas conferencias son sólo de voz, mientras que otras incluyen vídeo, desarrollado por los investigadores de Xerox PARC. Durante una conferencia de audio/vídeo, unas cámaras diminutas y baratas, normalmente conectadas al lado del ordenador del participante, transmiten una imagen en directo de cada participante. La pantalla de Jacobson estaba dividida en varias ventanas, una de las cuales mostraba la imagen de la persona que hablaba. Una segunda ventana mostraba los datos que se estaban debatiendo. Está previsto que una tercera ventana se estrene en Internet en un futuro próximo.

Jacobson llama a esta nueva ventana de visualización gráfica «pizarra blanca». La gente podrá utilizarla de forma muy parecida a un programa de dibujo de ordenador convencional para compartir información o colaborar en un proyecto de diseño. Cualquier participante en la conferencia puede ver y, a su vez, modificar lo que se está representando en la pizarra o volver a una versión anterior de la imagen. Cualquier imagen -por ejemplo, diseños asistidos por ordenador o imágenes de rayos X- también puede importarse a la ventana de la pizarra.

La pizarra blanca es indicativa de la creciente importancia de los datos visuales en la ciencia.

Stu Loken dice que las imágenes fijas y el vídeo serán parte integrante de la mayor parte de la investigación realizada en el LBL. «La ciencia está experimentando una proliferación de datos visuales, desde mapas del cielo que trazan la estructura del universo primitivo hasta imágenes médicas que muestran la neuroquímica en los pacientes de Alzheimer, pasando por imágenes del genoma humano», afirma.

Loken reconoce que las imágenes crean tanto posibilidades como problemas. Se necesitan enormes cantidades de información digital para crear imágenes: Una cámara de vídeo genera 30 fotogramas por segundo, o el equivalente a más de 2000 páginas de palabras. Pero los ordenadores son ahora lo suficientemente rápidos y los dispositivos de almacenamiento lo suficientemente masivos como para que los científicos empiecen a utilizar cámaras de vídeo, capturando datos para su análisis por ordenador. Esta capacidad emergente está provocando un cambio en la forma en que los científicos diseñan los experimentos, abriendo nuevas ventanas a lo que se puede aprender.

Para que los investigadores puedan crear datos a través del vídeo, los investigadores de la División de Ciencias de la Información y Computación del LBL han asumido una misión multifacética. Bill Johnston dirige un equipo que está creando nuevo hardware y software para el procesamiento y análisis de un flujo de datos visuales a través de redes de alta velocidad. La idea es permitir que un científico pueda tomar la salida de, por ejemplo, un microscopio electrónico y conectar ese flujo de vídeo a una red de forma tan rutinaria como una estación de trabajo puede conectarse a una red hoy en día.

La conexión a la red es sólo el primer paso. El grupo de Johnston se dedica al desarrollo de la computación científica distribuida. Hasta ahora, la ubicación de los recursos ha dictado el curso de la ciencia. Los proyectos se llevan a cabo en lugares donde se pueden reunir las personas, los experimentos y los recursos informáticos adecuados. En los entornos de computación científica distribuida de los que ahora es pionero el LBL, las máquinas, las bases de datos y las personas dispersas por todo el mundo pueden conectarse rápida y temporalmente. Por ejemplo, un flujo de vídeo de un experimento en curso puede dirigirse a un superordenador para su procesamiento y el análisis instantáneo puede utilizarse para controlar interactivamente el aparato experimental. O el flujo de datos puede ser procesado, analizado, y luego servir como la entrada en un experimento compañero.

Johnston señala que la videoconferencia en red ya está disponible, pero advierte que no debe confundirse con la transmisión en red de alta velocidad de datos de vídeo científico. La diferencia es la calidad de la imagen.

Por ejemplo, para poder exprimir las transmisiones de videoconferencia a través del todavía estrecho conducto de Internet, la velocidad de transmisión estándar de 30 fotogramas por segundo se ha reducido a entre 6 y 12 fotogramas por segundo. Además, en lugar de transmitir una sucesión de fotogramas completos, se utilizan algoritmos de compresión que transmiten sólo la parte de la imagen que ha cambiado con respecto al fotograma anterior. Estas imágenes parciales se ensamblan en imágenes completas mediante un software en el extremo receptor. El efecto neto es que las personas pueden ver imágenes decentes de los demás mientras hablan, aunque la tasa de flujo digital se reduce miles de veces con respecto a la de una emisión de vídeo estándar.

Aunque esto funciona para las videoconferencias -se crea una sensación de presencia, si no una imagen de calidad Ansel Adams-, los datos científicos no pueden concentrarse así y sobrevivir.

Explica Johnston: «Los datos de vídeo suelen consistir en imágenes producidas por sensores que están superando los límites de la tecnología. A menudo, tenemos muchas imágenes borrosas y de bajo contraste con características difíciles de distinguir del ruido de fondo. Para poder analizar y extraer información, no podemos permitirnos perder ningún detalle del vídeo original. El vídeo transmitido por Internet se ha comprimido a 8-16 kilobits por segundo. Contrasta con una cámara de instrumentación monocromática convencional, que genera 120.000 kilobits por segundo».

El grupo de Johnston utiliza la ciencia de laboratorio como motor para desarrollar una tecnología destinada en última instancia a las masas. Por ejemplo, consideremos el caso del bioquímico del LBL Marcos Maestre, que está grabando en vídeo pequeñas hebras de ADN que vibran en una red eléctrica microscópica para estudiar la química física del ADN. En la actualidad, los investigadores hacen vibrar el ADN, crean una cinta de vídeo y, a continuación, pasan la cinta a un sistema de animación donde se producen minuciosamente imágenes fijas de cada fotograma. Se necesitan horas y horas para extraer unos 200 fotogramas, o siete segundos de datos. A continuación, las imágenes se escanean en un ordenador fotograma a fotograma, que sigue y mide la forma cambiante de la cadena de ADN, lo que permite obtener nuevos conocimientos sobre su estructura.

En el sistema distribuido que se está desarrollando en el LBL, los investigadores podrán mirar el monitor de una estación de trabajo y ver los datos extraídos de un vídeo en directo incluso mientras se está realizando el experimento. La cámara de vídeo se conectará a una red en la que un dispositivo de almacenamiento guardará las imágenes y las transmitirá al nuevo superordenador del LBL, un sistema de procesamiento paralelo masivo MasPar. El MasPar puede procesar y analizar una entrada de vídeo de 30 fotogramas por segundo, proporcionando una visualización instantánea de los datos en cualquier estación de trabajo de ingeniería de la red.

Desgraciadamente, para hacer esto realidad, hay que hacer algo más que conectar los componentes de este sistema entre sí. A medida que el flujo digital fluye desde el experimento hasta su almacenamiento, análisis y visualización, se producen varios cuellos de botella. Antes de que la señal en bruto que sale de la cámara monocromática a 120.000 kilobits por segundo se transmita a la red, un ordenador intermedio debe traducir la salida a un paquete digital configurado para la red. El tráfico digital comienza a retroceder en esta etapa.

«Cuando la única razón de un ordenador es mediar entre la red y una cámara», comenta Johnston, «en efecto, se ha creado una burocracia. El ordenador hace el trabajo, pero no de forma eficiente. Un ordenador está diseñado para hacer muchas tareas y no para esta tarea especializada. Lo que necesitamos es un controlador, un ordenador reducido que se dedique sólo a esa tarea. Ahora estamos construyendo un controlador de red para una cámara de vídeo en colaboración con PsiTech Corp. de Fountain Valley, California».

Acabar con los burócratas y abrir cuellos de botella — Johnston dice que ésta es una misión recurrente de su grupo de computación distribuida. Por ejemplo, los datos que se encaminan a través de una red deben guardarse en un archivo digital antes de ser analizados. Para almacenar las altas tasas de datos procedentes de fuentes como el vídeo, se desarrollaron en el campus de Berkeley las matrices redundantes de discos baratos (RAID). La primera generación de RAID requería un ordenador intermedio, lo que ralentizaba el flujo, por lo que se ha construido un controlador de red y se ha desarrollado una nueva generación, RAID II. El RAID II ya se ha conectado a HiPPI, una red de 800 megabits/segundo que suele utilizarse para conectar superordenadores, y el LBL está trabajando para conectarlo a Internet. Este trabajo es una colaboración con varios grupos de ingeniería eléctrica e informática. En un proyecto relacionado financiado por el Departamento de Energía, el grupo de Johnston ha trabajado con los profesores de Berkeley Domenico Ferrari y Randy Katz y con Bob Fink y Ted Sopher del LBL para construir una red de gigabits (mil millones de bits) de fibra óptica que conecte el LBL y el campus de Berkeley. Todo el hardware de alta velocidad del LBL y del campus se ha conectado a esta red, creando una espuela local a la superautopista nacional de la información.

En el LBL, el nuevo ordenador MasPar desempeñará un papel central en el entorno informático distribuido del Laboratorio, abriendo la puerta a la era de los datos visuales. Aunque permitirá crear y almacenar volúmenes de imágenes, los investigadores pronto se encontrarán con un gran obstáculo. Incluso con sus 4.096 procesadores que ofrecen un rendimiento máximo de 17.000 millones de instrucciones por segundo, nadie sabe todavía cómo ordenar al superordenador que encuentre una imagen concreta almacenada.

«Buscar una palabra o una cadena de caracteres en una base de datos de texto y buscar un objeto en una base de datos de vídeo es un problema muy diferente», afirma Johnston. «Un ordenador puede encontrar fácilmente todas las referencias a «peces» en una base de datos de texto, pero no hay forma de buscar en un conjunto de imágenes de vídeo de archivo y encontrar todas las que contienen peces. Estamos colaborando con la MasPar Computer Corporation para desarrollar una tecnología que permita hacerlo.»

El simbolismo de esta misión -buscar en el proverbial pajar de imágenes y, por fin, encontrar la aguja- no debe pasarse por alto. Para los informáticos del LBL, este es un momento de posibilidades inminentes.

El tráfico en Internet se está acelerando y nuevas espuelas están creciendo y conectándose. Desde que Clinton y Gore asumieron la presidencia, se ha anunciado una cascada de inversiones corporativas multimillonarias en infraestructura de red. Las empresas de telefonía, de televisión por cable y de telefonía móvil, los editores y los fabricantes de ordenadores se apresuran a reclamar sus derechos. Estados Unidos se está preparando para el futuro.

Hablando en nombre de sus colegas, Johnston dice: «Estamos a punto de experimentar en este país cambios tan profundos como los que vivieron nuestros antepasados en el advenimiento de la Revolución Industrial. Dentro de una década, los ordenadores, las comunicaciones y el entretenimiento se fusionarán. Los científicos, los médicos, los empresarios y los escolares estarán conectados no sólo con sus compañeros sino con todo el mundo. La forma en que aprendemos y nos relacionamos está a punto de revolucionarse».

Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada.