Em 1989, o pesquisador do LBL Bill Johnston foi chamado a Washington para uma audiência no Senado dos EUA. Seu propósito: explorar o potencial de uma super-estrada nacional de informação.

Johnston e os seus colegas mostraram a Washington o futuro. Durante a primeira demonstração ao vivo por computador já realizada antes de uma audiência no Senado, eles exibiram as possibilidades de uma rede transcontinental de computadores de alta velocidade. Os pesquisadores conectaram um computador e exibiram dados processados, analisados e montados em “filmes” científicos animados por dispositivos e pesquisadores distribuídos a milhares de quilômetros de distância. Eles demonstraram como equipamentos como uma unidade de imagem de ressonância magnética, supercomputadores, dispositivos de armazenamento de dados e estações de trabalho de computador poderiam ser temporariamente ligados entre si, ligando indivíduos e recursos de formas nunca antes possíveis.

IMAGEM DO TRÁFICO INTERNET EM BACKBONE NSFNET T1

Quatro anos depois, o presidente Bill Clinton e o vice-presidente Al Gore que, como senador, tinha presidido a audiência de 1989, voaram para o Vale do Silício, na Califórnia. Reunidos na Silicon Graphics Inc., foram informados sobre a situação da super-estrada da informação emergente e, por sua vez, partilharam a sua visão para o seu futuro. Gore tem sido campeão deste projeto desde a sua infância.

Na véspera da visita de Clinton-Gore, Andrew Cherenson, da Silicon Graphics, enviou uma mensagem de incentivo a uma rede de computadores de difusão, semelhante a uma teia de aranha, que agora liga muitas instituições acadêmicas e de pesquisa ao redor do mundo: Alguém está interessado na conferência Clinton/Gore? Entrando mais tarde, ele verificou a resposta. Na manhã seguinte, Cherenson ligou uma minicâmera Sony e marcou com Clinton e Gore durante a sua sessão de brainstorming com os planeadores e jogadores que estão a ajudar a construir a super-estrada da informação. Em todo o mundo, 200 “participantes” de rapt sentaram-se nas suas mesas em frente às estações de trabalho do computador, assistindo aos eventos na Silicon Graphics enquanto comentavam entre si. A videoconferência improvisada de Cherenson – um prenúncio da facilidade com que poderemos conversar, visitar juntos e compartilhar informações num futuro próximo – foi transmitida em 11 países e 22 fusos horários.

Há uma década atrás, essa comunicação era convencional dentro do mundo da ficção científica, mas nova e alienígena como um objetivo político nacional. A partir de 1968, o governo federal, através de sua Agência de Projetos de Pesquisa Avançada em Defesa (DARPA), forneceu dinheiro inicial para estabelecer primeiro uma e depois várias redes experimentais que poderiam mover dados entre instituições de pesquisa em alta velocidade. Esses protótipos de redes evoluíram, proliferaram e se conectaram rapidamente. Hoje, uma infra-estrutura fundida de mais de 11.000 redes conhecidas como a Internet, ou apenas “a rede”, reúne mais de 10 milhões de pessoas em todo o mundo.

Desde o início, Lawrence Berkeley Laboratory tem sido um dos principais arquitetos da computação em rede, ajudando “a fazer crescer a rede” desde 1972. LBL “foi para o ar” em 1975, tornando-se uma das poucas instituições ligadas à rede. Quando a Internet ficou sobrecarregada, atolada e à beira da autodestruição em 1986, o pesquisador Van Jacobson fez parte de uma equipe de dois homens que ajudaram a resgatá-la, salvando-a daqueles que a recomendaram que fosse abandonada. Mais recentemente, Jacobson e sua equipe fizeram outras contribuições importantes, projetando a metamorfose do que tinha sido um pipeline de dados e e-mails em uma rede que agora permite que muitas pessoas falem e interajam instantaneamente via conferência em rede de áudio e vídeo. Hoje, essa cultura anteriormente dominada pelo correio está florescendo, permitindo que pessoas ao redor do mundo interajam rotineiramente, assim como faziam durante a visita da Clinton/Gore Silicon Graphics. O LBL também é pioneiro na computação científica distribuída, forjando novos links que tornam imaterial a localização de recursos computacionais caros.

Lembrando o que foi realizado e o que está nos trabalhos, o Diretor da Divisão de Informação e Ciências da Computação do LBL Stu Loken diz que estamos no alvorecer de uma nova Era da Informação.

“O governo federal tem uma longa história de investimento na infra-estrutura do país”, observa Loken. “Ele construiu canais no século 18, ferrovias no século 19, e rodovias interestaduais no século 20. Então, há cerca de 10 anos, começou a construção de redes de computadores de alta velocidade. Estas redes são as auto-estradas da Era da Informação.”

Loken e quase todos os outros pesquisadores na área dizem que as super-estradas da informação resultarão na convergência inevitável da televisão, telefone, televisão a cabo, computador, eletrônica de consumo, editoras e empresas de informação em uma única indústria de informação interativa. O vice-presidente Gore prevê que este será “o mercado mais importante e lucrativo do século 21”. AT&T diz que espera que o mercado global de informação valha US$ 1,4 trilhões até 1996; a Apple Computer estima que o mercado crescerá para US$ 3,5 trilhões até o ano 2001.

A visão das super-estradas da informação quase colapsou em 1986.

Então quase duas décadas atrás, a Internet tinha 10.000 usuários. Eles tinham vindo a confiar na rede, pois ela já tinha se tornado muito mais do que apenas um meio de trocar correio eletrônico e mover dados. A rede servia como um corredor de escritório virtual, conectando intimamente colaboradores distantes.

Em outubro de 1986, a Internet experimentou o que seus muitos designers diagnosticaram como “colapso do congestionamento”. Comunicações – um fluxo de dados digitais que consiste de tudo, desde mensagens escritas a dados científicos brutos – tem fluido através do sistema até 56 kilobits por segundo (56.000 bits, ou cerca de duas páginas digitadas, por segundo). Então, um dia, este sistema de informação do século XXI abrandou subitamente ao ritmo do telégrafo. Nesse dia, a taxa de transmissão entre o Laboratório Lawrence Berkeley e a Universidade da Califórnia em Berkeley, a apenas um quarto de milha de distância, diminuiu para 320 bits por segundo. Os usuários do sistema ficaram perplexos e consternados.

Usuários da Internet em todo o país, tão dependentes da rede como a maioria de nós está nos nossos telefones, perplexos sobre como reavivá-la. Van Jacobson da Divisão de Engenharia da LBL estava entre os que se envolveram.

“A rede tinha abrandado por um factor de mil”, recorda Jacobson. “O correio que tinha passado em minutos demorou agora um dia inteiro. As pessoas começaram a desistir disto. Toda a ideia de comunicação em rede era imperiosa.

“Eu estava trabalhando com Mike Karels (do grupo de desenvolvimento Berkeley Unix na Universidade da Califórnia, em Berkeley)”. Durante seis meses, tínhamos perguntado porque a Internet estava falhando, batendo nossas cabeças contra uma parede de tijolos. Então, uma noite em uma cafeteria em Berkeley, houve um momento de iluminação. Demos a volta à questão. A verdadeira pergunta era: “Como é que a Internet tinha funcionado?

“Pense sobre isso”, diz Jacobson: Uma estação de trabalho pode transmitir dados a 10 megabits por segundo (10 milhões de bits) e um router coloca-os na Internet, que tem uma capacidade de 56 kilobits por segundo. Você começa com esse gargalo e depois tem que enfrentar milhares de pessoas usando a rede simultaneamente. Dado isto, diz ele, um engarrafamento na Internet era inevitável.

Como o tráfego tinha aumentado na Internet, os muitos usuários do sistema tinham confiado no que era um comportamento auto-destrutivo em suas tentativas de romper o engarrafamento da rede. Pacotes de informação seriam transmitidos para a rede por um computador e subsequentemente devolvidos ao remetente por causa do congestionamento. Os computadores tinham sido programados para lidar com isso, tentando imediatamente novamente, repetidamente reenviando a mensagem até que ela fosse transmitida. Jacobson gosta da situação para despejar gasolina em uma fogueira.

COMO PACOTES ENVIADOS ATRAVÉS DO CORREIO, AS COMUNICAÇÕES ENVIADAS ATRAVÉS DE UMA REDE SÃO DIVIDIDAS EM PEQUENOS PACOTES E EMBRULHADAS COM INSTRUÇÕES DE ENVIO E MONTAGEM, PROTOCOLOS CHAMADOS

A solução, diz ele, era tornar os usuários da rede mais educados.

“Se muitas pessoas tentarem se comunicar ao mesmo tempo”, explica Jacobson, “a rede não consegue lidar com isso e rejeita os pacotes, enviando-os de volta”. Quando uma estação de trabalho retransmite imediatamente, isso agrava a situação”. O que fizemos foi escrever protocolos educados que requerem uma ligeira espera antes que um pacote seja retransmitido. Todo mundo tem que usar esses protocolos educados ou a Internet não funciona para ninguém”.

Protocolos de Jacobson e Karels, agora uma parte universal da Internet, são chamados de “Início lento”. O Slow Start evita o congestionamento monitorando a rede e, quando o congestionamento parece iminente, atrasando a transmissão de pacotes em qualquer lugar de milissegundos para um segundo. O Slow Start atrasa as taxas de transmissão com base em fatores que incluem a capacidade atual disponível da rede, bem como um múltiplo do tempo de transmissão de ida e volta (essencialmente, a distância) entre o remetente e o destino escolhido. Seis anos após a sua introdução, o Slow Start continua a evitar o congestionamento da rede, apesar de tanto a velocidade da rede como o número de utilizadores terem crescido mil vezes.

Sobre dois anos atrás, Jacobson e pesquisadores do Centro de Pesquisa de Palo Alto da Xerox (PARC) assumiram um projeto para adicionar áudio e videoconferência à Internet. Como nos sistemas telefônicos, a conferência de áudio/vídeo entre várias partes via computador era uma visão antiga, mas não alcançada.

Em termos de conferência, uma rede de computadores começa com uma vantagem inerente sobre um sistema telefônico. Enquanto uma linha telefónica liga dois pontos e transporta uma conversa, a Internet liga cada parte na linha e transporta múltiplas “conversas” simultâneas. Para suportar este enorme fluxo de informação, ela divide as comunicações em pequenos pacotes que são misturados no fluxo contínuo de pacotes que atravessam a rede. Cada pacote é embalado com instruções de envio e montagem (chamados protocolos), que dão o destino, endereço de retorno e como o computador receptor pode reordenar todos os pacotes de volta para a comunicação original.

Por causa dos pequenos atrasos inerentes à Internet, vários grupos de pesquisa encarregados de trazer áudio e vídeo conferência para a rede concluíram que lhes tinha sido dada uma missão impossível. Eles aconselharam a construção de uma nova rede.

“Achamos isso ridículo”, lembra Jacobson. “A Internet suportava a comunicação entre dois supercomputadores Cray, que transmitem a um gigabit por segundo (um bilhão de bits). Também funcionava para alguém sentado a um teclado, digitando a 20 bits por segundo. Esta robustez e alcance dinâmico pareciam bons demais para serem abandonados. Por isso, procuramos muito. Não deveria ter havido nenhuma razão para não podermos fazer áudio e vídeo”.

Atrasos na verdade são mais perturbadores para as pessoas falarem do que para as videoconferências. Conferees podem tolerar uma imagem parada ocasional durante uma transmissão de vídeo, enquanto vozes ouvidas em rajadas irregulares de staccato soam como algaraviadas. Jacobson e Steve Deering da Xerox PARC concentraram-se na concepção de um sistema que preservasse a conectividade global da Internet, mas que também permitisse um fluxo de áudio suave e rápido.

Para permitir que o ouvinte ouça uma fala contínua, Jacobson e Deering primeiro adicionaram um carimbo de tempo a cada pacote de áudio. O receptor lê os carimbos de tempo, ordena cronologicamente os pacotes, e depois os reproduz enquanto continua a receber e a encomendar pacotes adicionais de entrada para reprodução posterior. Isso evita o discurso inside-out Pig Latin, mas não lida com a natureza irregular do fluxo de pacotes de rede e as explosões de áudio que resultam.

Para remediar isso, os dois pesquisadores tiraram vantagem da diferença entre a incrível velocidade com que a rede move os pacotes e o atraso relativamente longo de dois décimos a meio segundo que os humanos podem lidar sem que a conversa seja interrompida. Eles criaram um algoritmo que calcula quanto tempo os pacotes estão demorando para chegar e então retarda a reprodução da voz o suficiente para permitir que mesmo os pacotes mais lentos tenham tempo suficiente para chegar. Os atrasos de reprodução introduzidos pelo algoritmo são na verdade muito curtos, normalmente menos de um décimo de segundo. Graças aos imperceptíveis atrasos controlados introduzidos por Jacobson e Deering, a conferência de voz entre usuários de Internet com microfones e alto-falantes de computador agora é comum.

Seated in his office at LBL, Jacobson demonstrou como ele está conectado com networkers em todo o mundo. Entrando na Internet, ele chamou as Lightweight Sessions, uma interface de janela com um formulário simples para anunciar ou se inscrever para uma conferência de áudio ou vídeo. Os usuários da rede acessam rotineiramente as Sessões Leves para avisos sobre as próximas conferências e para se inscreverem nessas conferências de interesse. Algumas conferências são apenas de voz, enquanto outras incluem vídeo, que foi desenvolvido pelos pesquisadores do PARC da Xerox. Durante uma conferência de áudio/vídeo, pequenas câmeras baratas, geralmente conectadas ao lado do computador de um participante, transmitem uma imagem ao vivo de cada conferencista. A tela de Jacobson foi dividida em várias janelas com uma janela mostrando uma imagem do indivíduo falando. Uma segunda janela exibia dados que estavam em discussão. Uma terceira janela está agendada para estrear na Internet num futuro próximo.

Jacobson chama a esta nova janela de exibição gráfica um “quadro branco.” As pessoas poderão usá-la como um programa de desenho convencional de computador para compartilhar informações ou colaborar em um projeto de desenho. Qualquer participante da conferência pode ver e, por sua vez, modificar o que estiver sendo representado no quadro ou página de volta para uma versão anterior da imagem. Qualquer imagem – por exemplo, desenhos assistidos por computador ou imagens de raios X – também pode ser importada para a janela do quadro branco.

O quadro branco é indicativo da crescente importância dos dados visuais na ciência.

Stu Loken diz que imagens estáticas e vídeo serão parte integrante da maior parte da pesquisa conduzida no LBL. “A ciência está experimentando uma proliferação de dados visuais, tudo desde mapas celestes que mapeiam a estrutura do universo inicial até imagens médicas mostrando a neuroquímica em pacientes com Alzheimer, até imagens do genoma humano”, diz ele.

Loken reconhece que as imagens criam tanto possibilidades como problemas”. Enormes quantidades de informação digital são necessárias para criar imagens”: Uma câmera de vídeo gera 30 quadros por segundo, ou o equivalente a mais de 2000 páginas de palavras. Mas os computadores são agora suficientemente rápidos e os dispositivos de armazenamento suficientemente maciços para que os cientistas comecem a utilizar câmaras de vídeo, capturando dados para análise por computador. Esta capacidade emergente está a causar uma mudança na forma como os cientistas concebem os experimentos, abrindo novas janelas para o que pode ser aprendido.

Para permitir que os pesquisadores criem dados através de vídeo, os pesquisadores da Divisão de Informação e Ciências da Computação da LBL assumiram uma missão multifacetada. Bill Johnston lidera uma equipe que está criando novo hardware e software para o processamento e análise de um fluxo de dados visuais em redes de alta velocidade. A idéia é permitir que um cientista possa obter resultados, por exemplo, de um microscópio eletrônico e conectar esse fluxo de vídeo a uma rede tão rotineiramente quanto uma estação de trabalho pode ser conectada a uma rede nos dias de hoje.

Conexão à rede é apenas o primeiro passo. O grupo da Johnston dedica-se ao desenvolvimento da computação científica distribuída. Até agora, a localização dos recursos tem ditado o curso da ciência. Os projetos continuam em locais onde as pessoas certas, experimentais e recursos computacionais podem ser reunidos. Nos ambientes de computação científica distribuída agora sendo pioneiros no LBL, máquinas, bancos de dados e pessoas espalhadas pelo globo podem ser rápida e temporariamente ligadas. Por exemplo, um fluxo de vídeo de um experimento em andamento pode ser roteado para um supercomputador para processamento e a análise instantânea usada para controlar interativamente o aparelho experimental. Ou o fluxo de dados pode ser processado, analisado e então servir como entrada em um experimento companheiro.

Johnston observa que a videoconferência em rede já está disponível, mas adverte que isso não deve ser confundido com a transmissão em rede de alta velocidade de dados de vídeo científico. A diferença é a qualidade da imagem.

Por exemplo, para comprimir as transmissões de videoconferência através da ainda estreita tubulação da Internet, a taxa de transmissão padrão de 30 quadros por segundo foi reduzida para seis a 12 quadros por segundo. Além disso, em vez de transmitir uma sucessão de quadros completos, são utilizados algoritmos de compressão que transmitem apenas a parte da imagem que foi alterada em relação ao quadro anterior. Estas imagens parciais são então montadas em imagens completas por software no final receptor. O efeito líquido é que as pessoas podem ver imagens decentes umas das outras enquanto falam, mesmo que a taxa de fluxo digital seja reduzida milhares de vezes em relação à de uma transmissão de vídeo padrão.

Embora isso funcione para videoconferência — uma sensação de presença é criada, se não uma imagem de qualidade Ansel Adam — dados científicos não podem ser concentrados assim e sobreviver.

Explica Johnston, “Dados de vídeo consistem tipicamente de imagens produzidas por sensores que estão a ultrapassar os limites da tecnologia. Muitas vezes, temos muitas imagens difusas, de baixo contraste, com características que são difíceis de distinguir do ruído de fundo. Para poder analisar e extrair informações, não podemos perder nenhum dos detalhes originais do vídeo. O vídeo transmitido através da Internet foi comprimido a 8-16 kilobits por segundo. Contraste isso com uma câmera de instrumentação monocromática convencional, que gera 120.000 kilobits por segundo”.

Johnston’s group usa a ciência de laboratório como um driver para desenvolver tecnologia destinada, em última análise, para as massas. Por exemplo, considere o caso do bioquímico LBL Marcos Maestre, que está filmando pequenos fios de DNA vibrando em uma rede elétrica microscópica para estudar a química física do DNA. Atualmente, os pesquisadores vibram o DNA, criam uma fita de vídeo e depois levam a fita a um sistema de animação onde imagens fixas de cada quadro são produzidas com cuidado. São necessárias horas e horas para extrair cerca de 200 frames, ou sete segundos de dados. Em seguida, as imagens são digitalizadas para um computador quadro a quadro, que rastreia e mede a forma variável da cadeia de DNA, produzindo novos conhecimentos sobre a sua estrutura.

No sistema distribuído em desenvolvimento no LBL, os pesquisadores poderão olhar para um monitor de estação de trabalho e ver os dados colhidos de um vídeo ao vivo, mesmo quando o experimento estiver sendo executado. A câmera de vídeo será conectada a uma rede onde um dispositivo de armazenamento salvará as imagens enquanto também as transmitirá para o novo supercomputador do LBL, um sistema de processamento maciçamente paralelo MasPar. A MasPar pode processar e analisar uma entrada de vídeo de 30 quadros por segundo, proporcionando uma exibição instantânea dos dados em qualquer estação de trabalho de engenharia da rede.

Felizmente, para tornar isto uma realidade, está envolvido mais do que simplesmente ligar os componentes deste sistema uns nos outros. À medida que o fluxo digital flui do experimento para seu armazenamento, análise e exibição, vários gargalos ocorrem. Antes que o fluxo de sinal bruto da câmera monocromática a 120.000 kilobits por segundo seja transmitido para a rede, um computador intermediário deve traduzir a saída em um pacote digital configurado para a rede. O tráfego digital começa a fazer backup nesta fase.

“Quando a única razão para um computador é para mediar entre a rede e uma câmera”, comenta Johnston, “na verdade, você criou uma burocracia”. O computador faz o trabalho, mas não eficientemente. Um computador é projetado para fazer muitas tarefas, em vez desta tarefa especializada. O que precisamos é de um controlador, um computador despojado e dedicado apenas a esse trabalho”. Estamos agora construindo um controlador de rede para uma câmera de vídeo em uma colaboração com a PsiTech Corp. de Fountain Valley, Califórnia”.

Burocratas e abrindo gargalos — Johnston diz que esta é uma missão recorrente do seu grupo de computação distribuída. Por exemplo, dados sendo encaminhados através de uma rede devem ser salvos em um arquivo digital antes de serem analisados. Para armazenar as altas taxas de dados de fontes como vídeo, Redundant Arrays of Inexpensive Disks (RAID) foram desenvolvidos no campus de Berkeley. A primeira geração de RAID exigiu um computador intermediário, o que diminuiu o fluxo, por isso foi construído um controlador de rede e uma nova geração, RAID II, foi desenvolvida. O RAID II foi agora anexado ao HiPPI, uma rede de 800 megabits/segundo normalmente usada para ligar supercomputadores, e o LBL está trabalhando para anexá-lo à Internet. Este trabalho é uma colaboração com vários grupos de engenharia elétrica e de ciência da computação. Em um projeto relacionado ao Departamento de Energia, o grupo de Johnston trabalhou com os professores Domenico Ferrari e Randy Katz da Berkeley e Bob Fink e Ted Sopher do LBL para construir uma rede de fibra ótica gigabit (bilhão de bits) que conecta o LBL e o campus de Berkeley. Todo o hardware de alta velocidade no LBL e no campus foi anexado a esta rede, criando um impulso local para a super-estrada nacional de informação.

No LBL, o novo computador MasPar desempenhará um papel central no ambiente de computação distribuída do Laboratório, abrindo a porta para a era dos dados visuais. Enquanto ele permitirá a criação e armazenamento de volumes de imagens, os pesquisadores em breve encontrarão um grande obstáculo. Mesmo com os seus 4.096 processadores com desempenho máximo de 17.000 milhões de instruções por segundo, ninguém ainda sabe como instruir o supercomputador a encontrar uma determinada imagem armazenada.

“Pesquisar um banco de dados de texto por uma palavra ou seqüência de caracteres e pesquisar um banco de dados de vídeo por um objeto é um problema muito diferente”, diz Johnston. “Um computador pode facilmente encontrar todas as referências em um banco de dados de texto para ‘peixes’, mas não há uma maneira pronta de procurar através de um conjunto de imagens de vídeo e encontrar todos aqueles com peixes. Estamos a colaborar com a MasPar Computer Corporation para desenvolver tecnologia para fazer isto”.

O simbolismo desta missão — pesquisar o proverbial palheiro de imagens e, finalmente, encontrar a agulha — não deve ser negligenciado. Para os cientistas informáticos do LBL, este é um tempo de possibilidades iminentes.

Tráfego na Internet está a acelerar e novas esporas estão a crescer e a ligar-se. Desde que Clinton e Gore tomaram posse, uma cascata de investimentos corporativos multibilionários em infra-estrutura de rede foi anunciada. Telefone, TV a cabo e empresas de telefonia celular, editoras e fabricantes de computadores estão se precipitando para fazer uma reivindicação. A América está sendo conectada para o futuro.

Falando para seus colegas, Johnston diz: “Estamos prestes a experimentar mudanças neste país tão profundas quanto as experimentadas por nossos ancestrais no advento da Revolução Industrial. Dentro de uma década, os computadores, as comunicações e o entretenimento serão fundidos. Cientistas, médicos, empresários e crianças em idade escolar estarão ligados não apenas aos seus pares, mas a todos os outros. A forma como aprendemos e interagimos está prestes a ser revolucionada”

Articles

Deixe uma resposta

O seu endereço de email não será publicado.