Im Jahr 1989 wurde der LBL-Forscher Bill Johnston zu einer Anhörung des US-Senats nach Washington gerufen. Deren Zweck: das Potenzial einer nationalen Datenautobahn zu erkunden.

Johnston und seine Kollegen zeigten Washington die Zukunft. Bei der ersten Live-Computerdemonstration, die jemals vor einer Senatsanhörung durchgeführt wurde, zeigten sie die Möglichkeiten eines transkontinentalen Hochgeschwindigkeits-Computernetzes. Die Forscher schlossen einen Computer an und zeigten Daten, die von Geräten und Forschern, die Tausende von Meilen voneinander entfernt waren, verarbeitet, analysiert und zu animierten wissenschaftlichen „Filmen“ zusammengesetzt wurden. Sie demonstrierten, wie Geräte wie Magnetresonanztomographen, Supercomputer, Datenspeichergeräte und Computerarbeitsplätze vorübergehend miteinander verbunden werden können, um Personen und Ressourcen in einer Weise zu vernetzen, wie es bisher nicht möglich war.

BILD DES INTERNET-VERKEHRS AM NSFNET T1 BACKBONE

Vier Jahre später flogen Präsident Bill Clinton und Vizepräsident Al Gore, der als Senator die Anhörung von 1989 geleitet hatte, ins kalifornische Silicon Valley. Bei einem Treffen in der Silicon Graphics Inc. wurden sie über den Stand der entstehenden Datenautobahn informiert und berichteten über ihre Vorstellungen von deren Zukunft. Gore hat sich seit den Anfängen für dieses Projekt eingesetzt.

Am Vorabend des Clinton-Gore-Besuchs verschickte Andrew Cherenson von Silicon Graphics eine spontane Nachricht über ein sich ausbreitendes, spinnennetzartiges Computernetz, das inzwischen viele akademische und Forschungseinrichtungen in der ganzen Welt miteinander verbindet: Hat jemand Interesse an der Clinton/Gore-Konferenz? Später loggte er sich ein und prüfte die Antwort. Am nächsten Morgen schloss Cherenson eine Sony-Minikamera an und begleitete Clinton und Gore bei ihrer Brainstorming-Sitzung mit den Planern und Akteuren, die am Aufbau der Datenautobahn beteiligt sind. Rund um den Globus saßen 200 begeisterte „Teilnehmer“ an ihren Schreibtischen vor Computerarbeitsplätzen und verfolgten das Geschehen bei Silicon Graphics, während sie sich gegenseitig kommentierten. Cherensons improvisierte Videokonferenz – ein Vorbote der Leichtigkeit, mit der wir in naher Zukunft miteinander sprechen, uns gemeinsam besuchen und Informationen austauschen können – wurde in 11 Ländern und 22 Zeitzonen übertragen.

Vor einem Jahrzehnt war eine solche Kommunikation in der Welt der Science-Fiction üblich, aber als Ziel der nationalen Politik neu und fremd. Ab 1968 stellte die Bundesregierung über ihre Defense Advanced Research Projects Agency (DARPA) Startkapital zur Verfügung, um zunächst ein und dann mehrere experimentelle Netze einzurichten, die Daten zwischen Forschungseinrichtungen mit hoher Geschwindigkeit übertragen konnten. Diese Prototyp-Netze haben sich weiterentwickelt, vermehrt und schnell miteinander verbunden. Heute verbindet eine verschmolzene Infrastruktur von mehr als 11.000 Netzen, bekannt als das Internet oder einfach „das Netz“, mehr als 10 Millionen Menschen auf der ganzen Welt.

Von Anfang an war das Lawrence Berkeley Laboratory einer der Hauptarchitekten der Netzinformatik und trug seit 1972 dazu bei, „das Netz wachsen zu lassen“. Das LBL ging 1975 „on the air“ und wurde eine der wenigen Institutionen, die an das Netz angeschlossen waren. Als das Internet überlastet war, ins Stocken geriet und 1986 kurz vor der Selbstzerstörung stand, gehörte der LBL-Forscher Van Jacobson zu einem zweiköpfigen Team, das zur Rettung des Netzes beitrug und es vor denjenigen bewahrte, die seine Aufgabe empfahlen. In jüngerer Zeit haben Jacobson und sein Team weitere wichtige Beiträge geleistet, indem sie die Metamorphose einer Daten- und E-Mail-Pipeline in ein Netzwerk vorbereiteten, das es nun vielen Menschen ermöglicht, über Audio- und Video-Netzwerkkonferenzen zu sprechen und sofort zu interagieren. Heute floriert diese ehemals von E-Mails dominierte Kultur und ermöglicht es Menschen auf der ganzen Welt, routinemäßig zu interagieren, so wie sie es während des Besuchs von Clinton und Gore bei Silicon Graphics getan haben. Das LBL ist auch ein Pionier im Bereich des verteilten wissenschaftlichen Rechnens, indem es neue Verbindungen herstellt, die den Standort der teuren Rechenressourcen unerheblich machen.

In Anbetracht dessen, was erreicht wurde und was in Arbeit ist, sagt Stu Loken, Direktor der LBL-Abteilung für Informations- und Computerwissenschaften, dass wir uns am Beginn eines neuen Informationszeitalters befinden.

„Die Bundesregierung investiert schon seit langem in die Infrastruktur des Landes“, so Loken. „Sie baute Kanäle im 18. Jahrhundert, Eisenbahnen im 19. Jahrhundert und Autobahnen im 20. Vor etwa 10 Jahren wurde dann mit dem Bau von Hochgeschwindigkeits-Computernetzen begonnen. Diese Netze sind die Autobahnen des Informationszeitalters.“

Loken und fast alle anderen Forscher auf diesem Gebiet sind der Meinung, daß die Informationsautobahnen zu einer unvermeidlichen Konvergenz von Fernsehen, Telefon, Kabelfernsehen, Computer, Unterhaltungselektronik, Verlagswesen und Informationsunternehmen zu einer einzigen interaktiven Informationsindustrie führen werden. Vizepräsident Gore sagt voraus, daß dies „der wichtigste und lukrativste Markt des 21. Jahrhunderts“ sein wird. AT&T geht davon aus, daß der weltweite Informationsmarkt bis 1996 einen Wert von 1,4 Billionen Dollar haben wird; Apple Computer schätzt, daß der Markt bis zum Jahr 2001 auf 3,5 Billionen Dollar anwachsen wird.

Die Vision der Informations-Superhighways wäre 1986 beinahe gescheitert.

Das Internet war damals fast zwei Jahrzehnte alt und hatte 10.000 Benutzer. Sie hatten sich auf das Netz verlassen, denn es war bereits viel mehr als nur ein Mittel zum Austausch von elektronischer Post und zur Übermittlung von Daten geworden. Das Netz diente als virtueller Büroflur, der entfernte Mitarbeiter eng miteinander verband.

Im Oktober 1986 erlebte das Internet das, was seine Entwickler als „Überlastungskollaps“ diagnostizierten. Die Kommunikation – ein digitaler Datenstrom, der von schriftlichen Nachrichten bis hin zu wissenschaftlichen Rohdaten reichte – floss mit bis zu 56 Kilobit pro Sekunde durch das System (56.000 Bit oder etwa zwei getippte Seiten pro Sekunde). Eines Tages verlangsamte sich dieses Informationssystem des 21. Jahrhunderts plötzlich auf das Tempo des Telegrafen. An diesem Tag verlangsamte sich die Übertragungsrate zwischen dem Lawrence Berkeley Laboratory und der nur eine Viertelmeile entfernten University of California in Berkeley auf 320 Bit pro Sekunde. Die Nutzer des Systems waren verblüfft und bestürzt.

Internetnutzer im ganzen Land, die auf das Netz ebenso angewiesen sind wie die meisten von uns auf ihre Telefone, rätselten darüber, wie man es wieder in Gang bringen könnte. Van Jacobson von der technischen Abteilung des LBL war einer derjenigen, die sich daran beteiligten.

„Das Netz war um das Tausendfache langsamer geworden“, erinnert sich Jacobson. „Post, die vorher in wenigen Minuten durchging, brauchte jetzt einen ganzen Tag. Die Leute begannen, die Sache aufzugeben. Die ganze Idee der Netzwerkkommunikation war in Gefahr.

„Ich arbeitete mit Mike Karels (von der Berkeley Unix Entwicklungsgruppe an der University of California in Berkeley). Sechs Monate lang hatten wir uns gefragt, warum das Internet versagt, und waren mit dem Kopf gegen eine Wand gerannt. Dann, eines Abends in einem Kaffeehaus in Berkeley, gab es einen Moment der Erleuchtung. Wir drehten die Frage um. Die eigentliche Frage lautete: „Wie hat das Internet jemals funktioniert?

„Überlegen Sie mal“, sagt Jacobson: Ein Arbeitsplatzrechner kann Daten mit einer Geschwindigkeit von 10 Megabit pro Sekunde (10 Millionen Bits) übertragen, und ein Router leitet diese Daten an das Internet weiter, das eine Kapazität von 56 Kilobit pro Sekunde hat. Man beginnt mit diesem Engpass und muss dann damit rechnen, dass Tausende von Menschen das Netz gleichzeitig nutzen. Angesichts dessen sei ein Stau im Internet unvermeidlich, sagt er.

Als der Datenverkehr im Internet zunahm, versuchten die zahlreichen Benutzer des Systems, den Netzstau zu durchbrechen, was einem selbstzerstörerischen Verhalten gleichkam. Informationspakete wurden von einem Computer an das Netz übermittelt und anschließend aufgrund der Überlastung an den Absender zurückgeschickt. Die Computer waren so programmiert, dass sie es sofort wieder versuchten und die Nachricht so oft erneut sendeten, bis sie ankam. Jacobson vergleicht die Situation mit dem Gießen von Benzin auf ein Feuer.

WIE BEI PAKETEN, DIE MIT DER POST VERSCHICKT WERDEN, WIRD DIE ÜBER EIN NETZ VERSANDTE KOMMUNIKATION IN KLEINE PAKETE AUFGETEILT UND MIT VERSAND- UND MONTAGEANWEISUNGEN VERSEHEN, PROTOKOLLE

Die Lösung, sagt er, besteht darin, die Netzbenutzer höflicher zu machen.

„Wenn zu viele Leute gleichzeitig versuchen, miteinander zu kommunizieren“, erklärt Jacobson, „kann das Netz das nicht verkraften und weist die Pakete ab und schickt sie zurück. Wenn eine Workstation sofort wieder sendet, verschlimmert das die Situation. Wir haben höfliche Protokolle geschrieben, die eine kleine Wartezeit vorsehen, bevor ein Paket erneut übertragen wird. Jeder muss diese höflichen Protokolle verwenden, sonst funktioniert das Internet für niemanden.“

Jacobson und Karels‘ Protokolle, die jetzt ein universeller Bestandteil des Internets sind, heißen „Slow Start“. Slow Start vermeidet Überlastungen, indem es das Netz überwacht und bei drohender Überlastung die Übertragung von Paketen um Millisekunden bis zu einer Sekunde verzögert. Slow Start verzögert die Übertragungsraten auf der Grundlage von Faktoren, die die aktuell verfügbare Kapazität des Netzes sowie ein Vielfaches der Hin- und Rücklaufzeit (im Wesentlichen die Entfernung) zwischen dem Absender und dem gewählten Ziel umfassen. Sechs Jahre nach seiner Einführung vermeidet Slow Start weiterhin Netzüberlastungen, obwohl sowohl die Geschwindigkeit des Netzes als auch die Zahl der Nutzer um das Tausendfache gestiegen sind.

Vor etwa zwei Jahren nahmen Jacobson und Forscher am Palo Alto Research Center (PARC) von Xerox ein Projekt in Angriff, um Audio- und Videokonferenzen in das Internet zu integrieren. Wie bei Telefonsystemen waren Audio-/Videokonferenzen zwischen mehreren Teilnehmern über einen Computer eine alte, bisher unerreichte Vision.

Im Hinblick auf Konferenzen hat ein Computernetz zunächst einen Vorteil gegenüber einem Telefonsystem. Während eine Telefonleitung zwei Punkte miteinander verbindet und ein Gespräch führt, verbindet das Internet jeden Teilnehmer an der Leitung und führt mehrere gleichzeitige „Gespräche“. Um diesen riesigen Informationsfluss zu unterstützen, wird die Kommunikation in kleine Pakete aufgeteilt, die in den laufenden Strom von Paketen, die das Netz durchqueren, gemischt werden. Jedes Paket ist mit Versand- und Montageanweisungen (Protokolle genannt) versehen, die das Ziel, die Rücksendeadresse und die Art und Weise angeben, wie der empfangende Computer alle Pakete wieder in die ursprüngliche Kommunikation einordnen kann.

Aufgrund der geringen Verzögerungen, die das Internet mit sich bringt, kamen mehrere Forschungsgruppen, die Audio- und Videokonferenzen in das Netz einführen sollten, zu dem Schluss, dass ihnen eine unmögliche Aufgabe gestellt worden war. Sie rieten dazu, ein neues Netz zu errichten.

„Wir hielten das für lächerlich“, erinnert sich Jacobson. „Das Internet unterstützte die Kommunikation zwischen zwei Cray-Supercomputern, die mit einem Gigabit pro Sekunde (eine Milliarde Bit) übertragen. Es funktionierte auch für jemanden, der an einer Tastatur sitzt und mit 20 Bit pro Sekunde tippt. Diese Robustheit und der dynamische Bereich schienen zu gut, um sie aufzugeben. Also haben wir genau hingesehen. Es sollte keinen Grund geben, warum wir nicht auch Audio und Video machen können.“

Verzögerungen stören bei Gesprächen mehr als bei Videokonferenzen. Die Konferenzteilnehmer können ein gelegentliches Standbild während einer Videoübertragung tolerieren, während Stimmen, die in ungleichmäßigen Stakkato-Bursts zu hören sind, wie Kauderwelsch klingen. Jacobson und Steve Deering vom Xerox PARC konzentrierten sich darauf, ein System zu entwickeln, das die globale Konnektivität des Internets bewahrt und gleichzeitig einen reibungslosen und schnellen Audiofluss ermöglicht.

Um dem Hörer eine kontinuierliche Sprache zu ermöglichen, fügten Jacobson und Deering zunächst jedem Audiopaket einen Zeitstempel hinzu. Der Empfänger liest die Zeitstempel, ordnet die Pakete chronologisch an und spielt sie dann ab, während er gleichzeitig weitere eingehende Pakete für die spätere Wiedergabe empfängt und anordnet. Damit wird zwar eine „Schweinelatein“-Sprache vermieden, aber die Ungleichmäßigkeit des Netzwerk-Paketflusses und die daraus resultierenden Audio-Bursts werden nicht berücksichtigt.

Um hier Abhilfe zu schaffen, nutzten die beiden Forscher den Unterschied zwischen der unglaublichen Geschwindigkeit, mit der das Netz Pakete bewegt, und der relativ langen Verzögerung von zwei Zehntel- bis einer halben Sekunde, mit der Menschen umgehen können, ohne dass das Gespräch unterbrochen wird. Sie entwickelten einen Algorithmus, der berechnet, wie lange die Pakete brauchen, um anzukommen, und dann die Sprachwiedergabe so weit verlangsamt, dass auch die langsamsten Pakete ausreichend Zeit haben, um anzukommen. Die durch den Algorithmus verursachten Verzögerungen bei der Sprachwiedergabe sind sehr gering und betragen in der Regel weniger als eine Zehntelsekunde. Dank der unmerklichen, kontrollierten Verzögerungen, die Jacobson und Deering eingeführt haben, sind Sprachkonferenzen zwischen Internetnutzern mit Mikrofonen und Computerlautsprechern heute gang und gäbe.

In seinem Büro am LBL demonstrierte Jacobson, wie er mit Netzwerkern auf der ganzen Welt verbunden ist. Er loggte sich ins Internet ein und rief Lightweight Sessions auf, eine Fensteroberfläche mit einem einfachen Formular zur Ankündigung oder Anmeldung für eine Audio- oder Videokonferenz. Netzwerkbenutzer greifen routinemäßig auf Lightweight Sessions zu, um sich über bevorstehende Konferenzen zu informieren und sich für die gewünschten Konferenzen anzumelden. Einige Konferenzen sind reine Sprachkonferenzen, während andere auch Videokonferenzen umfassen, die von Forschern des Xerox PARC entwickelt wurden. Während einer Audio-/Videokonferenz übertragen winzige, preiswerte Kameras, die in der Regel an der Seite des Computers eines Teilnehmers angeschlossen sind, ein Live-Bild von jedem Teilnehmer. Jacobsons Bildschirm war in mehrere Fenster aufgeteilt, wobei ein Fenster ein Bild der sprechenden Person zeigte. Ein zweites Fenster zeigte die Daten an, die gerade diskutiert wurden. Ein drittes Fenster soll in naher Zukunft erstmals im Internet erscheinen.

Jacobson nennt dieses neue grafische Anzeigefenster ein „Whiteboard“. Die Teilnehmer werden es ähnlich wie ein herkömmliches Computer-Zeichenprogramm verwenden können, um Informationen auszutauschen oder an einem Design-Projekt mitzuarbeiten. Jeder Konferenzteilnehmer kann sehen, was auf dem Whiteboard dargestellt wird, und dieses wiederum verändern oder zu einer früheren Version des Bildes zurückblättern. Jedes Bild – zum Beispiel computergestützte Entwürfe oder Röntgenbilder – kann auch in das Whiteboard-Fenster importiert werden.

Das Whiteboard ist ein Beispiel für die wachsende Bedeutung visueller Daten in der Wissenschaft.

Stu Loken sagt, dass Standbilder und Videos ein wesentlicher Bestandteil der meisten Forschungsarbeiten am LBL sein werden. „In der Wissenschaft gibt es immer mehr visuelle Daten, von Himmelskarten, die die Struktur des frühen Universums darstellen, über medizinische Bilder, die die Neurochemie bei Alzheimer-Patienten zeigen, bis hin zu Bildern des menschlichen Genoms“, sagt er.

Loken räumt ein, dass Bilder sowohl Möglichkeiten als auch Probleme schaffen. Für die Erstellung von Bildern sind riesige Mengen an digitalen Informationen erforderlich: Eine Videokamera erzeugt 30 Bilder pro Sekunde, das entspricht mehr als 2000 Seiten Text. Inzwischen sind die Computer jedoch schnell genug und die Speichermedien groß genug, so dass die Wissenschaftler beginnen, Videokameras zu verwenden, um Daten für die Computeranalyse zu erfassen. Diese neue Fähigkeit führt zu einem Wandel in der Art und Weise, wie Wissenschaftler ihre Experimente planen, und eröffnet neue Möglichkeiten, Erkenntnisse zu gewinnen.

Um den Forschern die Möglichkeit zu geben, Daten mit Hilfe von Videos zu erstellen, haben die Forscher der LBL Information and Computing Sciences Division eine vielschichtige Aufgabe übernommen. Bill Johnston leitet ein Team, das neue Hardware und Software für die Verarbeitung und Analyse eines visuellen Datenstroms über Hochgeschwindigkeitsnetze entwickelt. Die Idee ist, dass ein Wissenschaftler in der Lage sein soll, die Ausgabe z.B. eines Elektronenmikroskops zu nehmen und diesen Videostrom mit einem Netzwerk zu verbinden, so wie heute eine Workstation mit einem Netzwerk verbunden werden kann.

Der Anschluss an das Netz ist nur der erste Schritt. Johnstons Gruppe widmet sich der Entwicklung des verteilten wissenschaftlichen Rechnens. Bis jetzt hat der Standort der Ressourcen den Verlauf der Wissenschaft bestimmt. Projekte werden dort durchgeführt, wo die richtigen Leute, Experimentier- und Rechenressourcen zusammengebracht werden können. In den verteilten wissenschaftlichen Rechenumgebungen, die jetzt am LBL entwickelt werden, können Maschinen, Datenbanken und Menschen, die über den ganzen Globus verstreut sind, schnell und vorübergehend miteinander verbunden werden. So kann beispielsweise ein Videostrom aus einem laufenden Experiment zur Verarbeitung an einen Supercomputer weitergeleitet und die sofortige Analyse zur interaktiven Steuerung der Versuchsapparatur verwendet werden. Oder der Datenstrom kann verarbeitet und analysiert werden und dann als Input für ein weiteres Experiment dienen.

Johnston weist darauf hin, dass es bereits Videokonferenzen über das Netz gibt, warnt aber davor, dies mit der Hochgeschwindigkeitsübertragung wissenschaftlicher Videodaten über das Netz zu verwechseln. Der Unterschied liegt in der Qualität des Bildes.

Um beispielsweise Videokonferenzübertragungen durch die immer noch enge Internet-Pipeline zu zwängen, wurde die Standardübertragungsrate von 30 Bildern pro Sekunde auf sechs bis 12 Bilder pro Sekunde reduziert. Außerdem werden statt einer Folge von Vollbildern Kompressionsalgorithmen verwendet, die nur den Teil des Bildes übertragen, der sich gegenüber dem vorherigen Bild verändert hat. Diese Teilbilder werden dann von der Software auf der Empfangsseite zu vollständigen Bildern zusammengesetzt. Der Nettoeffekt ist, dass die Menschen beim Sprechen gute Bilder voneinander sehen können, obwohl die digitale Übertragungsrate um ein Tausendfaches geringer ist als bei einer normalen Videoübertragung.

Während dies bei Videokonferenzen funktioniert – es entsteht ein Gefühl der Präsenz, wenn auch kein Bild in Ansel-Adams-Qualität – können wissenschaftliche Daten nicht auf diese Weise konzentriert werden und überleben.

Erklärt Johnston: „Videodaten bestehen in der Regel aus Bildern, die von Sensoren erzeugt werden, die an die Grenzen der Technologie stoßen. Oft haben wir viele unscharfe, kontrastarme Bilder mit Merkmalen, die schwer vom Hintergrundrauschen zu unterscheiden sind. Um Informationen analysieren und extrahieren zu können, dürfen keine Details des ursprünglichen Videos verloren gehen. Das über das Internet übertragene Video wurde auf 8-16 Kilobit pro Sekunde komprimiert. Im Vergleich dazu erzeugt eine herkömmliche monochrome Instrumentenkamera 120.000 Kilobit pro Sekunde.“

Johnstons Gruppe nutzt die Laborwissenschaft als Antrieb für die Entwicklung von Technologien, die letztlich für die breite Masse bestimmt sind. Ein Beispiel dafür ist der LBL-Biochemiker Marcos Maestre, der kleine DNA-Stränge auf Video aufzeichnet, die in einem mikroskopischen elektrischen Gitter vibrieren, um die physikalische Chemie der DNA zu untersuchen. Gegenwärtig lassen die Forscher die DNA vibrieren, erstellen ein Videoband und leiten das Band dann an ein Animationssystem weiter, wo in mühsamer Kleinarbeit Standbilder von jedem Bild erstellt werden. Es dauert Stunden und Stunden, um etwa 200 Bilder oder sieben Sekunden an Daten zu extrahieren. Dann werden die Bilder Bild für Bild in einen Computer eingescannt, der die sich verändernde Form des DNA-Strangs verfolgt und misst und so neue Erkenntnisse über seine Struktur liefert.

In dem verteilten System, das derzeit am LBL entwickelt wird, können die Forscher auf einen Workstation-Monitor schauen und die Daten sehen, die von einem Live-Video stammen, während das Experiment läuft. Die Videokamera wird an ein Netzwerk angeschlossen, in dem ein Speichergerät die Bilder speichert und sie gleichzeitig an den neuen Supercomputer des LBL, ein massiv-paralleles Verarbeitungssystem (MasPar), überträgt. Der MasPar kann einen Video-Input von 30 Bildern pro Sekunde verarbeiten und analysieren, so dass die Daten sofort an jedem technischen Arbeitsplatz im Netzwerk angezeigt werden können.

Um dies zu verwirklichen, müssen die Komponenten dieses Systems nicht nur einfach zusammengesteckt werden. Auf dem Weg des digitalen Datenstroms vom Experiment zu seiner Speicherung, Analyse und Anzeige treten mehrere Engpässe auf. Bevor das Rohsignal, das mit 120.000 Kilobit pro Sekunde aus der Monochromkamera strömt, in das Netzwerk übertragen wird, muss ein zwischengeschalteter Computer die Ausgabe in ein für das Netzwerk konfiguriertes digitales Paket übersetzen. In dieser Phase beginnt sich der digitale Verkehr zu stauen.

„Wenn der einzige Grund für einen Computer darin besteht, zwischen dem Netz und einer Kamera zu vermitteln“, kommentiert Johnston, „dann hat man im Grunde eine Bürokratie geschaffen. Der Computer erledigt die Aufgabe, aber nicht effizient. Ein Computer ist für viele Aufgaben ausgelegt und nicht für diese spezielle Aufgabe. Was wir brauchen, ist ein Controller, ein abgespeckter Computer, der nur für diese eine Aufgabe zuständig ist. In Zusammenarbeit mit PsiTech Corp. aus Fountain Valley, Kalifornien, bauen wir jetzt einen Netzwerk-Controller für eine Videokamera.“

Bürokraten aus dem Weg räumen und Engpässe beseitigen – das ist laut Johnston eine der wiederkehrenden Aufgaben seiner Gruppe für verteiltes Rechnen. So müssen beispielsweise Daten, die durch ein Netzwerk geleitet werden, in einem digitalen Archiv gespeichert werden, bevor sie analysiert werden können. Um die hohen Datenraten von Quellen wie Video zu speichern, wurden auf dem Berkeley-Campus Redundant Arrays of Inexpensive Disks (RAID) entwickelt. Die erste Generation von RAID erforderte einen Zwischencomputer, der den Datenfluss verlangsamte, so dass ein Netzwerk-Controller gebaut und eine neue Generation, RAID II, entwickelt wurde. RAID II wurde jetzt an HiPPI angeschlossen, ein 800-Megabit/Sekunde-Netzwerk, das normalerweise für die Verbindung von Supercomputern verwendet wird, und das LBL arbeitet daran, es an das Internet anzuschließen. Diese Arbeit ist eine Zusammenarbeit mit mehreren Gruppen aus den Bereichen Elektrotechnik und Informatik. In einem verwandten, vom Energieministerium finanzierten Projekt hat Johnstons Gruppe zusammen mit den Berkeley-Professoren Domenico Ferrari und Randy Katz sowie den LBL-Mitarbeitern Bob Fink und Ted Sopher ein Gigabit-Glasfasernetz (eine Milliarde Bit) aufgebaut, das das LBL und den Berkeley-Campus miteinander verbindet. Die gesamte Hochgeschwindigkeits-Hardware am LBL und auf dem Campus wurde an dieses Netz angeschlossen, wodurch ein lokaler Anschluss an die nationale Datenautobahn geschaffen wurde.

Am LBL wird der neue MasPar-Computer eine zentrale Rolle in der verteilten Computerumgebung des Labors spielen und die Tür zum Zeitalter der visuellen Daten öffnen. Er wird es zwar ermöglichen, große Mengen von Bildern zu erstellen und zu speichern, doch werden die Forscher bald auf ein großes Hindernis stoßen. Selbst mit seinen 4 096 Prozessoren, die eine Spitzenleistung von 17 000 Millionen Befehlen pro Sekunde erbringen, weiß noch niemand, wie man den Supercomputer anweisen kann, ein bestimmtes gespeichertes Bild zu finden.

„Das Durchsuchen einer Textdatenbank nach einem Wort oder einer Zeichenfolge und das Durchsuchen einer Videodatenbank nach einem Objekt ist ein ganz anderes Problem“, sagt Johnston. „Ein Computer kann leicht jeden Verweis in einer Textdatenbank auf ‚Fisch‘ finden, aber es gibt keine einfache Möglichkeit, einen Archivsatz von Videobildern zu durchsuchen und alle Bilder mit Fisch zu finden. Wir arbeiten mit der MasPar Computer Corporation zusammen, um eine Technologie zu entwickeln, die dies ermöglicht.“

Die Symbolik dieser Mission – das Durchsuchen des sprichwörtlichen Heuhaufens von Bildern und schließlich das Finden der Nadel – sollte nicht übersehen werden. Für die Informatiker des LBL ist dies eine Zeit der unbegrenzten Möglichkeiten.

Der Verkehr im Internet beschleunigt sich, und neue Ausläufer wachsen und schließen sich an. Seit dem Amtsantritt von Clinton und Gore wurde eine Kaskade von milliardenschweren Unternehmensinvestitionen in die Netzinfrastruktur angekündigt. Telefon-, Kabelfernseh- und Mobiltelefongesellschaften, Verlage und Computerhersteller beeilen sich, ihre Claims abzustecken. Amerika wird für die Zukunft verkabelt.

Im Namen seiner Kollegen sagt Johnston: „Wir stehen in diesem Land vor Veränderungen, die so tiefgreifend sind wie die, die unsere Vorfahren zu Beginn der industriellen Revolution erlebt haben. Innerhalb dieses Jahrzehnts werden Computer, Kommunikation und Unterhaltung miteinander verschmelzen. Wissenschaftler, Ärzte, Geschäftsleute und Schüler werden nicht nur mit ihren Kollegen, sondern mit allen anderen Menschen verbunden sein. Die Art und Weise, wie wir lernen und miteinander umgehen, wird revolutioniert werden.“

Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.