En 1989, Bill Johnston, chercheur au LBL, est convoqué à Washington pour une audition du Sénat américain. Son but : explorer le potentiel d’une superautoroute nationale de l’information.

Johnston et ses collègues ont montré à Washington le futur. Au cours de la première démonstration informatique en direct jamais réalisée devant une audience du Sénat, ils ont exposé les possibilités d’un réseau informatique transcontinental à grande vitesse. Les chercheurs ont branché un ordinateur et ont affiché des données traitées, analysées et assemblées en « films » scientifiques animés par des appareils et des chercheurs répartis à des milliers de kilomètres de distance. Ils ont démontré comment des équipements tels qu’une unité d’imagerie par résonance magnétique, des superordinateurs, des dispositifs de stockage de données et des postes de travail informatiques pouvaient être temporairement reliés entre eux, reliant ainsi les individus et les ressources d’une manière qui n’avait jamais été possible auparavant.

IMAGE DU TRAFIC INTERNET SUR LE PÉRIPHÉRIQUE NSFNET T1

Quatre ans plus tard, le président Bill Clinton et le vice-président Al Gore qui, en tant que sénateur, avait présidé l’audition de 1989, se sont envolés pour la Silicon Valley en Californie. Réunis chez Silicon Graphics Inc, ils ont été informés de l’état d’avancement de l’autoroute de l’information naissante et ont, à leur tour, partagé leur vision de son avenir. Gore s’est fait le champion de ce projet depuis ses débuts.

La veille de la visite Clinton-Gore, Andrew Cherenson, de Silicon Graphics, a envoyé un message impulsif sur un réseau informatique en toile d’araignée qui se répand et qui relie maintenant de nombreuses institutions universitaires et de recherche dans le monde : La conférence Clinton/Gore intéresse-t-elle quelqu’un ? Se connectant plus tard, il vérifie les réponses. Le lendemain matin, Cherenson a branché une mini-caméra Sony et a suivi Clinton et Gore lors de leur séance de remue-méninges avec les planificateurs et les acteurs qui contribuent à la construction des autoroutes de l’information. Dans le monde entier, 200 « participants » attentifs étaient assis à leur bureau devant des postes de travail informatiques, regardant les événements qui se déroulaient à Silicon Graphics tout en commentant entre eux. La vidéoconférence impromptue de Cherenson – un signe avant-coureur de la facilité avec laquelle nous pourrons parler, visiter ensemble et partager des informations dans un avenir proche – a été diffusée dans 11 pays et 22 fuseaux horaires.

Il y a dix ans, une telle communication était conventionnelle dans le monde de la science-fiction mais nouvelle et étrangère comme objectif de politique nationale. À partir de 1968, le gouvernement fédéral, par l’intermédiaire de sa Defense Advanced Research Projects Agency (DARPA), a fourni des fonds de démarrage pour établir d’abord un, puis plusieurs réseaux expérimentaux qui pourraient déplacer les données entre les institutions de recherche à grande vitesse. Ces réseaux prototypes ont évolué, ont proliféré et se sont rapidement reliés. Aujourd’hui, une infrastructure fusionnée de plus de 11 000 réseaux connue sous le nom d’Internet, ou simplement « le net », relie plus de 10 millions de personnes dans le monde.

Dès le début, le Lawrence Berkeley Laboratory a été l’un des principaux architectes de l’informatique en réseau, contribuant à « faire croître le réseau » depuis 1972. Le LBL est « passé à l’antenne » en 1975, devenant l’une des rares institutions connectées au réseau. Lorsque l’Internet s’est surchargé, s’est enlisé et était au bord de l’autodestruction en 1986, le chercheur du LBL Van Jacobson faisait partie d’une équipe de deux personnes qui a aidé à le sauver, le sauvant de ceux qui recommandaient de l’abandonner. Plus récemment, M. Jacobson et son équipe ont apporté d’autres contributions essentielles, en concevant la métamorphose de ce qui était un pipeline de données et de courrier électronique en un réseau qui permet désormais à de nombreuses personnes de se parler et d’interagir instantanément par le biais de conférences audio et vidéo en réseau. Aujourd’hui, cette culture autrefois dominée par le courrier électronique est en plein essor, permettant aux gens du monde entier d’interagir régulièrement, comme ils l’ont fait lors de la visite des Clinton/Gore à Silicon Graphics. Le LBL est également un pionnier du calcul scientifique distribué, forgeant de nouveaux liens qui rendent immatérielle la localisation de ressources informatiques coûteuses.

En regardant ce qui a été accompli et ce qui est en préparation, le directeur de la division des sciences de l’information et de l’informatique du LBL, Stu Loken, affirme que nous sommes à l’aube d’un nouvel âge de l’information.

« Le gouvernement fédéral a une longue histoire d’investissement dans l’infrastructure de la nation », note Loken. « Il a construit des canaux au 18e siècle, des chemins de fer au 19e siècle et des autoroutes interétatiques au 20e siècle. Puis, il y a environ 10 ans, elle a commencé la construction de réseaux informatiques à haut débit. Ces réseaux sont les autoroutes de l’ère de l’information. »

Loken et presque tous les autres chercheurs dans ce domaine affirment que les autoroutes de l’information entraîneront la convergence inévitable des entreprises de télévision, de téléphone, de télévision par câble, d’informatique, d’électronique grand public, d’édition et d’information en une seule industrie interactive de l’information. Le vice-président Gore prédit que ce sera « le marché le plus important et le plus lucratif du 21e siècle ». AT&T dit s’attendre à ce que le marché mondial de l’information atteigne 1,4 trillion de dollars en 1996 ; Apple Computer estime que le marché atteindra 3,5 trillions de dollars en 2001.

La vision des autoroutes de l’information a failli s’écraser en 1986.

Alors âgé de presque deux décennies, l’Internet comptait 10 000 utilisateurs. Ils avaient fini par compter sur le réseau car il était déjà devenu bien plus qu’un simple moyen d’échanger du courrier électronique et de déplacer des données. Le réseau servait de couloir de bureau virtuel, reliant intimement des collaborateurs éloignés.

En octobre 1986, l’Internet a connu ce que ses nombreux concepteurs ont diagnostiqué comme un « effondrement de la congestion ». Les communications – un flux de données numériques composé de tout, des messages écrits aux données scientifiques brutes – avaient traversé le système à un débit pouvant atteindre 56 kilobits par seconde (56 000 bits, soit environ deux pages dactylographiées, par seconde). Puis un jour, ce système d’information du XXIe siècle a soudainement ralenti pour retrouver le rythme du télégraphe. Ce jour-là, la vitesse de transmission entre le Lawrence Berkeley Laboratory et l’Université de Californie à Berkeley, située à un quart de mile de là, a ralenti à 320 bits par seconde. Les utilisateurs du système étaient mystifiés et consternés.

Les utilisateurs d’Internet dans tout le pays, aussi dépendants du réseau que la plupart d’entre nous le sont de leur téléphone, se sont demandés comment le relancer. Van Jacobson, de la division d’ingénierie du LBL, était parmi ceux qui se sont impliqués.

« Le réseau avait ralenti par un facteur de mille », se souvient Jacobson. « Le courrier qui passait en quelques minutes prenait maintenant une journée entière. Les gens ont commencé à baisser les bras. L’idée même de la communication en réseau était mise en péril.

« Je travaillais avec Mike Karels (du groupe de développement Berkeley Unix à l’Université de Californie à Berkeley). Depuis six mois, nous nous demandions pourquoi l’Internet échouait, nous frappant la tête contre un mur de briques. Puis une nuit dans un café de Berkeley, il y a eu un moment d’illumination. Nous avons retourné la question dans tous les sens. La vraie question était : « Comment Internet avait-il jamais fonctionné ?

« Pensez-y, » dit Jacobson : Une station de travail peut transmettre des données à 10 mégabits par seconde (10 millions de bits) et un routeur les met sur Internet, qui a une capacité de 56 kilobits par seconde. Vous commencez avec ce goulot d’étranglement et devez ensuite faire face à des milliers de personnes qui utilisent le réseau simultanément. Compte tenu de cela, dit-il, un embouteillage sur l’Internet était inévitable.

Au fur et à mesure que le trafic avait augmenté sur Internet, les nombreux utilisateurs du système avaient eu recours à ce qui s’apparentait à un comportement autodestructeur dans leurs tentatives de briser l’engorgement du réseau. Des paquets d’informations étaient transmis au réseau par un ordinateur, puis renvoyés à l’expéditeur en raison de la congestion. Les ordinateurs avaient été programmés pour faire face à cette situation en réessayant immédiatement, en renvoyant le message à plusieurs reprises jusqu’à ce qu’il soit transmis. Jacobson compare cette situation à verser de l’essence sur un feu.

COMME LES COLIS ENVOYÉS PAR LA POSTE, LES COMMUNICATIONS ENVOYÉES SUR UN RÉSEAU SONT DÉCOMPOSÉES EN PETITS PAQUETS ET EMBALLÉES AVEC DES INSTRUCTIONS D’EXPÉDITION ET DE MONTAGE, APPELÉES PROTOCOLES

La solution, dit-il, était de rendre les utilisateurs du réseau plus polis.

« Si trop de personnes essaient de communiquer en même temps, explique Jacobson, le réseau ne peut pas gérer cela et rejette les paquets, les renvoyant. Lorsqu’un poste de travail retransmet immédiatement, cela aggrave la situation. Ce que nous avons fait, c’est écrire des protocoles polis qui exigent une légère attente avant la retransmission d’un paquet. Tout le monde doit utiliser ces protocoles polis, sinon l’Internet ne fonctionne pour personne. »

Les protocoles de Jacobson et Karels, qui font désormais partie intégrante de l’Internet, sont appelés « Slow Start. » Slow Start évite la congestion en surveillant le réseau et, lorsque la congestion semble imminente, en retardant la transmission des paquets entre quelques millisecondes et une seconde. Le Slow Start retarde les taux de transmission en fonction de facteurs qui incluent la capacité actuelle disponible du réseau ainsi qu’un multiple du temps de transmission aller-retour (essentiellement, la distance) entre l’expéditeur et la destination choisie. Six ans après son introduction, Slow Start continue à éviter la congestion du réseau, même si la vitesse du réseau et le nombre d’utilisateurs ont été multipliés par mille.

Il y a environ deux ans, Jacobson et des chercheurs du Palo Alto Research Center (PARC) de Xerox ont entrepris un projet visant à ajouter des conférences audio et vidéo à Internet. Comme pour les systèmes téléphoniques, la conférence audio/vidéo entre plusieurs parties via un ordinateur était une vision ancienne, mais non réalisée.

En termes de conférence, un réseau informatique commence avec un avantage inhérent par rapport à un système téléphonique. Alors qu’une ligne téléphonique relie deux points et transporte une conversation, l’Internet relie chaque partie sur la ligne et transporte de multiples « conversations » simultanées. Pour supporter cet énorme flux d’informations, il décompose les communications en petits paquets qui sont mélangés au flux continu de paquets traversant le réseau. Chaque paquet est enveloppé d’instructions d’expédition et d’assemblage (appelées protocoles), qui donnent la destination, l’adresse de retour et la façon dont l’ordinateur récepteur peut réorganiser tous les paquets pour les remettre dans la communication d’origine.

En raison des légers retards inhérents à l’Internet, plusieurs groupes de recherche chargés d’apporter l’audio et la vidéoconférence au réseau ont conclu qu’on leur avait confié une mission impossible. Ils ont conseillé de construire un nouveau réseau.

« Nous trouvions cela ridicule », se souvient Jacobson. « L’Internet supportait la communication entre deux superordinateurs Cray, qui transmettent à un gigabit par seconde (un milliard de bits). Il fonctionnait également pour quelqu’un assis à un clavier, tapant à 20 bits par seconde. Cette robustesse et cette gamme dynamique semblaient trop bonnes pour être abandonnées. Nous avons donc bien cherché. Il n’aurait dû y avoir aucune raison pour laquelle nous ne pouvions pas faire de l’audio et de la vidéo. »

Les retards sont en fait plus perturbants pour les personnes qui parlent que pour la vidéoconférence. Les confères peuvent tolérer une image fixe occasionnelle pendant une transmission vidéo alors que les voix entendues en rafales staccato inégales ressemblent à du charabia. Jacobson et Steve Deering de Xerox PARC se sont concentrés sur la conception d’un système qui préserverait la connectivité globale d’Internet tout en permettant un flux audio fluide et prompt.

Pour permettre à l’auditeur d’entendre un discours continu, Jacobson et Deering ont d’abord ajouté un horodatage à chaque paquet audio. Le récepteur lit les horodateurs, ordonne chronologiquement les paquets, puis les lit tout en continuant à recevoir et à ordonner d’autres paquets entrants pour une relecture ultérieure. Cela évite le discours Pig Latin à l’intérieur, mais ne traite pas la nature inégale du flux de paquets du réseau et les rafales d’audio qui en résultent.

Pour remédier à cela, les deux chercheurs ont profité de la différence entre l’incroyable vitesse à laquelle le réseau déplace les paquets et le délai relativement long de deux dixièmes à une demi-seconde que les humains peuvent supporter sans que la conversation soit interrompue. Ils ont créé un algorithme qui calcule le temps que mettent les paquets à arriver, puis ralentit suffisamment la lecture de la voix pour que même les paquets les plus lents aient le temps d’arriver. Les délais de lecture introduits par l’algorithme sont en fait très courts, généralement moins d’un dixième de seconde. Grâce aux retards contrôlés imperceptibles introduits par Jacobson et Deering, les conférences vocales entre internautes munis de microphones et de haut-parleurs d’ordinateur sont désormais monnaie courante.

Assis dans son bureau au LBL, Jacobson a démontré comment il est connecté avec les réseauteurs du monde entier. En se connectant à Internet, il a appelé Lightweight Sessions, une interface de fenêtre avec un formulaire simple pour annoncer ou s’inscrire à une conférence audio ou vidéo. Les utilisateurs du réseau accèdent régulièrement à Lightweight Sessions pour être informés des conférences à venir et s’inscrire à celles qui les intéressent. Certaines conférences sont uniquement vocales, tandis que d’autres incluent la vidéo, qui a été développée par les chercheurs de Xerox PARC. Pendant une conférence audio/vidéo, de minuscules caméras peu coûteuses, généralement connectées sur le côté de l’ordinateur d’un participant, transmettent une image en direct de chaque participant. L’écran de Jacobson était divisé en plusieurs fenêtres, dont l’une montrait une image de la personne qui parlait. Une deuxième fenêtre affichait les données en cours de discussion. Une troisième fenêtre devrait faire ses débuts sur Internet dans un avenir proche.

Jacobson appelle cette nouvelle fenêtre d’affichage graphique un « tableau blanc ». Les gens pourront l’utiliser un peu comme un programme de dessin informatique classique pour partager des informations ou collaborer à un projet de conception. Tous les participants à la conférence peuvent voir et, à leur tour, modifier ce qui est représenté sur le tableau blanc ou revenir à une version antérieure de l’image. Toute image – par exemple, des dessins assistés par ordinateur ou des images radiographiques – peut également être importée dans la fenêtre du tableau blanc.

Le tableau blanc est révélateur de l’importance croissante des données visuelles dans la science.

Stu Loken affirme que les images fixes et les vidéos feront partie intégrante de la plupart des recherches menées au LBL. « La science connaît une prolifération de données visuelles, depuis les cartes du ciel qui tracent la structure de l’univers primitif jusqu’aux images médicales montrant la neurochimie des patients atteints de la maladie d’Alzheimer, en passant par les images du génome humain », explique-t-il.

Loken reconnaît que les images créent à la fois des possibilités et des problèmes. D’énormes quantités d’informations numériques sont nécessaires pour créer des images : Une caméra vidéo génère 30 images par seconde, soit l’équivalent de plus de 2000 pages de mots. Mais les ordinateurs sont désormais assez rapides et les dispositifs de stockage assez massifs pour que les scientifiques commencent à utiliser des caméras vidéo, capturant les données pour les analyser par ordinateur. Cette capacité émergente provoque un changement dans la façon dont les scientifiques conçoivent les expériences, ouvrant de nouvelles fenêtres sur ce qui peut être appris.

Pour permettre aux chercheurs de créer des données par le biais de la vidéo, les chercheurs de la Division des sciences de l’information et de l’informatique du LBL ont entrepris une mission à multiples facettes. Bill Johnston dirige une équipe qui crée de nouveaux matériels et logiciels pour le traitement et l’analyse d’un flux de données visuelles sur des réseaux à haut débit. L’idée est de permettre à un scientifique de pouvoir prendre la sortie, par exemple, d’un microscope électronique et de connecter ce flux vidéo à un réseau aussi couramment qu’une station de travail peut être connectée à un réseau aujourd’hui.

La connexion au réseau n’est que la première étape. Le groupe de Johnston se consacre au développement du calcul scientifique distribué. Jusqu’à présent, l’emplacement des ressources a dicté le cours de la science. Les projets se déroulent sur des sites où les bonnes personnes, les bonnes expériences et les bonnes ressources informatiques peuvent être réunies. Dans les environnements de calcul scientifique distribué dont le LBL est le pionnier, les machines, les bases de données et les personnes dispersées dans le monde entier peuvent être rapidement et temporairement reliées. Par exemple, le flux vidéo d’une expérience en cours peut être acheminé vers un superordinateur pour y être traité et l’analyse instantanée peut être utilisée pour contrôler de manière interactive le dispositif expérimental. Ou bien le flux de données peut être traité, analysé, puis servir d’entrée dans une expérience complémentaire.

Johnston note que la vidéoconférence en réseau est déjà disponible mais prévient qu’il ne faut pas la confondre avec la transmission en réseau à haut débit de données vidéo scientifiques. La différence réside dans la qualité de l’image.

Par exemple, afin de faire passer les transmissions de vidéoconférences dans le pipeline encore étroit d’Internet, le taux de diffusion standard de 30 images par seconde a été réduit à six à 12 images par seconde. En outre, plutôt que de transmettre une succession d’images complètes, on utilise des algorithmes de compression qui ne transmettent que la partie de l’image qui a changé par rapport à l’image précédente. Ces images partielles sont ensuite assemblées en images complètes par un logiciel à l’extrémité de réception. L’effet net est que les gens peuvent voir des images décentes les uns des autres pendant qu’ils parlent, même si le débit numérique est réduit des milliers de fois par rapport à celui d’une diffusion vidéo standard.

Bien que cela fonctionne pour les vidéoconférences — un sentiment de présence est créé, à défaut d’une image de qualité Ansel Adams — les données scientifiques ne peuvent pas être concentrées de la sorte et survivre.

Explique Johnston, « Les données vidéo consistent généralement en des images produites par des capteurs qui repoussent les limites de la technologie. Souvent, nous avons beaucoup d’images floues, peu contrastées, avec des caractéristiques difficiles à distinguer du bruit de fond. Pour pouvoir analyser et extraire des informations, nous ne pouvons pas nous permettre de perdre les détails de la vidéo originale. La vidéo transmise sur Internet a été compressée à 8-16 kilobits par seconde. Comparez cela avec une caméra d’instrumentation monochrome classique, qui génère 120 000 kilobits par seconde. »

Le groupe de Johnston utilise la science de laboratoire comme un moteur pour développer une technologie destinée finalement aux masses. Par exemple, prenons le cas du biochimiste du LBL Marcos Maestre, qui filme de petits brins d’ADN vibrant dans une grille électrique microscopique afin d’étudier la physico-chimie de l’ADN. À l’heure actuelle, les chercheurs font vibrer l’ADN, créent une bande vidéo, puis transmettent la bande à un système d’animation qui produit minutieusement des images fixes de chaque image. Des heures et des heures sont nécessaires pour extraire environ 200 images, soit sept secondes de données. Ensuite, les images sont scannées dans un ordinateur, image par image, qui suit et mesure l’évolution de la forme de la chaîne d’ADN, ce qui donne de nouvelles indications sur sa structure.

Dans le système distribué en cours de développement au LBL, les chercheurs pourront regarder l’écran d’une station de travail et voir les données extraites d’une vidéo en direct, même pendant que l’expérience se déroule. La caméra vidéo sera connectée à un réseau où un dispositif de stockage enregistrera les images tout en les transmettant au nouveau superordinateur du LBL, un système de traitement massivement parallèle MasPar. Le MasPar peut traiter et analyser une entrée vidéo de 30 images par seconde, fournissant un affichage instantané des données à n’importe quel poste de travail d’ingénierie sur le réseau.

Malheureusement, pour que cela devienne une réalité, il faut plus que simplement brancher les composants de ce système les uns aux autres. Lorsque le flux numérique s’écoule de l’expérience vers son stockage, son analyse et son affichage, plusieurs goulots d’étranglement se produisent. Avant que le signal brut sortant de la caméra monochrome à 120 000 kilobits par seconde ne soit transmis sur le réseau, un ordinateur intermédiaire doit traduire la sortie en un paquet numérique configuré pour le réseau. Le trafic numérique commence à reculer à ce stade.

« Lorsque la seule raison d’être d’un ordinateur est de servir d’intermédiaire entre le réseau et une caméra », commente Johnston, « en fait, vous avez créé une bureaucratie. L’ordinateur fait le travail, mais pas de manière efficace. Un ordinateur est conçu pour accomplir de nombreuses tâches plutôt que cette tâche spécialisée. Ce dont nous avons besoin, c’est d’un contrôleur, c’est-à-dire d’un ordinateur dépouillé qui ne se consacre qu’à cette seule tâche. Nous sommes en train de construire un contrôleur de réseau pour une caméra vidéo dans le cadre d’une collaboration avec PsiTech Corp. de Fountain Valley, en Californie. »

Passer les bureaucrates et ouvrir les goulots d’étranglement — Johnston dit que c’est une mission récurrente de son groupe de calcul distribué. Par exemple, les données qui transitent sur un réseau doivent être sauvegardées dans des archives numériques avant d’être analysées. Pour stocker les débits élevés de données provenant de sources comme la vidéo, des réseaux redondants de disques peu coûteux (RAID) ont été mis au point sur le campus de Berkeley. La première génération de RAID nécessitait un ordinateur intermédiaire, ce qui ralentissait le flux. Un contrôleur réseau a donc été construit et une nouvelle génération, RAID II, a été développée. RAID II a maintenant été relié à HiPPI, un réseau de 800 mégabits/seconde généralement utilisé pour relier les superordinateurs, et le LBL travaille à le relier à Internet. Ce travail est le fruit d’une collaboration avec plusieurs groupes d’ingénierie électrique et d’informatique. Dans le cadre d’un projet connexe financé par le ministère de l’énergie, le groupe de Johnston a travaillé avec les professeurs de Berkeley Domenico Ferrari et Randy Katz, ainsi qu’avec Bob Fink et Ted Sopher du LBL, pour construire un réseau gigabit (milliard de bits) à fibre optique qui relie le LBL et le campus de Berkeley. Tout le matériel à haut débit du LBL et du campus a été relié à ce réseau, créant ainsi un embranchement local à l’autoroute nationale de l’information.

Au LBL, le nouvel ordinateur MasPar jouera un rôle central dans l’environnement de calcul distribué du laboratoire, ouvrant la porte à l’ère des données visuelles. S’il permettra de créer et de stocker des volumes d’images, les chercheurs rencontreront bientôt un obstacle majeur. Même avec ses 4 096 processeurs offrant des performances de pointe de 17 000 millions d’instructions par seconde, personne ne sait encore comment ordonner au superordinateur de trouver une image stockée particulière.

« Rechercher un mot ou une chaîne de caractères dans une base de données textuelle et rechercher un objet dans une base de données vidéo est un problème très différent », explique Johnston. « Un ordinateur peut facilement trouver chaque référence dans une base de données textuelle à ‘poisson’ mais il n’y a pas de moyen prêt pour regarder dans un ensemble d’archives d’images vidéo et trouver toutes celles avec des poissons. Nous collaborons avec la MasPar Computer Corporation pour développer une technologie permettant de le faire. »

Le symbolisme de cette mission – fouiller la proverbiale botte de foin d’images et, enfin, trouver l’aiguille – ne doit pas être négligé. Pour les informaticiens du LBL, c’est l’heure des possibilités imminentes.

Le trafic sur Internet s’accélère et de nouveaux filons se développent et se connectent. Depuis que Clinton et Gore ont pris leurs fonctions, une cascade d’investissements d’entreprises de plusieurs milliards de dollars dans l’infrastructure du réseau a été annoncée. Les compagnies de téléphone, de télévision par câble et de téléphonie cellulaire, les éditeurs et les fabricants d’ordinateurs se précipitent pour revendiquer leurs droits. L’Amérique est câblée pour l’avenir.

Parlant au nom de ses collègues, Johnston déclare : « Nous sommes sur le point de vivre dans ce pays des changements aussi profonds que ceux vécus par nos ancêtres à l’avènement de la révolution industrielle. D’ici une décennie, les ordinateurs, les communications et les loisirs seront fusionnés. Les scientifiques, les médecins, les hommes d’affaires et les écoliers seront connectés non seulement à leurs pairs mais à tout le monde. La façon dont nous apprenons et interagissons est sur le point d’être révolutionnée. »

Articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.