C’est en 1969 dans la saison de Mad Men, et une pièce vitrée à climat contrôlé est en cours de construction pour accueillir le premier ordinateur de Sterling Cooper – un IBM System/360 bientôt iconique – dans l’espace où les rédacteurs se réunissaient.

La même année, dans un article intitulé « Computer Graphics for Decision Making », l’ingénieur d’IBM Irvin Miller présente aux lecteurs de HBR une nouvelle technologie informatique puissante qui faisait partie du 360 – le terminal à écran graphique interactif.

Les cartes perforées et les bandes magnétiques étaient remplacées par des affichages de données virtuelles sur des télétypes à écran de verre, mais ces appareils affichaient encore principalement du texte. Maintenant, la convergence d’un matériel à tube cathodique et à crayon lumineux existant depuis longtemps avec un logiciel acceptant des commandes en anglais était sur le point de créer une révolution dans l’analyse des données.

Auparavant, si les cadres avaient voulu étudier, par exemple, la relation entre la capacité d’une usine et le coût de production, les coûts marginaux et la quantité produite, ou les revenus marginaux et les quantités vendues, ils avaient dû remplir une demande, attendre qu’un analyste de données exécute une requête dans la machine, en utilisant un langage informatique comme Fortran, puis générer un rapport écrit. Cela pouvait prendre des mois.

Mais les graphiques interactifs offraient la possibilité de fournir des réponses réalistes rapidement et directement. Comme l’explique Miller : « Avec une telle console dans son bureau, un cadre peut appeler les courbes dont il a besoin sur l’écran ; puis, en touchant l’écran avec le stylo lumineux, il peut ordonner à l’ordinateur de calculer de nouvelles valeurs et de redessiner les graphiques, ce qu’il fait presque instantanément. »

Lire le tutoriel de Miller, c’est revenir à certains principes premiers qu’il peut être encore utile de garder à l’esprit, même dans le monde actuel où les quantités de données et la puissance de calcul sont largement supérieures (le plus gros ordinateur central auquel Miller fait référence a une capacité de deux mégaoctets). Le premier est sa stipulation initiale presque désinvolte que les facteurs affectant une entreprise qu’un ordinateur peut traiter sont quantitatifs.

Le second est son explication (ou, pour nous, son rappel) de ce que fait l’ordinateur lorsqu’il livre les graphiques : « Pour résoudre des problèmes commerciaux nécessitant des décisions exécutives, il faut définir le problème global, puis attribuer une équation mathématique à chaque aspect du problème. La combinaison de toutes les équations donne un modèle mathématique représentant le problème auquel le dirigeant est confronté. » Miller suggère, à titre d’exemple, qu’un système programmé avec des données sur les quantités produites et vendues, la capacité de l’usine, le coût marginal, les revenus marginaux, le coût total, les revenus totaux, le prix, le prix de location et le prix de vente pourrait permettre aux hommes d’affaires de prendre des décisions éclairées sur la nécessité de conserver des stocks, d’accroître la production de l’usine, de louer, d’acheter ou d’emprunter, d’augmenter la production et d’examiner les effets des anomalies sur la demande ou les effets des contraintes.

Même dans cet exemple simple, il est facile de voir à quel point il est difficile de « définir le problème total » – comment, par exemple, les décisions pourraient être faussées par l’absence, par exemple, d’informations sur les taux d’intérêt (qui, en 1969, étaient sur le point de monter en flèche dans des proportions épiques) ou de toute donnée sur les concurrents, ou sur les substituts (un concept que Michael Porter n’introduira qu’en 1979).

Miller n’est guère inconscient des dangers (l’expression « garbage in ; garbage out » avait été inventée en 1963) ; et en réponse à la question de savoir pourquoi un dirigeant devrait se fier au calcul différentiel et à la programmation linéaire qui sous-tendent les modèles (il est intéressant de noter que Miller suppose que les cadres supérieurs des entreprises n’ont pas fait de calcul), il répond que le but des équations n’est que « d’anticiper et de vérifier les suppositions intuitives que l’on attend de l’homme d’affaires » . En d’autres termes, les mathématiques sont essentiellement destinées à servir d’amplification du jugement du dirigeant, et non à le remplacer.

L’aide à l’intuition est, en fait, l’intérêt pour Miller. Pour lui, le véritable avantage de la nouvelle technologie n’est pas seulement la possibilité d’effectuer des analyses de simulation sur des données actuelles, aussi puissante soit-elle, mais le fait que les cadres puissent le faire dans l’intimité de leur propre bureau, ce qui leur donnerait le temps de la réflexion privée d’où naît l’intuition. « Le dirigeant a besoin d’une méthode tranquille par laquelle il est le seul à pouvoir anticiper, développer et tester les conséquences de la mise en œuvre de diverses de ses intuitions avant de s’engager publiquement dans une voie d’action », déclare Miller, avant même de commencer à expliquer le fonctionnement de la technologie.

Dans ce contexte, il est éclairant de revoir les estimations de Miller sur le temps que l’ensemble du processus était censé prendre : quelques semaines pour construire le modèle, cinq minutes pour réaliser chaque scénario d’hypothèses – et ensuite deux heures complètes pour que le dirigeant examine les implications des réponses. Dans ce premier examen de la visualisation des données par HBR, c’est dans ces deux heures de calme solitaire que réside la véritable valeur de l’informatique interactive.

Articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.