Het is 1969 in Mad Men van dit seizoen, en er wordt een met glas afgesloten klimaatgecontroleerde kamer gebouwd om de eerste computer van Sterling Cooper te huisvesten – een snel iconisch IBM System/360 – in de ruimte waar de tekstschrijvers gewoonlijk bijeenkwamen.

Datzelfde jaar liet IBM-ingenieur Irvin Miller in een artikel met de titel “Computer Graphics for Decision Making” de lezers van de HBR kennismaken met een krachtige nieuwe computertechnologie die deel uitmaakte van de 360 – de interactieve grafische displayterminal.

Ponskaarten en tapes werden vervangen door virtuele gegevensdisplays op teletypes met glazen schermen, maar die apparaten gaven nog steeds voornamelijk tekst weer. De convergentie van reeds lang bestaande kathodestraalbuis- en lichtpenhardware met software die Engelstalige opdrachten accepteerde, stond op het punt een revolutie in de gegevensanalyse te ontketenen.

Voorheen, als leidinggevenden bijvoorbeeld de relatie tussen fabriekscapaciteit en productiekosten, marginale kosten en geproduceerde hoeveelheid, of marginale opbrengsten en verkochte hoeveelheden wilden onderzoeken, moesten ze een aanvraag invullen, wachten tot een gegevensanalist een query door de machine had gehaald, met behulp van een computertaal als Fortran, en vervolgens een geschreven rapport genereren. Dat kon maanden duren.

Maar interactieve graphics boden de mogelijkheid om snel en direct realistische antwoorden te geven. Zoals Miller uitlegt: “Met zo’n console in zijn kantoor kan een leidinggevende de curven oproepen die hij op het scherm nodig heeft; vervolgens kan hij, door met de lichte pen het scherm aan te raken, de computer opdracht geven nieuwe waarden te berekenen en de grafieken opnieuw te tekenen, wat hij vrijwel onmiddellijk doet.”

Bij het lezen van Miller’s tutorial komt men terug op een aantal eerste beginselen die misschien nog steeds de moeite waard zijn om in gedachten te houden, zelfs in de huidige wereld van veel grotere hoeveelheden gegevens en rekenkracht (het grootste mainframe waarnaar Miller verwijst heeft een capaciteit van twee megabyte). Het eerste is zijn bijna terloopse aanvankelijke bepaling dat de factoren die van invloed zijn op een bedrijf en die een computer kan verwerken kwantitatief zijn.

Het tweede is zijn uitleg (of, voor ons, herinnering) van wat de computer doet wanneer hij de grafieken oplevert: “Om bedrijfsproblemen op te lossen die beslissingen van de directie vereisen, moet men het totale probleem definiëren en vervolgens een wiskundige vergelijking toekennen aan elk aspect van het probleem. Een samenstelling van alle vergelijkingen levert een wiskundig model op dat het probleem weergeeft waarmee de leidinggevende wordt geconfronteerd.” Miller suggereert, als voorbeeld, dat een systeem geprogrammeerd met gegevens over geproduceerde en verkochte hoeveelheden, fabriekscapaciteit, marginale kosten, marginale opbrengsten, totale kosten, totale opbrengsten, prijs, prijs voor verhuur en prijs voor verkoop zakenmensen in staat zou kunnen stellen weloverwogen beslissingen te nemen over het al dan niet aanhouden van voorraden; het uitbreiden van de fabrieksproductie; huren, kopen of lenen; het verhogen van de productie; en het onderzoeken van de effecten van anomalieën op de vraag of de effecten van restricties.

Zelfs in dit eenvoudige voorbeeld is het gemakkelijk te zien hoe moeilijk het is om “het totale probleem te definiëren” – hoe, bijvoorbeeld, besluiten zouden kunnen worden vertekend door de afwezigheid van, laten we zeggen, informatie over rentetarieven (die in 1969 op de drempel stonden van het omhoogschieten tot epische proporties) of van gegevens over concurrenten, of over substituten (een concept dat Michael Porter pas in 1979 zou introduceren).

Miller is zich nauwelijks bewust van de gevaren (de term “garbage in; garbage out” is al in 1963 bedacht); en op de vraag waarom een leidinggevende zou moeten vertrouwen op de differentiaalrekening en lineaire programmering die aan de modellen ten grondslag liggen (interessant genoeg gaat Miller ervan uit dat leidinggevenden in het bedrijfsleven geen calculus hebben gehad), antwoordt hij dat het punt van de vergelijkingen alleen is om “te anticiperen op intuïtieve gissingen die van de zakenman worden verwacht en deze te verifiëren” . Met andere woorden, de wiskunde is in wezen bedoeld als een versterking van het oordeel van de leidinggevende, niet als een vervanging.

Intuïtie-ondersteuning is, in feite, het punt voor Miller. Voor hem is het echte voordeel van de nieuwe technologie niet alleen de mogelijkheid om what-if-analyses uit te voeren op actuele gegevens, hoe krachtig dat ook is, maar dat leidinggevenden dit in de beslotenheid van hun eigen kantoor kunnen doen, waardoor ze de tijd hebben voor de privéreflectie waaruit intuïtie voortkomt. “De leidinggevende heeft een rustige methode nodig waarbij hij alleen kan anticiperen, ontwikkelen en testen wat de gevolgen zijn van het volgen van verschillende van zijn intuïtieve ingevingen voordat hij zich publiekelijk committeert aan een koers van actie,” zegt Miller, voordat hij zelfs maar begint uit te leggen hoe de technologie werkt.

Hierbij is het verhelderend om Miller’s schattingen van hoeveel tijd het hele proces verondersteld werd in beslag te nemen opnieuw te bekijken: een paar weken om het model te construeren, vijf minuten om elk what-if scenario uit te voeren – en vervolgens twee volle uren voor de leidinggevende om de implicaties van de antwoorden te overwegen. In dit, HBR’s eerste onderzoek naar datavisualisatie, is het in die twee uur van eenzame stille tijd dat de echte waarde van interactief computergebruik ligt.

Articles

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.