Det er 1969 i denne sæson af Mad Men, og der er ved at blive bygget et glasafskærmet, klimakontrolleret rum til Sterling Coopers første computer – en snart ikonisk IBM System/360 – i det rum, hvor tekstforfatterne plejede at mødes.

Samme år introducerede IBM-ingeniør Irvin Miller i en artikel med titlen “Computer Graphics for Decision Making” HBR’s læsere til en potent ny computerteknologi, der var en del af 360’eren – den interaktive grafiske skærmterminal.

Stempelkort og bånd var ved at blive erstattet af virtuelle dataskærme på teletypes med glasskærm, men disse apparater viste stadig hovedsageligt tekst. Nu var konvergensen mellem den gamle katodestrålerørs- og lyspen-hardware og software, der kunne acceptere engelsksprogede kommandoer, ved at skabe en revolution inden for dataanalyse.

Tidligere, hvis ledere havde ønsket at undersøge f.eks. forholdet mellem fabrikskapacitet og produktionsomkostninger, marginale omkostninger og producerede mængder eller marginale indtægter og solgte mængder, skulle de udfylde en rekvisition, vente på, at en dataanalytiker kørte en forespørgsel gennem maskinen ved hjælp af et computersprog som Fortran og derefter generere en skriftlig rapport. Det kunne tage måneder.

Men interaktiv grafik gav mulighed for at give realistiske svar hurtigt og direkte. Som Miller forklarer: “Med en sådan konsol på sit kontor kan en direktør kalde de kurver, han har brug for, frem på skærmen; derefter kan han ved at røre ved skærmen med den lette pen give computeren ordre til at beregne nye værdier og tegne graferne på ny, hvilket den gør næsten øjeblikkeligt.”

At læse Millers vejledning er at vende tilbage til nogle af de første principper, som det måske stadig er værd at huske på, selv i dagens verden med langt større datamængder og computerkraft (den største mainframe, Miller henviser til, har en kapacitet på to megabyte). Det første er hans næsten uhåndgribelige indledende konstatering af, at de faktorer, der påvirker en virksomhed, og som en computer kan behandle, er kvantitative.

Det andet er hans forklaring (eller, for os, påmindelse) om, hvad computeren gør, når den leverer graferne: “For at løse forretningsproblemer, der kræver ledelsesmæssige beslutninger, må man definere det samlede problem og derefter tildele en matematisk ligning til hvert aspekt af problemet. En sammensætning af alle ligninger giver en matematisk model, der repræsenterer det problem, som lederen står over for.” Miller foreslår som eksempel, at et system, der er programmeret med data om producerede og solgte mængder, fabrikkens kapacitet, marginalomkostninger, marginalindtægter, samlede omkostninger, samlede indtægter, pris, pris for leje og pris for salg, kan sætte forretningsfolk i stand til at træffe informerede beslutninger om, hvorvidt de skal holde lagerbeholdning, udvide fabrikkens produktion, leje, købe eller låne, øge produktionen og undersøge virkningerne af anomalier i efterspørgslen eller virkningerne af begrænsninger.

Selv i dette enkle eksempel er det let at se, hvor svært det er at “definere det samlede problem” – hvordan beslutningerne f.eks. kan blive skævvredet af manglende oplysninger om f.eks. rentesatser (som i 1969 var på nippet til at stige til episke proportioner) eller af data om konkurrenter eller om substitutter (et begreb, som Michael Porter først ville indføre i 1979).

Miller er næppe uvidende om farerne (udtrykket “garbage in; garbage out” blev opfundet i 1963); og som svar på spørgsmålet om, hvorfor en leder bør stole på den differentialregning og lineære programmering, der ligger til grund for modellerne (interessant nok antager Miller, at ledende erhvervsledere ikke har haft matematik), svarer han, at meningen med ligningerne kun er at “foregribe og verificere intuitive gæt, som forventes at komme fra forretningsmanden” . Med andre ord skal matematikken i det væsentlige tjene som en forstærkning af virksomhedslederens dømmekraft, ikke som en erstatning.

Intuitionsstøtte er faktisk pointen for Miller. For ham er den virkelige fordel ved den nye teknologi ikke blot muligheden for at foretage “hvad nu hvis”-analyser på aktuelle data, hvor effektiv den end er, men at lederne kan gøre det i deres eget kontor, hvilket vil give dem tid til den private refleksion, som intuitionen udspringer af. “Lederen har brug for en stille metode, hvor han alene kan forudse, udvikle og afprøve konsekvenserne af at følge forskellige af sine intuitive fornemmelser, før han offentligt forpligter sig til en handling”, siger Miller, før han overhovedet begynder at forklare, hvordan teknologien fungerer.

Der er det oplysende at gense Millers skøn over, hvor meget tid hele processen skulle tage: et par uger til at konstruere modellen, fem minutter til at gennemføre hvert hvad nu hvis-scenarie – og derefter to fulde timer til, at lederen kan overveje konsekvenserne af svarene. I denne, HBR’s første undersøgelse af datavisualisering, er det i disse to timers alene og stille tid, at den virkelige værdi af interaktiv databehandling ligger.

Articles

Skriv et svar

Din e-mailadresse vil ikke blive publiceret.