Det är 1969 i den här säsongen av Mad Men, och ett glasförseglat klimatkontrollerat rum håller på att byggas för att hysa Sterling Coopers första dator – en snart ikonisk IBM System/360 – i det utrymme där copywriters brukade träffas.

Samma år, i en artikel med titeln ”Computer Graphics for Decision Making”, introducerade IBM-ingenjören Irvin Miller HBR:s läsare till en ny kraftfull datorteknik som var en del av 360:an – den interaktiva grafiska terminalen.

Punschkorten och banden höll på att ersättas av virtuella dataskärmar på teletyper med glasskärm, men de enheterna visade fortfarande huvudsakligen text. Nu var konvergensen mellan den sedan länge existerande hårdvaran för katodstrålerör och ljuspennor och programvara som accepterade kommandon på engelska på väg att skapa en revolution inom dataanalysen.

Förr hade cheferna, om de hade velat undersöka t.ex. förhållandet mellan fabrikskapaciteten och produktionskostnaden, marginalkostnaderna och den producerade kvantiteten eller marginalintäkterna och den sålda kvantiteten, varit tvungna att fylla i en rekvisition, vänta på att en dataanalytiker skulle köra en fråga genom maskinen, med hjälp av ett dataspråk som Fortran, och sedan generera en skriftlig rapport. Det kunde ta månader.

Men interaktiv grafik gav möjlighet att ge realistiska svar snabbt och direkt. Som Miller förklarar: ”Med en sådan konsol på sitt kontor kan en chef kalla på de kurvor som han behöver på skärmen; sedan kan han genom att röra vid skärmen med den lätta pennan beordra datorn att beräkna nya värden och rita om graferna, vilket den gör nästan omedelbart.”

Att läsa Millers handledning är att återvända till vissa första principer som fortfarande kan vara värda att ha i åtanke, även i dagens värld med enormt mycket större datamängder och datorkraft (den största stordatorn som Miller hänvisar till har en kapacitet på två megabyte). Den första är hans nästan lättvindiga inledande fastställande att de faktorer som påverkar ett företag och som en dator kan behandla är kvantitativa.

Den andra är hans förklaring (eller, för oss, påminnelse) om vad datorn gör när den levererar graferna: ”För att lösa affärsproblem som kräver verkställande beslut måste man definiera det totala problemet och sedan tilldela varje aspekt av problemet en matematisk ekvation. En sammansättning av alla ekvationer ger en matematisk modell som representerar det problem som ledningen står inför.” Miller föreslår som exempel att ett system som programmeras med uppgifter om producerade och sålda kvantiteter, anläggningskapacitet, marginalkostnad, marginalintäkter, totalkostnad, totalintäkter, pris, pris för uthyrning och pris för försäljning skulle kunna göra det möjligt för affärsmän att fatta välgrundade beslut om huruvida de ska hålla lager, utöka anläggningens produktion, hyra, köpa eller låna, öka produktionen och undersöka effekterna av anomalier i efterfrågan eller effekterna av begränsningar.

Även i detta enkla exempel är det lätt att se hur svårt det är att ”definiera det totala problemet” – hur besluten till exempel kan snedvridas av avsaknaden av t.ex. information om räntesatser (som 1969 stod på tröskeln till att skjuta i höjden till episka proportioner) eller av uppgifter om konkurrenter eller om substitut (ett begrepp som Michael Porter inte skulle införa förrän 1979).

Miller är knappast omedveten om farorna (uttrycket ”garbage in; garbage out” myntades 1963), och som svar på frågan om varför en företagsledare bör förlita sig på den differentialkalkyl och linjära programmering som ligger till grund för modellerna (intressant nog utgår Miller från att högre chefer inom näringslivet inte har läst kalkyl), svarar han att poängen med ekvationerna endast är att ”föregripa och verifiera de intuitiva gissningar som förväntas komma från affärsmannen”. Med andra ord är matematiken i huvudsak tänkt att fungera som en förstärkning av företagsledarens omdöme, inte som en ersättning.

Intuitionsstöd är i själva verket poängen för Miller. För honom är den verkliga fördelen med den nya tekniken inte bara möjligheten att utföra ”vad händer om”-analyser på aktuella data, hur kraftfullt det än är, utan att cheferna skulle kunna göra det i avskildhet på sina egna kontor, vilket skulle ge dem tid för den privata reflektion som intuitionen är en av dess källor. ”Chefen behöver en tyst metod där han ensam kan förutse, utveckla och testa konsekvenserna av att följa olika av sina intuitiva föraningar innan han offentligt förbinder sig till en åtgärd”, säger Miller, innan han ens börjar förklara hur tekniken fungerar.

I detta sammanhang är det upplysande att återigen se på Millers uppskattningar av hur mycket tid hela processen skulle ta: några veckor för att konstruera modellen, fem minuter för att genomföra varje tänk-om-scenario – och sedan två hela timmar för chefen att fundera över konsekvenserna av svaren. I denna, HBR:s första undersökning av datavisualisering, är det i dessa två timmar av ensam tyst tid som det verkliga värdet av interaktiv databehandling ligger.

Articles

Lämna ett svar

Din e-postadress kommer inte publiceras.