Jest rok 1969 w tym sezonie Mad Men, a w miejscu, w którym spotykali się copywriterzy, powstaje przeszklone pomieszczenie z kontrolowanym klimatem, w którym ma być umieszczony pierwszy komputer Sterlinga Coopera – wkrótce ikoniczny IBM System/360.

W tym samym roku, w artykule zatytułowanym „Grafika komputerowa do podejmowania decyzji”, inżynier IBM Irvin Miller przedstawił czytelnikom HBR nową, potężną technologię obliczeniową, która była częścią 360 – interaktywny terminal graficzny.

Karty dziurkowane i taśmy były zastępowane przez wirtualne wyświetlacze danych na dalekopisach ze szklanymi ekranami, ale urządzenia te nadal wyświetlały głównie tekst. Teraz konwergencja długoletniego sprzętu kineskopowego i pióra świetlnego z oprogramowaniem, które przyjmowało polecenia w języku angielskim, miała stworzyć rewolucję w analizie danych.

Poprzednio, jeśli kierownictwo chciało zbadać, powiedzmy, związek wydajności zakładu z kosztem produkcji, kosztów krańcowych z ilością wyprodukowaną lub przychodów krańcowych z ilością sprzedaną, musiało wypełnić zapotrzebowanie, czekać na analityka danych, który przeprowadziłby zapytanie przez maszynę, używając jakiegoś języka komputerowego, jak Fortran, a następnie wygenerowałby pisemny raport. To mogłoby zająć miesiące.

Ale interaktywna grafika oferowała możliwość dostarczenia realistycznych odpowiedzi szybko i bezpośrednio. Jak wyjaśnia Miller: „Mając taką konsolę w swoim biurze, członek zarządu może wywołać na ekran krzywe, których potrzebuje; następnie, dotykając ekranu piórem świetlnym, może nakazać komputerowi obliczenie nowych wartości i przerysowanie wykresów, co ten robi niemal natychmiast.”

Czytając samouczek Millera powracamy do pewnych pierwszych zasad, o których być może warto pamiętać, nawet w dzisiejszym świecie ogromnych ilości danych i mocy obliczeniowej (największy mainframe, o którym wspomina Miller, ma pojemność dwóch megabajtów). Pierwszym z nich jest jego niemal bezceremonialne, wstępne zastrzeżenie, że czynniki wpływające na biznes, które komputer może przetwarzać, są ilościowe.

Drugim jest jego wyjaśnienie (lub, dla nas, przypomnienie) tego, co robi komputer, gdy dostarcza wykresy: „Aby rozwiązać problemy biznesowe wymagające decyzji wykonawczych, należy zdefiniować całkowity problem, a następnie przypisać równanie matematyczne do każdego aspektu problemu. Kombinacja wszystkich równań daje model matematyczny reprezentujący problem stojący przed kierownictwem.” Miller sugeruje, jako przykład, że system zaprogramowany z danymi na temat ilości produkowanych i sprzedawanych, zdolności produkcyjnej zakładu, kosztów krańcowych, przychodów krańcowych, kosztów całkowitych, przychodów całkowitych, ceny, ceny za wynajem i ceny za sprzedaż może umożliwić biznesmenom podejmowanie świadomych decyzji o tym, czy utrzymywać zapasy, rozszerzać produkcję zakładu, wynajmować, kupować lub pożyczać, zwiększać produkcję i badać skutki anomalii na popyt lub skutki ograniczeń.

Nawet w tym prostym przykładzie łatwo zauważyć, jak trudno jest „zdefiniować całkowity problem” – jak, na przykład, decyzje mogą być wypaczone przez brak, powiedzmy, informacji o stopach procentowych (które w 1969 roku były na progu niebotycznych rozmiarów) lub jakichkolwiek danych o konkurentach, lub o substytutach (koncepcja, którą Michael Porter wprowadziłby dopiero w 1979 roku).

Miller z trudem zapomina o niebezpieczeństwach (termin „garbage in; garbage out” został ukuty w 1963 roku); a w odpowiedzi na pytanie, dlaczego menedżer powinien polegać na rachunku różniczkowym i programowaniu liniowym, które leżą u podstaw modeli (co ciekawe, Miller zakłada, że menedżerowie wyższego szczebla nie mieli rachunku), odpowiada, że celem równań jest jedynie „przewidywanie i weryfikowanie intuicyjnych przypuszczeń, których oczekuje się od biznesmena”. Innymi słowy, matematyka ma zasadniczo służyć jako wzmocnienie osądu kierownika, a nie jako jego substytut.

Wsparcie intuicji jest, w rzeczywistości, punktem dla Millera. Dla niego prawdziwą zaletą nowej technologii nie jest możliwość przeprowadzania analiz typu „co by było, gdyby” na aktualnych danych, choć jest to potężne, ale to, że kadra kierownicza mogłaby to robić w zaciszu własnego biura, co dałoby im czas na prywatną refleksję, z której rodzi się intuicja. Kierownictwo potrzebuje cichej metody, dzięki której samo będzie mogło przewidzieć, rozwinąć i przetestować konsekwencje podążania za różnymi intuicyjnymi przeczuciami, zanim publicznie zobowiąże się do określonego działania” – mówi Miller, zanim jeszcze zacznie wyjaśniać, jak działa ta technologia.

W tym miejscu warto przyjrzeć się szacunkom Millera dotyczącym tego, ile czasu miał zająć cały proces: kilka tygodni na skonstruowanie modelu, pięć minut na przeprowadzenie każdego scenariusza „co-jeśli”, a następnie dwie pełne godziny na rozważenie implikacji odpowiedzi. W tym, pierwszym badaniu wizualizacji danych przeprowadzonym przez HBR, to właśnie w tych dwóch godzinach samotnego, spokojnego czasu tkwi prawdziwa wartość interaktywnych obliczeń.

Articles

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.