È il 1969 in questa stagione di Mad Men, e una stanza climatizzata chiusa da un vetro viene costruita per ospitare il primo computer di Sterling Cooper – un presto iconico IBM System/360 – nello spazio dove i copywriter si incontravano.

Quello stesso anno, in un articolo intitolato “Computer Graphics for Decision Making”, l’ingegnere IBM Irvin Miller introdusse i lettori di HBR a una nuova potente tecnologia informatica che faceva parte della 360 – il terminale grafico interattivo.

Le schede perforate e i nastri venivano sostituiti da display di dati virtuali su telescriventi con schermo di vetro, ma questi dispositivi mostravano ancora principalmente testo. Ora la convergenza di hardware a tubo catodico e penna luminosa di vecchia data con software che accettava comandi in lingua inglese stava per creare una rivoluzione nell’analisi dei dati.

In precedenza, se i dirigenti volevano studiare, per esempio, la relazione tra la capacità di un impianto e il costo di produzione, i costi marginali e la quantità prodotta, o i ricavi marginali e le quantità vendute, dovevano compilare una richiesta, aspettare che un analista di dati eseguisse una ricerca attraverso la macchina, usando un linguaggio come Fortran, e poi generare un rapporto scritto. Questo potrebbe richiedere mesi.

Ma la grafica interattiva offriva la possibilità di fornire risposte realistiche in modo rapido e diretto. Come spiega Miller: “Con una console di questo tipo nel suo ufficio, un dirigente può richiedere le curve di cui ha bisogno sullo schermo; poi, toccando lo schermo con la penna luminosa, può ordinare al computer di calcolare nuovi valori e ridisegnare i grafici, cosa che fa quasi istantaneamente.”

Leggere il tutorial di Miller significa ritornare ad alcuni primi principi che forse vale ancora la pena tenere a mente, anche nel mondo di oggi con quantità di dati e potenza di calcolo enormemente maggiori (il più grande mainframe a cui Miller fa riferimento ha una capacità di due megabyte). Il primo è la sua stipulazione iniziale quasi fuori mano che i fattori che influenzano un business che un computer può elaborare sono quantitativi.

Il secondo è la sua spiegazione (o, per noi, promemoria) di ciò che il computer fa quando consegna i grafici: “Per risolvere problemi di business che richiedono decisioni esecutive, si deve definire il problema totale e poi assegnare un’equazione matematica ad ogni aspetto del problema. Un composto di tutte le equazioni produce un modello matematico che rappresenta il problema che il dirigente deve affrontare”. Miller suggerisce, come esempio, che un sistema programmato con dati sulle quantità prodotte e vendute, la capacità dell’impianto, il costo marginale, i ricavi marginali, il costo totale, i ricavi totali, il prezzo, il prezzo per l’affitto e il prezzo per la vendita potrebbe permettere agli uomini d’affari di prendere decisioni informate su se tenere l’inventario; espandere la produzione dell’impianto; affittare, comprare o prendere in prestito; aumentare la produzione; ed esaminare gli effetti delle anomalie sulla domanda o gli effetti dei vincoli.

Anche in questo semplice esempio è facile vedere quanto sia difficile “definire il problema totale” – come, per esempio, le decisioni potrebbero essere distorte dall’assenza, per esempio, di informazioni sui tassi di interesse (che nel 1969 erano sul punto di salire alle stelle) o di qualsiasi dato sui concorrenti, o sui sostituti (un concetto che Michael Porter avrebbe introdotto solo nel 1979).

Miller non è certo ignaro dei pericoli (il termine “garbage in; garbage out” era stato coniato nel 1963); e in risposta alla domanda sul perché un dirigente dovrebbe affidarsi al calcolo differenziale e alla programmazione lineare che sta alla base dei modelli (è interessante notare che Miller presume che i dirigenti d’azienda non abbiano fatto calcoli), risponde che lo scopo delle equazioni è solo quello di “anticipare e verificare le congetture intuitive che ci si aspetta vengano dall’uomo d’affari”. In altre parole, la matematica è essenzialmente destinata a servire come un’amplificazione del giudizio del dirigente, non come un sostituto.

Il supporto dell’intuizione è, infatti, il punto per Miller. Per lui, il vero vantaggio della nuova tecnologia non è solo la capacità di eseguire analisi what-if sui dati attuali, per quanto potente sia, ma il fatto che i dirigenti potrebbero farlo nella privacy dei loro uffici, il che permetterebbe loro il tempo per la riflessione privata da cui scaturisce l’intuizione. “Il dirigente ha bisogno di un metodo tranquillo con il quale solo lui può anticipare, sviluppare e testare le conseguenze di seguire varie delle sue intuizioni intuitive prima di impegnarsi pubblicamente in una linea d’azione”, dice Miller, prima ancora di iniziare a spiegare come funziona la tecnologia.

In questo è illuminante rivedere le stime di Miller di quanto tempo l’intero processo avrebbe dovuto richiedere: alcune settimane per costruire il modello, cinque minuti per condurre ogni scenario what-if – e poi due ore intere per il dirigente per considerare le implicazioni delle risposte. In questo, il primo esame di HBR sulla visualizzazione dei dati, è in quelle due ore di tempo tranquillo e solitario che risiede il vero valore dell’informatica interattiva.

Articles

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.