É 1969 no Mad Men desta temporada, e uma sala de vidro fechada e climatizada está sendo construída para abrigar o primeiro computador da Sterling Cooper – um sistema IBM/360 em breveicônico – no espaço onde os copywriters costumavam se encontrar.

Nesse mesmo ano, em um artigo intitulado “Computer Graphics for Decision Making”, o engenheiro da IBM Irvin Miller apresentou aos leitores da HBR uma nova e potente tecnologia de computação que fazia parte do 360 – o terminal de exibição gráfica interativa.

Cartões de punção e fitas estavam sendo substituídos por exibições de dados virtuais em teletipos com tela de vidro, mas esses dispositivos ainda exibiam principalmente texto. Agora a convergência de hardware de longa data de catódigo-tubo e pino leve com software que aceitasse comandos em inglês estava prestes a criar uma revolução na análise de dados.

Anteriormente, se os executivos tivessem querido investigar, digamos, a relação da capacidade da planta com o custo de produção, custos marginais à quantidade produzida, ou receitas marginais às quantidades vendidas, eles teriam que preencher uma requisição, esperar que um analista de dados executasse uma consulta através da máquina, usando alguma linguagem de computador como Fortran, e depois gerar um relatório escrito. Isso poderia levar meses.

Mas gráficos interativos ofereciam a possibilidade de fornecer respostas realistas de forma rápida e direta. Como explica Miller: “Com tal console em seu escritório, um executivo pode chamar para as curvas que ele precisa na tela; então, ao tocar a tela com a caneta de luz, ele pode pedir ao computador para calcular novos valores e redesenhar os gráficos, o que ele faz quase instantaneamente.”

Para ler o tutorial de Miller é voltar a alguns primeiros princípios que ainda podem valer a pena ter em mente, mesmo no mundo de hoje em dia de quantidades muito maiores de dados e poder computacional (o maior mainframe a que Miller se refere tem uma capacidade de dois megabytes). O primeiro é a sua estipulação inicial, quase improvisada, de que os fatores que afetam um negócio que um computador pode processar são quantitativos.

O segundo é sua explicação (ou, para nós, lembrete) do que o computador faz quando entrega os gráficos: “Para resolver problemas de negócios que requerem decisões executivas, é preciso definir o problema total e depois atribuir uma equação matemática a cada aspecto do problema. Um composto de todas as equações produz um modelo matemático representando o problema que o executivo enfrenta”. Miller sugere, como exemplo, que um sistema programado com dados sobre quantidades produzidas e vendidas, capacidade da planta, custo marginal, receita marginal, custo total, receita total, preço, preço de aluguel e preço de venda poderia permitir aos empresários tomar decisões informadas sobre se devem manter o estoque; expandir a produção da planta; alugar, comprar ou tomar empréstimos; aumentar a produção; e examinar os efeitos das anomalias na demanda ou os efeitos das restrições.

Neste exemplo simples, é fácil ver como é difícil “definir o problema total” – como, por exemplo, as decisões podem ser distorcidas pela ausência de, digamos, informações sobre taxas de juros (que em 1969 estavam no limiar de uma explosão a proporções épicas) ou de quaisquer dados sobre concorrentes, ou sobre substitutos (um conceito que Michael Porter não introduziria até 1979).

Miller dificilmente ignora os perigos (o termo “lixo entra; lixo sai” tinha sido cunhado em 1963); e em resposta à questão de por que um executivo deve se basear no cálculo diferencial e na programação linear que sustenta os modelos (curiosamente, Miller assume que executivos seniores de negócios não tiveram cálculo), ele responde que o objetivo das equações é apenas “antecipar e verificar adivinhações intuitivas que se espera do empresário” . Em outras palavras, a matemática é essencialmente destinada a servir como uma amplificação do julgamento do executivo, não como um substituto.

O apoio à intuição é, na verdade, o ponto para Miller. Para ele, o verdadeiro benefício da nova tecnologia não é apenas a capacidade de realizar análises do tipo “e se” sobre dados atuais, por mais poderosos que sejam, mas que os executivos poderiam fazê-lo na privacidade de seus próprios escritórios, o que lhes daria o tempo para a reflexão privada da qual a intuição brota. “O executivo precisa de um método silencioso pelo qual ele sozinho possa antecipar, desenvolver e testar as consequências de seguir vários dos seus palpites intuitivos antes de se comprometer publicamente com um curso de ação”, diz Miller, antes mesmo de começar a explicar como a tecnologia funciona.

Nisto é esclarecedor revisitar as estimativas de Miller sobre quanto tempo todo o processo deveria levar: algumas semanas para construir o modelo, cinco minutos para conduzir cada cenário de simulação – e depois duas horas inteiras para o executivo considerar as implicações das respostas. Neste primeiro exame de visualização de dados do HBR, é nessas duas horas de tempo de silêncio solitário que reside o valor real da computação interativa.

Articles

Deixe uma resposta

O seu endereço de email não será publicado.