Es 1969 en esta temporada de Mad Men, y se está construyendo una sala acristalada y climatizada para albergar el primer ordenador de Sterling Cooper -un IBM System/360 que pronto será icónico- en el espacio donde solían reunirse los redactores.

Ese mismo año, en un artículo titulado «Computer Graphics for Decision Making», el ingeniero de IBM Irvin Miller presentó a los lectores de HBR una nueva y potente tecnología informática que formaba parte de la 360: el terminal de pantalla gráfica interactiva.

Las tarjetas y cintas perforadas estaban siendo sustituidas por pantallas de datos virtuales en teletipos con pantalla de cristal, pero esos dispositivos seguían mostrando principalmente texto. Ahora, la convergencia del hardware de tubo catódico y bolígrafo con el software que aceptaba comandos en inglés estaba a punto de crear una revolución en el análisis de datos.

Antes, si los ejecutivos querían investigar, por ejemplo, la relación de la capacidad de la planta con el coste de producción, los costes marginales con la cantidad producida o los ingresos marginales con las cantidades vendidas, tenían que rellenar una solicitud, esperar a que un analista de datos ejecutara una consulta a través de la máquina, utilizando algún lenguaje informático como Fortran, y luego generar un informe escrito. Eso podía llevar meses.

Pero los gráficos interactivos ofrecían la posibilidad de proporcionar respuestas realistas de forma rápida y directa. Como explica Miller: «Con una consola de este tipo en su despacho, un ejecutivo puede pedir las curvas que necesita en la pantalla; luego, tocando la pantalla con el lápiz óptico, puede ordenar al ordenador que calcule nuevos valores y redibuje los gráficos, lo que hace casi instantáneamente.»

Leer el tutorial de Miller es volver a algunos primeros principios que quizá todavía merezca la pena tener en cuenta, incluso en el mundo actual, en el que la cantidad de datos y la potencia de cálculo son mucho mayores (el mayor ordenador central al que se refiere Miller tiene una capacidad de dos megabytes). La primera es su estipulación inicial, casi sin palabras, de que los factores que afectan a una empresa y que un ordenador puede procesar son cuantitativos.

La segunda es su explicación (o, para nosotros, el recordatorio) de lo que hace el ordenador cuando entrega los gráficos: «Para resolver problemas empresariales que requieren decisiones ejecutivas, hay que definir el problema total y luego asignar una ecuación matemática a cada aspecto del problema. Una combinación de todas las ecuaciones da como resultado un modelo matemático que representa el problema al que se enfrenta el ejecutivo». Miller sugiere, a modo de ejemplo, que un sistema programado con datos sobre las cantidades producidas y vendidas, la capacidad de la planta, el coste marginal, los ingresos marginales, el coste total, los ingresos totales, el precio, el precio de alquiler y el precio de venta podría permitir a los empresarios tomar decisiones informadas sobre si deben mantener el inventario; ampliar la producción de la planta; alquilar, comprar o pedir prestado; aumentar la producción; y examinar los efectos de las anomalías en la demanda o los efectos de las restricciones.

Incluso en este sencillo ejemplo es fácil ver lo difícil que es «definir el problema total»: cómo, por ejemplo, las decisiones podrían estar sesgadas por la ausencia de, digamos, información sobre los tipos de interés (que en 1969 estaban a punto de dispararse hasta alcanzar proporciones épicas) o de cualquier dato sobre los competidores, o sobre los sustitutos (un concepto que Michael Porter no introduciría hasta 1979).

Miller no es ajeno a los peligros (el término «garbage in; garbage out» había sido acuñado en 1963); y en respuesta a la pregunta de por qué un ejecutivo debería confiar en el cálculo diferencial y la programación lineal que sustentan los modelos (curiosamente, Miller asume que los altos ejecutivos de las empresas no han estudiado cálculo), responde que el objetivo de las ecuaciones es sólo «anticipar y verificar las conjeturas intuitivas que se esperan del empresario» . En otras palabras, las matemáticas están destinadas esencialmente a servir como una amplificación del juicio del ejecutivo, no como un sustituto.

La ayuda a la intuición es, de hecho, el punto para Miller. Para él, la verdadera ventaja de la nueva tecnología no es sólo la capacidad de realizar análisis hipotéticos de los datos actuales, por muy poderosa que sea, sino que los ejecutivos podrían hacerlo en la intimidad de sus propios despachos, lo que les permitiría disponer de tiempo para la reflexión privada de la que surge la intuición. «El ejecutivo necesita un método tranquilo que le permita anticipar, desarrollar y probar las consecuencias de seguir varias de sus corazonadas intuitivas antes de comprometerse públicamente con un curso de acción», dice Miller, antes incluso de empezar a explicar cómo funciona la tecnología.

En este sentido, es esclarecedor volver a revisar las estimaciones de Miller sobre el tiempo que se suponía que iba a llevar todo el proceso: unas semanas para construir el modelo, cinco minutos para llevar a cabo cada escenario hipotético, y luego dos horas completas para que el ejecutivo considere las implicaciones de las respuestas. En este primer examen de HBR sobre la visualización de datos, es en esas dos horas de tranquilidad solitaria donde reside el verdadero valor de la informática interactiva.

Articles

Deja una respuesta

Tu dirección de correo electrónico no será publicada.