Wir schreiben das Jahr 1969 in der Serie „Mad Men“, und in dem Raum, in dem sich früher die Werbetexter trafen, wird ein glasüberdachter, klimatisierter Raum gebaut, um Sterling Coopers ersten Computer unterzubringen – ein bald ikonisches IBM System/360.

Im selben Jahr stellte der IBM-Ingenieur Irvin Miller in einem Artikel mit dem Titel „Computer Graphics for Decision Making“ den Lesern des HBR eine mächtige neue Computertechnologie vor, die Teil des 360 war – das interaktive grafische Anzeigeterminal.

Lochkarten und Tonbänder wurden durch virtuelle Datenanzeigen auf Fernschreibern mit Glasbildschirm ersetzt, aber diese Geräte zeigten immer noch hauptsächlich Text an. Die Konvergenz der seit langem verwendeten Kathodenstrahlröhren- und Lichtschreiber-Hardware mit Software, die englischsprachige Befehle akzeptierte, sollte nun eine Revolution in der Datenanalyse auslösen.

Wollten Führungskräfte früher beispielsweise das Verhältnis zwischen Anlagenkapazität und Produktionskosten, Grenzkosten und produzierter Menge oder Grenzerlösen und verkaufter Menge untersuchen, mussten sie eine Anfrage ausfüllen und darauf warten, dass ein Datenanalytiker eine Abfrage in einer Computersprache wie Fortran durch die Maschine laufen ließ, um dann einen schriftlichen Bericht zu erstellen. Das konnte Monate dauern.

Aber interaktive Grafiken boten die Möglichkeit, schnell und direkt realistische Antworten zu geben. Wie Miller erklärt: „Mit einer solchen Konsole in seinem Büro kann ein Manager die Kurven, die er braucht, auf dem Bildschirm abrufen; dann kann er durch Berühren des Bildschirms mit dem Lichtstift dem Computer befehlen, neue Werte zu berechnen und die Graphen neu zu zeichnen, was dieser fast augenblicklich tut.“

Wenn man Millers Anleitung liest, kommt man auf einige erste Grundsätze zurück, die man auch in der heutigen Welt mit ihren weitaus größeren Datenmengen und Rechenleistungen (der größte Großrechner, auf den sich Miller bezieht, hat eine Kapazität von zwei Megabyte) im Hinterkopf behalten sollte. Die erste ist seine fast beiläufige Feststellung, dass die Faktoren, die ein Unternehmen beeinflussen und die ein Computer verarbeiten kann, quantitativ sind.

Die zweite ist seine Erklärung (oder, für uns, Erinnerung), was der Computer tut, wenn er die Diagramme ausgibt: „Um Geschäftsprobleme zu lösen, die Entscheidungen der Geschäftsleitung erfordern, muss man das Gesamtproblem definieren und dann jedem Aspekt des Problems eine mathematische Gleichung zuordnen. Ein Verbund aller Gleichungen ergibt ein mathematisches Modell, das das Problem, mit dem die Führungskraft konfrontiert ist, darstellt.“ Miller schlägt als Beispiel vor, dass ein System, das mit Daten über die produzierten und verkauften Mengen, die Anlagenkapazität, die Grenzkosten, die Grenzerlöse, die Gesamtkosten, die Gesamterlöse, den Preis, den Preis für die Vermietung und den Preis für den Verkauf programmiert ist, Unternehmer in die Lage versetzen könnte, sachkundige Entscheidungen darüber zu treffen, ob sie Lagerbestände halten, die Anlagenproduktion ausweiten, mieten, kaufen oder leihen, die Produktion erhöhen und die Auswirkungen von Anomalien auf die Nachfrage oder die Auswirkungen von Beschränkungen untersuchen sollten.

Selbst in diesem einfachen Beispiel ist leicht zu erkennen, wie schwierig es ist, „das Gesamtproblem zu definieren“ – wie zum Beispiel Entscheidungen durch das Fehlen von Informationen über Zinssätze (die 1969 kurz davor waren, epische Ausmaße anzunehmen) oder von Daten über Konkurrenten oder Substitute (ein Konzept, das Michael Porter erst 1979 einführte) verzerrt werden könnten.

Miller ist sich der Gefahren kaum bewusst (der Begriff „garbage in; garbage out“ wurde 1963 geprägt); und auf die Frage, warum sich eine Führungskraft auf die Differentialrechnung und die lineare Programmierung, die den Modellen zugrunde liegen, verlassen sollte (interessanterweise geht Miller davon aus, dass leitende Angestellte in der Wirtschaft noch nie Kalkül hatten), antwortet er, dass der Sinn der Gleichungen nur darin besteht, „intuitive Vermutungen, die vom Geschäftsmann erwartet werden, vorwegzunehmen und zu überprüfen“. Mit anderen Worten, die Mathematik ist im Wesentlichen dazu gedacht, das Urteilsvermögen des Geschäftsführers zu unterstützen, nicht zu ersetzen.

Intuitionsunterstützung ist in der Tat der Punkt für Miller. Für ihn liegt der eigentliche Vorteil der neuen Technologie nicht nur in der Möglichkeit, Was-wäre-wenn-Analysen auf der Grundlage aktueller Daten durchzuführen, so leistungsfähig dies auch ist, sondern darin, dass Führungskräfte dies in der Privatsphäre ihres eigenen Büros tun können, was ihnen die Zeit für die privaten Überlegungen gibt, aus denen die Intuition erwächst. „Die Führungskraft braucht eine ruhige Methode, mit der sie allein die Folgen verschiedener intuitiver Ahnungen antizipieren, entwickeln und testen kann, bevor sie sich öffentlich auf eine Vorgehensweise festlegt“, sagt Miller, bevor er überhaupt beginnt zu erklären, wie die Technologie funktioniert.

In diesem Zusammenhang ist es aufschlussreich, Millers Schätzungen darüber zu überprüfen, wie viel Zeit der gesamte Prozess in Anspruch nehmen sollte: ein paar Wochen für die Erstellung des Modells, fünf Minuten für die Durchführung jedes Was-wäre-wenn-Szenarios – und dann zwei volle Stunden für die Führungskraft, um die Auswirkungen der Antworten zu bedenken. In dieser ersten Untersuchung von HBR zur Datenvisualisierung zeigt sich, dass der wahre Wert der interaktiven Datenverarbeitung in diesen zwei Stunden einsamer, ruhiger Zeit liegt.

Articles

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.