Nastansky, Ludwig; Müller, Michael; Peacock: Lean Computing, in: Peacock Exclusiv Sonderdruck 1/93, Peacock, Wünnenberg-Haaren 1993.

Inofrmationstechnologie für die 90er Jahre

THEMES: Nastansky, Ludwig\e-Learning | Müller, Michael | Peacock
META STRUCTURES: LN\Papers
YEAR: 1993
 

Comments/attachments: Close
 



Informationstechnologie für die 90er Jahre

Lean Computing

Seit einigen Monaten geistern Schlagworte wie "Downsizing" oder "Rightsizing" durch die Computer-Fachpresse. Meist verbirgt sich hinter diesen Begriffen lediglich die Vorsellung, die traditionellen Mainframe-Architekturen durch dezentrale, preiswerte und flexibele PC-Netwerk-Architekturen zu ersetzen.

Doch es steckt erheblich mehr hinter diesen Konzepten, als nur der Austausch einer Hardware-Technologie durch eine andere: Wer sein Unternehmen von einer zentralistischen DV-Organisation auf eine dezentrale Struktur umstellen will, muß sich zunächst einmal von vielen liebgewordenen Vorstellungen über unternehmensweite Informationssysteme verabschieden. Begriffe wie Downsizing beschränken die Sicht nur unnötig auf die rein technischen Notwendigkeiten und Vorgaben. Um statt dessen das vollständige Konzept zu beschreiben, das hinter dem Umbau der betrieblichen Informationstechnologie steckt, bietet sich der Begriff "Lean Computing" an.

Studenten, die bei Professor Dr. Ludwig Nastansky an der Universität Paderborn Informatik studieren, können auf das mühselige Mitschreiben während der Vorlesungen verzichten. Bei Nastansky findet die Informationstechnologie nicht nur in der Theorie statt, sie wird auch praktisch umgesetzt. Das beginnt damit, daß während einer Vorlesung weder Tafel noch Folien eingesetzt werden - der Vortrag wird optisch von einem Beamer unterstützt, der die vorbereiteten Dateien- Präsentationsgrafiken, Text, Multimediaobjekte oder Grafiken direkt auf die Hörsaalwand projiziert.

Die papierlose Uni

Wer die Vorlesung vor- oder nachbereiten möchte, kann
sich mit seinem PC per Datenfernübertragung die nötigen Skripte, Protokolle oder Diskussionsbeiträge direkt aus dem Server des Institutsnetzes besorgen. Und damit ist noch nicht einmal die letzte Ausbaustufe der papierlosen Universität erreicht: Der nächste Schritt wird sein, daß sich die Studenten im Hörsaal direkt mit einem Laptop ans Informationsnetz anschließen und die Informationen schon während der Vorlesung online bearbeiten und erweitern können. Die Verwirklichung dieser nächsten Ausbaustufe scheitert im Moment noch daran, daß nur wenige Studenten einen Laptop besitzen, so Nastansky.

Dieser direkte Informationsaustausch bleibt nicht auf die Universität beschränkt, sondern wird auch direkt in die betriebliche Praxis umgesetzt. Die von Nastansky und seinen Mitarbeitern beratene VEW in Dortmund hat sich beispielsweise vorgenommen, Meetings und Besprechungen künftig papierlos zu gestalten. Alle Handouts und Vorlagen sollen - rechtzeitig vor der Besprechung - den Teilnehmern im Netz zur Verfügung stehen, damit gründliche Vorbereitung und ein effizienter Besprechungsablauf gewährleistet sind. Natürlich geht es hier nicht allein darum, die firmeneigenen Fotokopierer zu schonen. Die eigentlichen Ziele sind sehr viel höher gesteckt. Nastansky: " Etwa fünf Prozent aller betrieblichen Informationen sind bisher auf Computern gespeichert - jetzt geht es an die restlichen fünfundneunzig Prozent."

Dazu ist erheblich mehr nötig als nur das Ersetzen von Großrechnern durch PC-Netze mit Client-Server-Architekturen. Lean Computing beschreibt, so wieder Professor Nastansky, den grundlegenden Strukturwandel der Basistechnologien der betrieblichen Datenverarbeitung. Parallel zum Lean Computing sprechen Betriebswissenschaftler auch von Lean Management und Lean Production. Gemeint ist jedesmal die Ablösung klassischer zentralistischer Organisationsformen durch dezentrale Einheiten, die sich in sehr flachen Hierarchien, in denen nur noch wenige Stufen vorhanden sind, definieren. So gesehen ist Lean Computing denn auch nicht nur ein weiterer neuer Trend der Informatik, sondern auch Ausdruck der gesellschaftlichen Strömungen, die weltweit - nicht nur in den ehemaligen Ostblockstaaten - zu weiterer Demokratisierung geführt haben.

Beschränkt man die Diskussion einfach nur auf das "Downsizing", bleibt man an der Oberfläche hängen. Natürlich ist ein Downsizing -


etwa von der IBM 3090 auf ein PC-Netz - nur möglich, wenn die technischen Voraussetzungen gegeben sind. Es müssen lokale Vernetzungen vorhanden sein, die die Client-Server-Architektur nutzen; hardwareseitig muß die nötige Server-Plattform vorhanden sein; softwareseitig müssen Betriebssysteme zum Einsatz kommen, die nicht nur die physikalische Vernetzung unterstützen, sondern auch mit Hilfe grafischer Benutzerschnittstellen den einfachen und bequemen Zugriff auf die im Netz verfügbaren Informationen gewährleisten, und nicht zuletzt braucht man auch die Gateways zur traditionellen Großrechner-Architektur. Schließlich können die etablierten Strukturen nur in den seltensten Fällen radikal abgeschafft werden. Einerseits sollen Investitionen in diese Technologie geschützt werden, und andererseits bieten Großrechner nach wie vor Funktionen, die von PC Systemen nur im Ausnahmefall übernommen werden können - beispielsweise das zentrale Bestellmanagement in einem Großversandhaus.

Technologie ist nur ein Teil

Doch das ist, wie gesagt, nur ein Teil des Gesamtkomplexes. Will man Lean Computing in eine Organisation implementieren, muß man sich von der Vorstellung freimachen, es ginge nur darum, eine große Kiste in hundert kleine Kisten zu zerlegen. Wie bei jeder Investition in Computertechnologie, fließt auch bei der Einführung von Lean-Computing-Modellen nur etwa acht Prozent des gesamten Investitionsvolumens in die Hardware. Demgegenüber stehen gut achtzig Prozent, die darauf verwendet werden, die nötige Reorganisation des Unternehmens zu besorgen. Unter diesem Aspekt müssen bestimmte technische Voraussetzungen zwar erfüllt sein, sind aber nicht kritisch für die Einführung eines solchen Modells. Die kritische Ressource eines jeden Unternehmens sind nun mal die Mitarbeiter.

Lean Computing hängt nicht von den Chips der Computer ab, sondern von den Köpfen der Mitarbeiter. Soll etwa eine Vorlage auf den Tisch eines Geschäftsführers gelangen, so besteht der kleinere Teil der Arbeit darin, eine Programmroutine zu entwickeln, die die Vorlage an den entsprechenden Netzwerk-Arbeitsplatz adressiert, wenn ein Maus-klick auf ein Bildschirmicon erfolgt. Der größere Teil des Aufwandes besteht darin, dem Geschäftsführer und seinen Mitarbeitern klarzumachen, daß die bisher eingesetzten schwarzen Vorlagemappen nun überflüssig werden.

Bei der Umsetzung von Lean-Computing-Projekten in die betriebliche Praxis konnte Professor Nastansky einige immer wiederkehrende Muster feststellen. Idealerweise, so seine Erfahrung, wird die Einführung von Lean Computing von zwei Seiten betrieben einmal braucht es "Fahnenträger" in der DV- oder MlS-Abteilung, die von sich aus neue Konzepte einbringen, und auf der anderen Seite sollte auch das Management von Anfang an in die Entwicklung dieser Konzepte einbezogen sein. Der Antrieb hinter diesen Überlegungen kann sowohl aus konservativen Motiven entstanden sein, etwa aus der Analyse bestehender Organisations- und Kostenstrukturen, als auch aus progressiven, wenn etwa ein Unternehmen feststellt, daß man neue Strukturen braucht, um auf neue Märkte und Herausforderungen reagieren zu können.

Ist die Idee des Lean Computing erst einmal in den Köpfen der Manager und Mitarbeiter, muß ein Pilotprojekt definiert werden. Hier hat es sich als sehr sinnvoll erwiesen, ein Pilotprojekt aus einem Bereich zu wählen, der nicht direkt mit der bereits installierten Datenverarbeitung konkurriert. Wie gesagt: erst fünf Prozent aller betrieblichen Informationen sind auf Computern erfaßt, die restlichen
fünfundneunzig Prozent bieten reichlich Platz für solche Projekte. So könnte ein Pilotprojekt versuchen, Papier als Informationsträger in einem Unternehmensbereich zu ersetzen - oder etwa das Telefon oder Geschäftsreisen als Mittel zur Informationsbeschaffung durch effizientere Systeme zu ergänzen. Bei der Themenauswahl für solch ein Projekt bieten sich - auch das hat Nastansky erfahren - am ehesten problematische Aufgabenfelder an - mit der Realisation eines "einfachen Projektes" läßt sich nichts beweisen.

Alle müssen umdenken

Bei diesen Projekten stieß Nastansky auch immer wieder auf das Mißverständnis, daß mit Lean Computing oder Downsizing nun die PC-Spezialisten der achtziger Jahre die Mainframe-Spezialisten der siebziger Jahre ablösen. Das ist nicht der Fall, PC- und Mainfram-Spezialisten müssen gleichermaßen umdenken. Die PC gestützte Datenverarbeitung ist individualistisch - sie konzentriert sich auf den einzelnen Arbeitsplatz, an dem günstigstenfalls zwar eine hohe Kreativität freigesetzt wird, die jedoch nur schwierig an andere Mitarbeiter weiterzugeben ist. Zudem ist die PC-gestützte Datenverarbeitung "Tool- und Feature-orientiert", das heißt, die Fortentwicklung dieser Systeme konzentriert sich eher auf einzelne Funktionen und Werkzeuge, als auf den effizienten Einsatz der vorhandenen Ressourcen im verteilten Netz.

Gerade von diesen Vorstellungen werden wir uns künftig verabschieden müssen. Bislang standen bei der Datenverarbeitung stets die Werkzeuge - also die Programme und ihre Funktionen - im Mittelpunkt des Interesses. Der Rohstoff der Datenverarbeitung, die Daten und Informationen selbst, gerieten dabei immer mehr ins Hintertreffen. Das ist eine grundsätzlich falsche Entwicklung: Jeder Handwerker wählt seine Werkzeuge danach aus,



welchen Rohstoff er zu bearbeiten hat, nur in der Datenverarbeitung haben wir jahrelang die Daten so strukturiert, daß sie auf die vorhandenen Werkzeuge paßten.

Ein Beispiel für diese Tendenz der PC-orientierten Datenverarbeitung der achtziger Jahre ist die Entwicklung der Textverarbeitungssysteme. Das Zauberwort der achtziger Jahre hieß WYSIWYG - What you see is what you get: Ziel dieses Funktionskomplexes ist es, dem Anwender einen mehr oder minder korrekten Eindruck davon zu geben, wie das Dokument, das er gerade bearbeitet, aussehen wird, wenn es "fertig", also auf Papier ausgedruckt ist. Unter der Forderung, immer mehr und immer besseres WYSIWYG zu bieten, geriet die vom Computer-Pionier Heinz Nixdorf formulierte Idee vom " papierlosen Büro" immer mehr in Vergessenheit. Statt in digitale Kommunikationssysteme zu investieren, wurden immer mehr Büros mit immer aufwendigeren Druckern ausgerüstet, die letzten Endes nur die Papierberge, die tagtäglich per Hauspost oder Bundespost bewegt werden müssen, anschwellen ließen.

Die WYSIWYG-Falle

Soll eine Information von Mitarbeiter zu Mitarbeiter befördert werden, ist es heute die Regel, daß der Sender der Information sich an den Rechner setzt, den Text eingibt und gefällig gestaltet. Ist er mit dem Ergebnis auf dem Bildschirm zufrieden, wird das Dokument ausgedruckt. Weicht das Druckbild dennoch von seinen Vorstellungen ab, wird er sich wieder an die Textgestaltung begeben und einen zweiten, womöglich sogar einen dritten und vierten Versuch starten. Das endgültige Textdokument wird dann per Telefax dem Empfänger zugeschickt. Will dieser die Information nutzen, muß er den Text oft genug abtippen, um ihn in seinem PC-System verarbeiten zu können.

In einer Lean-Computing-Umgebung wird diese Art der redundanten Textverarbeitung durch ein Informationsmanagement ersetzt. Die erfaßte Information wird nur rudimentär formatiert - also in Absätze oder Kapitel eingeteilt - und im Netz oder per Modem dem Empfänger zur Verfügung gestellt. Zur offenkundigen Zeit- und Kostenersparnis kann sich noch eine Qualitätsverbesserung der so verschickten Dokumente gesellen, denn digitale Dokumente müssen nicht nur aus Text und statischen Grafiken, wie sie auf Papier transportiert werden können, bestehen: Sie können auch gesprochene Anmerkungen oder gar kurze animierte Bildsequenzen umfassen, wo das sinnvoll ist. So ist das vielgepriesene WYSIWYG Schnee von gestern: Informationen sparen sich den Umweg über Papier und bleiben im digitalen System.

Diese Reorganisation der betrieblichen Informationstechnologie kann man nicht auf Disketten oder Chips einkaufen, man muß sie schon selbst oder gemeinsam mit Partnern entwickeln, die hard- und softwaretechnische Umsetzung des Lean-Computing-Ansatzes ergibt sich beinahe von selbst.