1. Wandel in der Phänomenologie des
Computers
Begriffe wie Datenflut und Informationsgesellschaft haben in den
letzten Jahren ein hohes Maß an Popularität gewonnen.
Daß aber eine Flut an Daten in einem Mangel an Information
enden kann, stellen inzwischen besonders Unternehmen fest. Daher
versuchen viele Unternehmen durch Outsourcing, d. h. der
Ausgliederung und Delegation von EDV-Aufgaben an externe
Dienstleistungsbetriebe, der Datenflut Herr zu werden.
Das Outsourcing ist als Indiz für eine sich mehr und mehr
beschleunigende Innovationsdynamik zu werten, wobei die letztlich
immer mehr anfallenden Daten ungewollt zu einer niedrigeren
Produktivität führen können. Zu diesem Ergebnis kommt
eine Studie[1] von Gary Loveman,
Professor an der Harvard Business School/USA. Er beobachtete zwischen
1978 und 1986 70 Unternehmen in Westeuropa und den USA. Ergebnis der
Untersuchung war, daß die zeitaufwendige Analyse der immer
größer werdenden Datenbestände bei den Angestellten
zu einer niedrigeren Produktivität führt. In vielen
Unternehmen würden durch zu viele Untersuchungen Informationen
verarbeitet und präsentiert, die die Unternehmenführung in
ihrer Effizienz negativ beeinträchtigt. Auf die Einbindung der
audiovisuellen Medien in den Computer wird man sich zwar im
Management erst noch einstellen müssen; sie führt aber mit
großer Wahrscheinlichkeit zu einer besseren, effizienteren
Aufarbeitung der im Unternehmen anfallenden Daten.
Die 80-er Jahre haben zu einem Wandel in der Phänomenologie des
Computers geführt. Galt er in den 70-er Jahren noch als
Spezialisteninstrument, wurde er in den 80-er Jahren mehr und mehr
zum Werkzeug für alle und wird daher in den 90-er Jahren als
neues Medium etabliert sein. Das ständig wachsende
Leistungspotential der Hardware und das sich ständig erweiternde
Einsatzspektrum durch neue Software-Konzepte bringt immer mehr
Menschen an den Computer und verändert somit nachhaltig die
Gesellschaft als Ganzes. Der Computer ist demnach Ursache für
eine zweite Revolution der Wissensverbreitung seit der Erfindung und
Industrialisierung des Buchdrucks - nur das diese neue Revolution
viel schneller, quasi im Zeitraffertempo vonstatten geht. Eine
Analogie drängt sich auf: waren Schrifttafeln und die ersten
Bücher lediglich einer Handvoll von Schriftgelehrten
vorbehalten, so war Schrift eher ein Herrschaftsinstrument als ein
Instrument zur Demokratisierung. Erst durch die verbesserten
Drucktechniken wurden Schriften langsam allgemein zugänglich und
waren fortan entscheidender Motor des gesellschaftlichen
Fortschritts.
Dieser Prozeß der Wissensverbreitung läßt sich auf
die Moderne übertragen. Stehen heute nicht in den meisten
Haushalten bereits Mikrocomputer auf den Schreibtischen, die die
Leistung der Großrechner von vorgestern um ein vielfaches
überbieten? Es besteht wohl kaum ein Zweifel: der
Paradigmenwechsel von der institutionellen Datenverarbeitung hin zum
Individual Computing hat sich längst vollzogen und somit werden
auch die Informations- und Kommunikationsformen des Menschen
tiefgreifend verändert. Neue Technologien - sei es das Telefon,
Flugzeug oder Modem - haben stets zu einer dramatisch
veränderten Welt geführt, sofern sie einer großen
Anzahl von Bürgern zugänglich wurden. So wird dann auch der
Einsatz von Computern zu neuen Ausdrucks-, Gestaltungs- und
Kommunikationsformen in der Gesellschaft führen. Dies trifft
allerdings nur dann zu, wenn Computer einfach zu bedienen sind und
dem Menschen einen hohen Freiheitsgrad bei der Gestaltung der ihm
verbleibenden Arbeitsprozesse gewähren.
Es kann an dieser Stelle gar nicht ausdrücklich genug darauf
hingewiesen werden, daß die Akzeptanz des Computers
maßgeblich vom Design der Software abhängt. Sie
entscheidet letztlich über Intuition, Universalität und
Flexibilität des Systems und darüber, welche Aufgaben vom
Computer übernommen werden oder nicht. Da der Mensch mit einer
Maschine in Interaktion tritt, fällt der Ausgestaltung des
Human-Interfaces eine entscheidende Rolle zu. Durch die
Software-Konzeption werden somit die Rahmenbedingungen und
Gestaltungsspielräume der Arbeitsabläufe, Arbeitsinhalte,
Kommunikationsformen, Organisationsstrukturen, Handlungs- und
Entscheidungsspielräume festgelegt.
Es ist so betrachtet sicher kein Zufall, daß sich Systeme mit
grafischer Benutzeroberfläche als die den Menschen weniger
belastenden, gegenüber command-orientierten Systemen (MS-DOS)
durchgesetzt haben - der Erfolg des Apple Macintosh belegt
dies[2]. Gutes Software Design darf
sich allerdings nicht in der Gestaltung einer Benutzeroberfläche
(Graphical-User-Interface, kurz: G-U-I) erschöpfen, sondern
muß sich auf die oben bereits erwähnten Punkte ausdehnen.
Ein gutes Betriebssystem sollte sich dem Benutzer transparent machen,
so daß dieser in der Lage ist eine Struktur hinter der
Benutzeroberfläche zu erkennen. Neben der Systemtransparenz
zeichnet sich ein ergonomisches Human-Interface vor allem durch
Systemkonsistenz aus, d. h. über verschiedenste Anwendungen
(Programme) hinweg müssen homogene Interaktionsformen und
Bedienungselemente es dem User ermöglichen, sich über seine
Handlungsspielräume und den Status des Systems zu informieren.
Werden die Ergonomie-Grundsätze - Systemtransparenz &
Systemkonsistenz - bei der Konzeption eines Systems verletzt,
läßt sich dieser Fehler im Nachhinein auch nicht durch ein
Graphical-User-Interface (G-U-I), welches dem System aufgesetzt wird,
beseitigen. Das bekannteste Beispiel ist hier MS-Windows[3].
Spätestens auf der Applikationsebene sieht sich der User mit
einem Wust von Dateien à la .txt, .bat etc. konfrontiert und
fällt im schlimmsten Falle sogar in die command-Ebene des
Systems zurück (Systemtransparenz). Ganz zu schweigen davon,
daß so ziemlich jedes Programm unter MS-Windows seine eigenen
Befehle und Datei-Formate (Daten-Kompatibilität!) hat, die in
einer anderen Applikation nicht zu finden sind. Der idealisierte
Spruch der Macintosh-Enthusiasten "kennst Du eines, kennst Du alle"
trifft bei Programmen unter MS-Windows 3.1. sicherlich nicht mehr
zu.
Worin liegt nun der eigentliche Vorteil in einem
Graphical-User-Interface? Besinnen wir uns darauf, daß die
meisten grafischen Benutzeroberflächen einen Schreibtisch
simulieren, auf dem sich Ordner, Papierkorb und andere "handhabbare"
Objekte befinden. Der Benutzer kann durch direktes Zeigen und Bewegen
der simulierten Objekte den Computer steuern und erhält dabei
auch immer ein visuelles Feedback von dem, was er gerade macht bzw.
was das System gerade macht. Intuitiv wird die Bedienung dadurch,
daß die simulierten Objekte der vertrauten Erfahrungswelt des
Users entstammen. Es handelt sich bei den simulierten Objekten
demnach um Werkzeuge zur Bewältigung eines Problems.
Man nennt diese Form der grafischen Benutzeroberfläche daher
auch einen werkzeug-/objektorientierten Ansatz. Die Interaktion
findet hier durch die direkte Manipulation statt und nicht durch
einen Kommando-Dialog mit dem System. (Genau genommen bedienen sich
Systeme der direkten Manipulation zum Teil auch der Dialog-Form, so
z. B. in Datenbanken, durch Auswahl/Eingabe eines
Schlüsselattributes/Suchbegriffs. So betrachtet sind diese
Systeme immer eine Mischung aus beiden Ansätzen.)
Die sogenannte Desktop-Metapher ist inzwischen auf nahezu allen
Systemen etabliert und längst nichts Neues. Daß die
bildliche Darstellung von Problemen oft eine produktivere
Auseinandersetzung mit letzteren ermöglicht, akzeptieren
inzwischen auch die einstigen Kritiker des G-U-I, für die das
G-U-I einst eine Portierung der Video Games ins Office
bedeutete[4].
Heute - durch leistungsfähigere Hardware erst möglich
geworden - geht die Entwicklung des PCs wieder einen gehörigen
Schritt weiter. Man will sich nicht mehr auf den Einsatz der Medien
Text und Grafik beschränken. Im Zeitalter der
Informationsgesellschaft geht es darum, die im Alltag für den
Menschen schon längst zum Selbstverständnis gewordenen
Medien Ton und Bewegtbild in den PC zu integrieren. Wenn hier von
Integration die Rede ist, so bedeutet dies nicht etwa einen PC
lediglich Tonfolgen und Video-Sequenzen abspielen lassen zu
können. Vielmehr müssen Ton- und Bewegtbildsequenzen vom PC
genauso effektiv zu handhaben sein, wie heute schon Text- und
Grafikdaten. Bild- und Tonfolgen müssen sich genauso
selbstverständlich erstellen, speichern, bearbeiten,
übertragen und ausgeben lassen, wie wir es von Text- oder
Grafikdaten in Text- oder Grafik-Programmen her kennen. Nur in diesem
Falle, wenn wir also mit zeitbasierten Daten als neuem Datentyp genau
so umgehen können wie bisher schon mit Text- oder Grafikdaten,
kann man wirklich von einem Multimedia-PC bzw. der Medienintegration
sprechen. Leider wird der Begriff Multimedia oft nicht aus diesem
Denkansatz her gebraucht, weshalb sich auf dem Markt folgerichtig
auch Produkte finden lassen, die sich Multimedia PC nennen, nur weil
sie links und recht am Gehäuse einen Lautsprecher hängen
haben.
Nachdem wir nun zunächst den Pfad zum multimedialen PC etwas
erleuchtet haben, wollen wir uns im nun Folgenden den
Anwendungsbereichen von Multimedia widmen, die heute bereits mit
einem PC wie dem Apple Macintosh[5]
realisierbar sind.
![[Back to Outline]](../images/Back.gif)
![[Next Section]](../images/Next.gif)
(c) by Attila Sunay Suicmez (sunny@FU-Berlin.DE) :
Attila's Virtual Home, Skript