EINLEITUNG
Die
Diskussion
um die sozialen und insbesondere ethischen Fragen, die die Informatik
auslöst,
ist im vollen Gange /1/. Neben der Atom- und
Biotechnologie
gehört die Informationstechnologie zweifellos zu den
totalisierenden
Ausformungen moderner Technik, d.h. zu jenen 'Mächten', die eine
unmittelbare
Auswirkung auf das Leben insgesamt haben. Das ist bei der
Informationstechnologie
besonders der Fall, da sie durch ihre Kontroll- und
Manipulationsmöglichkeiten
nicht nur auf das Leben und seine materiellen Grundlagen einwirkt,
sondern
auch unsere 'geistigen' Handlungen in vielleicht noch nicht absehbarer
Weise bestimmt. Damit meine ich zunächst und vor allem das Medium,
in dem wir uns entfalten, nämlich die Sprache. Bei einem
Rückblick
auf die wissenschaftlichen und philosophischen Bemühungen des 20.
Jahrhunderts fällt auf, daß die Sprache eines der zentralen
Themen ist. Es genügt, auf die Rolle der Begriffsbildung für
die moderne Physik, die Entfaltung der sprachanalytischen Philosophie,
die Herausbildung der philosophischen Hermeneutik, das Aufblühen
der
Semiotik und die Informatik selbst hinzuweisen, um uns bewußt zu
machen, daß mit der Sprache zugleich wir selbst und die von uns
zu verantwortende
Gestaltung unserer Welt in Frage stehen.
Wenn
also die Informatik von ihrem Bezug zur Sprache her bestimmt werden
soll,
dann ist es entscheidend, sich über die vielfältigen
Dimensionen
dieses Phänomens klar zu werden. Indessen scheint die Meinung zu
herrschen,
daß die Auffassung von Sprache, so wie in der Informatik
verwendet
wird, nämlich als eines Instruments zur
Repräsentation
von Welt sowie ihrer Manipulation und Kommunikation, nicht nur eine
mögliche
und nützliche Auffassung ist, sondern daß sie auch als die
grundlegende zu gelten hat. Das ist aus der Sicht einer
Einzelwissenschaft
nicht verwunderlich, da sie ihre Grundbegriffe nicht in Frage stellt,
zumal
wenn sie "Normalwissenschaft" (Th.S. Kuhn) bleibt. Umgekehrt gilt,
daß
sich ganz neue Horizonte für Forschung und Praxis eröffnen,
wenn
andere Dimensionen als die instrumentale in den Vordergrund
gerückt
und diese wiederum der Informatik zugrunde gelegt werden. Das setzt
aber
voraus, daß man die instrumentale Auffassung von Sprache als eine
solche erkennt, d.h. sie auf ihre Grenzen hin untersucht. Ein solches
Unternehmen ist nicht einfach, da die Herkunft dieser Auffassung eng
mit
der Entwicklung der abendländischen Philosophie und Wissenschaft
zusammenhängt.
Wenn eine Untersuchung dieser Art für die Informatik von Bedeutung
sein sollte, müßte sie außerdem sowohl auf die
gegenwärtigen
Probleme als auch auf die Entwicklungstendenzen dieses Faches eingehen.
Mit anderen Worten, es ist nicht leicht, die bestehenden Grundlagen
eines
Faches in Frage zu stellen, sie durch neue zu ersetzen und daraus die
theoretischen
und praktischen Konsequenzen für die künftige Arbeit
abzuleiten.
Eine
solche Leistung liegt jetzt in bezug auf die Informatik in dem Werk von
Terry Winograd und Fernando Flores vor /2/. Dieser
Ansatz,
der hier im einzelnen dargestellt und analysiert werden soll, ist
insofern
besonders wertvoll, als es sich bei den Autoren um zwei
Informatik-'insider'
handelt, die die Möglichkeit eines 'Fort-schrittes' in der
Notwendigkeit
eines 'Rück-schrittes' bzw. einer kritischen Analyse der
Grundlagen
dieses Faches gesehen und geleistet haben. Terry Winograd, der durch
sein
um 1970 am MIT entwickeltes KI-Programm SHRDLU bekannt wurde,
gehört
(neben A. Newell, H. Simon, M. Minsky, J. McCarthy, J. Weizenbaum u.a.)
zu den KI-Pionieren. Er forscht am 'Center for the Study of Language
and
Information' an der Stanford Universität. Fernando Flores war
1970-1973
Wirtschafts- und Finanzminister Chiles unter Salvador Allende und
befaßt
sich mit der Anwendung der Informatik insbesondere im Bereich des
Managements.
Es ist also eine erstaunliche Leistung der Autoren, wenn sie versuchen,
nicht nur aufeinander zuzugehen, sondern sich Gedankenwelten zu
öffnen,
die zunächst von keiner unmittelbaren Bedeutung für ihre
tägliche
Forschung und Praxis zu sein scheinen. Vor allem drei Ansätze aus
Philosophie und Biologie wenden sich die Autoren zu, um den notwendigen
kritischen Abstand zum herrschenden 'Paradigma' zu gewinnen.
Grundlegend
scheint mir dabei das Heranziehen der Hermeneutik zu sein, d.h.
jener philosophischen Theorie, deren Zentrum Intersubjektivität,
Sprache
und Verstehen bilden /3/. Die Hermeneutik ist der
'rote
Faden' dieses Buches: Auch in den beiden anderen Ansätzen,
nämlich
in der Biologie Maturanas und Varelas /4/ sowie in
Searles
Analyse der "Sprechakte" /5/, kehrt eine
Grundstruktur
wieder, die paradigmatisch in der modernen Hermeneutik thematisiert
wurde.
Während
also die Autoren im ersten Teil ihrer Studie sich diesem
"theoretischen
Hintergrund" zuwenden, geht es im zweiten Teil um eine konkrete
Revision einiger Kernbegriffe der Informatik sowie der KI-Forschung und
-Anwendung, wie 'Repräsentation', 'Intelligenz', 'Sprachverstehen'
und 'Denken'. Besonders wertvoll aber ist der dritte Teil, in
dem
das "Design", d.h. der Rahmen für eine sinnvolle Anwendung des
Computers
vor allem im Management-Bereich behandelt wird. Das, was also
zunächst
als 'reine' geisteswissenschaftliche Disziplin entstand, verwandelt
sich
in so etwas wie ein 'Forschungsprogramm' der Informatik, dessen erste
Schritte
mit dieser Studie gewagt werden /6/. Unsere Analyse
folgt
dem von den Autoren gekennzeichneten Weg.
1.
DAS INFRAGESTELLEN DER 'RATIONALISTISCHEN' TRADITION
Was
ist
'Tradition'? Der Begriff ist nicht leicht zu definieren, zumal wenn man
ihn auf unterschiedliche Bedeutungsfelder (Kunst, Politik, Familie,
Kultur
usw.) bezieht. Eine gemeinsame Wurzel läßt sich dennoch
erkennen,
nämlich eine Art 'atmosphärischer' bzw. 'diffuser'
Hintergrund,
der bestimmte typische Eigenschaften aufweist, sich aber weder in
seiner
genauen Herkunft (oder in seinen 'Ursachen') noch in konkreten
einzelnen
Gestalten erfassen läßt. Von dieser Art sind auch
'wissenschaftliche
Traditionen', aus denen Theorien, Termini, Fragestellungen, Ziele usw.
emporwachsen.
Die
Informatik, so die Autoren, ist aus der 'rationalistischen' Tradition
entstanden.
Den Kern dieser Tradition bildet die Vorstellung von der Sprache als
einem
System von Symbolen, die in einer bestimmten Struktur die 'Weltdinge'
vertreten.
Die 'Korrespondez' zwischen dem sprachlich Symbolisierten (oder den
'Inhalten
der Aussagen') und den Dingen selbst (oder den 'denotierten
Sachverhalten')
nennt man (!) Wahrheit. In einer 'Korrespondenztheorie der Wahrheit'
sollen
die Wortbedeutungen möglichst 'kontextfrei' erfaßt werden.
Das
'Organ' zur Erfassung von Wahrheit sowie zur 'Speicherung' und
'Verarbeitung'
von Symbolen ist der menschliche 'Geist' bzw. seine Substitute. Die
Tätigkeit
des 'Geistes' besteht in der Sammlung und Verarbeitung von 'Ideen' oder
'Informationen' sowie in der Auswahl zwischen Alternativen, was man (!)
auch 'rationales Verhalten' nennt. Dieses schließt die Bewertung
der Folgen (die 'Kritik' also) ein, da man nicht alle Alternativen und
deren Folgen im voraus kennen kann. Man sieht, daß eine solche
Beschreibung
einer Tradition leicht karikierende Züge annimmt, wenngleich sie
punktuell
auf bestimmte 'Urheber' hinweist. Aus einer solchen Tradition wuchs die
Vorstellung von im Computer nachzubildenden
'Problemlösungsstrategien'
und mit ihr auch die KI-Forschung sowie die 'cognitive science'.
Die
Gefahr von Traditionen besteht aber nicht darin, daß sie sich als
'falsch' oder 'nutzlos' erweisen können, sondern daß sie,
eben
aufgrund ihres 'diffusen' Charakters, ihre Grenzen nicht zu erkennen
geben.
Sie können sich also gewissermaßen 'verfestigen' bzw. sich
gegen
andere 'Einflüsse' 'immunisieren' und unangefochten bleiben.
Das
Infragestellen einer Tradition, in diesem Falle der
'rationalistischen',
bedeutet also nicht, daß man das Gegenteil behaupten will, etwa
das
'Irrationale', sondern daß man versucht, die 'Phänomene'
unter
anderen Voraussetzungen sehen zu lassen. So soll auch, vor dem
Hintergrund
einer anderen Tradition, eine "neue Grundlage für
Rationalität"
entwickelt werden, "und zwar eine, die so streng ist wie die
rationalistische
Tradition in ihren Zielen, die aber ihre Voraussetzungen nicht teilt" (/2/
S. 8).
Die
Atmosphäre dieser anderen Tradition versuchen Winograd und Flores,
im Anschluß an die philosophische Hermeneutik, die moderne
Biologie
und die Linguistik zu erarbeiten.
Die
philosophische Hermeneutik /3/ geht aus von der
Analyse
des Prozesses der Textinterpretation im Sinne einer Wechselwirkung
zwischen dem Text zugrundeliegenden 'Horizont' (seine unthematisch
bleibende
Herkunft oder 'Tradition') und dem 'Horizont' des Interpreten. Von hier
aus wird dieses 'Modell' auf die Analyse der menschlichen Existenz
(unsere
'Seinsweise') ausgeweitet, d.h. der Mensch wird als ein 'Wesen'
verstanden,
das sich in einem gewissermaßen 'unentrinnbaren'
interpretatorischen
Interaktionsprozeß 'in der Welt' vorfindet. Dabei bildet die
Sprache
zugleich das jeweilige 'Vorverständnis' für das
Weltverständnis,
d.h. sie ist uns 'vor-gegeben' und wir befinden uns deshalb in einem
Spannungsverhältnis
(oder in einem 'hermeneutischen Zirkel'): Wir können (und sollen!)
zwar unsere 'Vor-urteile' in Frage stellen, aber wiederum nur vor dem
Hintergrund
unthematisch bleibender Bedingungen. Eine Sonderform dieser Struktur
bildet
z.B. die wissenschaftliche Forschung.
Während
also für die 'rationalistische Tradition' die Welt als eine
Sammlung
von 'objektiven' (bzw. interpretationsunabhängigen) 'Fakten' gilt,
hebt die Hermeneutik die Untrennbarkeit des Verhältnisses
'Interpret-Sache-Interpretation'
hervor. Wir können also, wie die Autoren im Hinblick auf die
Informatik
betonen, unsere 'Vorverständnisse' nie vollständig
thematisieren.
Ferner geht die Hermeneutik davon aus, daß wir uns in einer
(Lebens-)Situation
befinden, in die wir gewissermaßen 'hingeworfen' wurden. Diese
"Geworfenheit"
(Heidegger) zwingt uns zunächst zum Handeln, d.h. zum 'praktischen
Umgang mit den Dingen als den "Zuhandenen", die wir in einem 'zweiten
Schritt'
'theoretisch (als "Vorhandene") betrachten. Das bedeutet, daß wir
mit den Dingen selbst primär umgehen und nicht etwa mit ihren
Repräsentationen
(oder ihren 'mentalen Abbildungen').
Schließlich
ist dieser Umgang mit den Dingen ein Prozeß sozialer
Bedeutungserzeugung.
"Geworfen" sind wir also nicht nur durch unsere Geburt, sondern auch in
jeder Situation, die uns 'unmittelbar' zum Handeln 'zwingt', ohne
daß
wir uns vorher über die genauen Folgen im klaren sein können.
Diese Situationen bilden, wie die Autoren betonen, den Alltag eines
Managers.
Von hier aus gesehen ist die Sprache nicht etwa ein 'Instrument' zur
Bezeichnung
von 'Fakten', sondern Teil eines Handlungsprozesses. Hier knüpfen
Winograd und Flores an die "Sprechakttheorie" Searles /5/
an, der die Kontextabhängigkeit von "Sprechakten" (etwa
'anweisen',
'anvertrauen', 'ausdrücken', 'erklären' usw.) analysiert. In
solchen 'illokutionären' Sprechakten verwirklicht der Sprecher
bestimmte
Bezüge zu einem offenen Feld von Möglichkeiten (zur 'Welt'
also).
Dies geschieht immer vor der Möglichkeit eines Mißverstehens
bzw. einer 'Panne' (oder 'breakdown').
Die
Analyse und Vorhersehbarkeit von 'Pannen' spielt nach Meinung der
Autoren
gerade beim Entwurf von Computersystemen eine entscheidende Rolle, die
im dritten Teil ("Design") ihres Buches erörtert wird. Bei einer
solchen
'Panne' schlägt das ursprünglich praktische Verhalten zu den
Dingen in ein 'theoretisches' um.
Bei
'Sprechakten' kommt es auf die Konsistenz mit dem jeweiligen
Handlungszusammenhang
an. Die Vorstellung einer "idealen Kommunikationsgemeinschaft"
(Habermas)
ist für die Autoren illusorisch. ... Die Formalisierung von
Sprachregelmäßigkeiten,
die Grundlage der Computerprogrammierung, soll also nicht geleugnet
werden.
Entscheidend ist aber die Auffassung, daß solche
Regelmäßigkeiten
aus den gemeinsam zu verantwortenden Handlungen der Sprechenden
entstehen.
Sie verbinden also nicht ein 'Subjekt' mit einer 'Außenwelt'. Die
Logik der Sprechakte ist nicht durch eine innere Struktur
prädeterminiert,
sondern sie folgt den 'Regeln' eines 'Spiels' (Wittgenstein), die nicht
bloß formaler, sondern auch existentieller und sozialer Natur
sind.
Sprechakte sind zu verantwortende Handlungen ("commitment").
Was
auf der menschlichen Ebene sich wie ein freies Spiel zeigt, d.h. das
interaktive
Verhältnis zwischen Erkenntnis und Erkanntem, läßt sich
'mutatis mutandis' für den gesamten Bereich "autopoietischer
Systeme",
wie die Biologen Maturana und Varela es nennen /4/,
anwenden.
Der
"naive Glaube", daß sich durch Wahrnehmung, durch eine
entsprechende
"Eingabe", eine "objektive Vorstellung" der Umwelt bildet, wird im
"interaktiven
Modell" in Frage gestellt. "Autopoiesis", so der Kernbegriff dieser
Theorie,
bedeutet, daß ein Netzwerk von Produktions-, Transformations- und
Vernichtungsprozesses eines Organismus durch Wechselwirkungen und
Umwandlungen
seiner Bestandteile sowohl sich als auch das "topologische Gebiet"
seiner
Verwirklichung durch eine "strukturelle Verbindung" ("structural
coupling")
bestimmt. Mit anderen Worten, der sog. 'Lernprozeß' besteht nicht
in einer Akkumulation von Vorstellungen über die Umwelt, etwa in
der
Form von 'Wiedergaben' von 'Fakten', sondern eben in einem
"schöpferischen"
Prozeß.
Die
Aussage "Ein Tier erkennt X" bezieht sich also nicht,
wie der Physikalismus fälschlicherweise annimmt, auf die
Zustandsbeschreibung
eines Systems, sondern ist eine Handlungsstruktur. Beim Menschen liegt
die Funktion der Sprache nicht primär in der Denotation von
'Fakten',
um sie etwa als 'Information' zu übertragen, sondern Sprache ist
'konnotativ',
d.h. sie schafft ein gemeinsames Orientierungsfeld (hermeneutisch: ein
'Vorverständnis') für die interagierenden Systeme.
Biologische
Systeme sind, nach Maturana, zwar 'mechanistisch', aber nicht
'vorprogrammiert'.
Der Versuch, Computersysteme Aktionen durchführen zu lassen, die
nicht
vorprogrammiert sind, ist insofern einseitig, als keine
vollständige
Beschreibung von Zielen und Operation jemals einschränken kann,
was
getan werden kann und wird. Nicht die angebliche Vollständigkeit
des
Modells ist also entscheidend, sondern die Richtung der Grundstruktur
des
Feldes, in dem die Umwandlung stattfindet.
Zusammenfassend
und auf die Informatik bezogen lassen sich folgende
Schlußfolgerungen
ziehen:
1.
Es ist ein Unterschied, ob wir Computer entwerfen, die einen scheinbar
isolierbaren Intellekt unterstützen sollen, oder ob wir uns
fragen,
welche Rolle sie in den von uns zu verantwortenden Lebenshandlungen
spielen
sollen.
2.
Die Frage nach den potentiellen Computer-'breakdowns' ist von zentraler
Bedeutung beim Design von 'benutzerfreundlichen' Systemen.
3.
Aus einem 'hermeneutischen' Verständnis von Erkenntnis und
Handlung
ergeben sich weitreichende Konsequenzen für das Design von
Computerprogrammen.
Diese
Schlußfolgerungen bilden die Grundlage für den zweiten Teil
dieser Arbeit.
2.
ZUR KRITIK DER 'KÜNSTLICHEN INTELLIGENZ'
"Computerisierung,
Denken und Sprache", so lautet der Titel des zweiten Teiles, in dem
sich
die Autoren kritisch mit einigen Grundbegriffen der Informatik sowie
der
KI-Forschung auseinandersetzen.
Dazu
zählt zunächst der Begriff 'Programm'. Computerprogramme sind
Repräsentationen, d.h. ein Programm ist immer ein "Programm
über
etwas". Es hat ein 'Fachgebiet', dessen Elemente und Zusammenhänge
im Speicher wiedergegeben werden sollen. Dementsprechend hängt die
Leistung eines Programms sowohl von der richtigen Wiedergabe als auch
von
der Effizienz der durchgeführten Operationen ab.
Entscheidend
bleibt dabei, daß die Repräsentationen immer die des
Programmierers
sind, d.h. sie sollen nicht etwas 'für sich' repräsentieren.
Das gilt für die unterschiedlichen Ebenen, von der Hard- bis zur
Software.
Die jeweilige 'höhere' Ebene nennen die Autoren ein 'Fachgebiet'
('subject
domain'). Wegen der Interaktion zwischen den Ebenen sind 'Pannen' bzw.
'Mißverständnisse' möglich, die dazu führen
können,
daß die Programme vom Programmierer nicht intendierte Operationen
erzeugen. Wir hätten hier also eine Analogie zu der von Maturana
angesprochene
'Autopoiese'.
Inwiefern
trifft auch die bereits realisierten bzw. angestrebten Leistungen des
Computers
die Bezeichnung 'künstliche Intelligenz' zu? Die Autoren weisen
zunächst
darauf hin, daß zwischen einem Computer und einer Uhr zwar
Differenzen
bestehen (Autonomie, Komplexität der Zwecke, Plastizität),
daß
es sich aber um Unterschiede gradueller (und nicht prinzipieller) Art
handelt.
Dagegen
scheint die Vorstellung von 'Intelligenz' im Sinne eines rationalen
Problemlösungsprozesses
kaum etwas Gemeinsames zu haben mit den 'existentiellen'
Zusammenhängen
menschlicher Intelligenz, zum Beispiel mit dem 'umreflektierten' Umgang
mit 'Zuhandenem' sowie mit dem Eingebettetsein in eine Situation
('Geworfenheit').
Daraus ergeben sich zwei Konsequenzen:
1.
Indem wir etwas thematisieren, lassen wir notwendigerweise andere
Möglichkeiten
außer acht. Intelligentes Verhalten setzt, mit anderen Worten,
eine
'permanente Blindheit' voraus. Es ist also nicht möglich,
Programme
zu schreiben, die dieser Voraussetzung entgehen können. Oder,
umgekehrt
gesagt, ein Programm schreibt die 'Blindheit' fest, solange es nicht
'lernfähig'
ist.
2.
Die 'höchste Stufe' menschlichen Expertentums besteht in der
Möglichkeit,
auch 'richtig' zu handeln, wenn keine wohldefinierten Probleme
vorgegeben
sind /7/. Die Formalisierung einer Situation,
aufgrund
ihres reduktionistischen Charakters, lediglich eine Hilfe im
Entscheidungsprozeß.
Wenngleich bestimmte Programmierarten (etwa die 'Parameteranpassung'
oder
die 'kombinatorische Begriffsbildung') eine gewisse
'Lernfähigkeit'
des Systems leisten, sind sie nicht in der Lage, ihre eigenen Annahmen
zu transzendieren. Ob dies etwa im Sinne der "strukturellen Kopplung"
(Maturana)
des Systems mit einer "Umwelt" möglich sein wird, ist eine noch
ungelöste
Frage der KI-Forschung. 'Computerintelligenz' bleibt also auf absehbare
Zeit im Rahmen des vom Menschen zu verantwortenden Handlungsbereiches.
Eine Betrachtung des Computers 'als ob' er 'rational' bzw.
'intelligent'
wäre, ist also wissenschaftlich sinnvoll, solange dabei keine
mitzuverantwortende
Teilnahme am menschlichen Diskurs gemeint ist.
Wenn
bei KI-Programmen von 'Sprachverstehen' die Rede ist, dann im Sinne
einer
'Korrespondenz' (oder 'Adäquation') zwischen der
Repräsentation
und dem 'denotierten' Gegenstand. Die Grundannahme ist dabei, daß
die Bedeutung sprachlicher Ausdrücke unabhängig von der
jeweiligen
Situation bzw. von der jeweiligen Interpretation festgelegt werden
kann.
Dieser Weg führt aber, wie die Hermeneutik zeigt, in eine
Sackgasse.
In
den 70er Jahren entstand innerhalb der KI ein neuer Ansatz: Mi
Begriffen
wie 'frames' (Minsky) oder 'schemas' (Bobrow und Winograd) wurde eine
Annäherung
an nicht streng logische Verstehensvorgänge gesucht. Solche
'Rahmen'
sollten also die Rolle eines 'hermeneutischen Vorverständnisses'
spielen.
Dadurch sollte das System in der Lage sein, 'nicht-monoton' bzw. anhand
von partieller Evidenz zu schließen. Dabei muß aber das
System
wissen, welche Aspekte einem 'typischen' Fall genügen. Maturanas
Intuition
liefert hierzu wertvolle Hilfe: Wenn das System eingeschränkte
Ressourcen
hat, dann sollte sich die Regeln auf die Wechselwirkung des Systems mit
der Verrichtung von Aktionen beziehen. Die dabei entstandenen
'Expertensystemen'
haben aber dieses Ziel nicht erreichen können.
Die 'Blindheit'
ihres
'Verstehens' ist so evident, daß man diesen Begriff nur
gebrauchen
kann, wenn man sich (erneut) darüber klar wird, daß hiermit
kein verantwortungsvolles Handeln impliziert ist. Und dennoch wäre
es m.E. verhängnisvoll zu glauben, daß diese Technik (so wie
die Technik überhaupt) 'neutral' ist. Solange wir sie unter dem
Gesichtspunkt
ihrer verantwortbaren Nutzung betrachten, solange ist sie ethisch nicht
neutral. Es ist gerade dieser 'Gesichtspunkt', den die Autoren bei
ihrer
Analyse der gegenwärtigen Entwicklungen im KI-Bereich (Robotik,
Interaktion
in natürlicher Sprache, Erkenntnismodellierung, Expertensysteme,
fünfte
Computergeneration) immer wieder betonen: Die
Anthropomorphisierung
der Computerleistungen führt nicht nur zu einem 'unrealistischen
Optimismus',
sondern verursachte u.U. eine Nivellierung der Abstufungen bis hin zu
menschlichem
Verstehen. In Wahrheit soll es aber, nach den Autoren, darum gehen, auf
Nutzen und Gefahren etwa im sozialen Bereich aufmerksam zu machen.
Diese
Bescheidenheit kann entstehen, wenn die Prämissen der
'rationalistischen
Tradition' in Frage gestellt werden.
3.
DIE HERMENEUTISCHEN PRÄMISSEN DES 'DESIGNS'
Im
dritten
Teil des Buches geht es um das 'Design', nicht in der engeren Bedeutung
des Aussehens etwa eines Gerätes, sondern im Sinne der Einbettung
von Computersystemen in menschliche Handlungszusammenhänge. Als
Beispiel
eines solches Zusammenhangs wird die Arbeit im Büro und
insbesondere
das 'Management' analysiert. Für die Autoren geht es dabei nicht
um
Fragen des 'business', sondern der Durchführung von Handlungen,
die
die ökonomischen, politischen und physischen Bedingungen der
Arbeit
anderer beeinflussen. Es geht also nicht um Textverarbeitung bei der
'Büroautomation',
sondern um das Verstehen der 'Sprechakte' der Manager, sofern diese ein
Netzwerk von Gesprächen zu Handlungszwecken führen.
Dabei
kritisieren die Autoren die 'rationalistische' Auffassung des 'decision
making' im Sinne einer Suche zwischen Alternativen, wobei also die
Einbettung
menschlicher Rationalität in Phänomene wie Zweifel,
Autorität,
Regeln, Intuition, Lernen usw. außer acht bleibt. Ein solches
(Miß-)
Verständnis läßt ferner sowohl den Charakter der
'Geworfenheit'
(also des 'Handelns-Müssens') wie auch die sich immer entziehende
Objektivierbarkeit des Vorverständnisses unberücksichtigt.
Alternativen
müssen aber, wenn wir sie bewerten wollen, vor dem Hintergrund
ihrer
Entstehung verstanden werden. Dieser 'Horizont' macht die
charakteristische
'Unschärfe' einer Entscheidung aus, zu deren Bestimmung die
'Sprechhandlung'
beitragen soll. Die Frage, die sich der Manager in einer solchen
ungewissen
Situation ('situation of irresolution') stellt, ist nicht
erkenntnistheoretischer,
sondern pragmatischer Natur: "Was muß getan werden, um..." Sie
entsteht
aus einer 'Pannensituation', deren 'Lösung' sich nicht nur aus
vorgegebenen
Alternativen, sondern (nicht selten) aus der 'Sprengung' dieser
Alternativen
(etwa durch neue Handlungsziele) in einem 'Beratungsprozeß'
ergibt,
der dann zu einem 'Entschluß' führt. Dies bedeutet wiederum
nicht das 'Ende' des Problems, sondern eine vorläufige
Klärung
einer ungewissen Situation.
Vor
diesem Hintergrund fragen die Autoren nach der Nutzung von
Computersystemen
zur Entscheidungsunterstützung vor allem in Organisationen, die
als
ein Netzwerk von Verpflichtungen aufzufassen sind. Das Vorbereitetsein
auf bestimmte 'Pannensituationen' bringt u.U. die Gefahr der Routine
bzw.
des 'Vorurteils' mit sich. Ein Mechanismus, der sich in die
Verfestigung
von Blindheit verwandeln kann. Dagegen hilft die hermeneutische
Vorstellung
eines 'Dauergesprächs'. In diesem Zustand beruhen die
Entschlüsse
des Managers auf seinem Zuhörenkönnen. Die Kernfrage lautet:
"Was ist in dieser Situation möglich?" bzw. "Welche
Handlungsmöglichkeiten
öffnen sich aufgrund eines Engagements?"
Die
Haltung gegenüber der Vergangenheit ist dabei entscheidend: Nur
wer
einen bestimmenden Horizont als einen solchen erkennt, kann auch auf
einen
'neuen' hinweisen. Computersysteme können dabei den 'status quo'
einer
Organisation bestärken, eine ihnen nicht zugedachte Macht
erreichen,
wodurch Eigenschaften wie Diskretion und Innovation in den Hintergrund
treten, das Verhalten der Mitarbeiter negativ beeinflussen, zur
Verschleierung
von Verantwortlichkeiten führen usw. Mit einem Wort, das 'Design'
von Computersystemen kann unter Ausschaltung der
Verantwortungsdimension
stattfinden. Ihr Einsatz ist also nicht 'gleich-gültig' bzw.
'neutral'.
Wenn
aber diese Dimension 'bewußt' berücksichtigt wird, dann
können
Computersysteme zu 'Gesprächswerkzeugen' ('tools for
conversation')
werden. Sie können also dazu eingesetzt werden, um etwa
Verpflichtungen
zu koordinieren oder zu überwachen, indem sie auf die Frage:
"Welches
ist der Stand meiner gegenwärtigen Verpflichtungen?" Antwort
geben.
Für das Design solcher Systeme liefert die Taxonomie der
'Sprechakte'
eine wertvolle Hilfe. Ein solches System, das von Flores prototypisch
entwickelt
wurde /8/, besteht aus wenigen Operationen, deren
Ziel
die Gesprächskoordination ist. Diese Operationen sind:
- Generierung
eines Sprechakts,
- Abschlußüberwachung,
- Beachtung
der zeitlichen Zusammenhänge,
- Analyse
des Netzwerkes,
- automatisierte
Anwendung von Wiederholungen,
- inhaltliche
Wiederholungen.
Natürlich
kann auch ein solches System nicht mit den offenen Dimensionen eines
zwischenmenschlichen
Gesprächs verglichen werden. Es ist lediglich ein Teil im
Verstehensprozeß
innerhalb einer Organisation. Eine entsprechende 'hermeneutische'
Ausbildung
der Mitarbeiter, d.h. die Vermittlung der jeweiligen Kompetenzen und
Verpflichtungen,
gehört zur Grundlage eines 'erfolgreichen' Managements.
Wenn
also mit 'Design' nicht nur eine Methodologie zur Gestaltung von
Geräten,
sondern eine 'ontologische' Dimension, d.h. die Einbettung des
Computers
in die Strukturen unsers 'In-der-Welt-seins' gemeint ist, dann
könnten
sich neue Möglichkeiten für technische Entwicklungen ergeben,
bzw. es kann ein produktiver oder 'hermeneutischer Zirkel'
zustande kommen.
Mit 'Design' ist also die Frage angesprochen, was es heißt,
Mensch
zu sein. Dieser Ansatz gewinnt damit paradigmatische Bedeutung und kann
auf die Technik insgesamt ausgeweitet werden. Im Hinblick auf die
Dimension
der 'Zuhandenheit' gewinnt die 'Benutzerfreundlichkeit' einen neuen
Charakter:
Entscheidend ist die 'Transparenz' und 'Einfachheit'. Eine Analyse des
Einsatzbereiches eines Computersystems muß mit der Analyse der
möglichen
'Pannensituationen' beginnen. Nicht die Illusion einer
vollständigen
Aufgeklärtheit sollte angestrebt werden, sondern der Designer
sollte
in hohem Maße das Bewußtsein für die Blindheit des
Systems
entwickeln und vermitteln.
4.
AUSBLICK
Indem
wir also Technik entwerfen, so das Fazit dieser Studie, bestimmen wir
nicht nur, was wir tun, sondern auch wer wir sind. In der Informatik
verbindet
sich unsere Verantwortung für das, was wir denken, mit der
Verantwortung
für das, was wir tun. Diese Schrift, die sich diesem Anspruch
stellen
will, sollte m.E. in zweifacher Hinsicht als programmatisch
verstanden
werden: Sie legt die Basis für eine veränderte Auffassung der
Grundbegriffe dieses Fachgebietes. Dabei bleibt aber Vieles von dem,
was
ich das 'hermeneutische Forschungsprogramm' genannt habe,
unausgesprochen.
Diese 'Blindheit' gehört, wie die Autoren des Öfteren
betonen,
zu jeder Thematisierung. Es bleibt deshalb hier ein weites Feld
für
gegenseitige Befruchtung zwischen Hermeneutik und Informatik.
Vielleicht
könnte eine solche Befruchtung helfen, die oft beklagte Kluft
zwischen
den "zwei Kulturen" (C.P. Snow) zu überbrücken. Auf beiden
Seiten
müßten aber zuvor Barrieren des Mißtrauens und der
Mißachtung
abgebaut werden. Mir scheint, daß mancher KI-Forscher für
ein
solches Experiment bereitwilliger ist als einige 'etablierte'
Philosophieprofessoren.
Innerhalb der Philosophie gibt es aber seit einigen Jahren eine
fruchtbare
Diskussion um den Rationalitätsbegriff, die die festgefahrenen
Bahnen
eines engen (bzw. engstirnigen) Rationalismus in Bewegung bringen
könnte /9/. Wichtig scheint mir also die
Richtung,
auf die die
Autoren hinweisen.
Einer
Wissenschaft zur Krise ihrer Begriffe zu verhelfen (!), ist stets eine
sich 'lohnende' Aufgabe, die durch entsprechende Weiterführung
honoriert
werden sollte. Hier scheint das ethische Potential der Hermeneutik
noch
nicht ausgeschöpft zu sein. Aber auch die methodologischen,
anthropologischen
und ontologischen Einsichten über Sprache und Gespräch, Frage
und Antwort, Tradition und Kritik, Kultur und Universalität
bedürfen
einer vertiefenden Analyse und Anwendung aus der Perspektive der
Informatik.
In einer zweiten Hinsicht scheint mir diese Studie ebenfalls
programmatisch.
Sie weist nämlich auf eine umfassende Richtungsänderung
für
das 'Design' hin, ohne aber auf die einzelnen unterschiedlichen
Anwendungsgebiete
einzugehen bzw. ohne konkrete 'technische Details' zu analysieren. Mit
anderen Worten, wir brauchen 'Fallstudien'.
Vielleicht
ist die Zusammenkunft von Hermeneutik und Informatik eine für
beide
Seiten 'heilsame' Entwicklung, in bezug auf die 'Krankheit'
nämlich,
die der Mensch des ausgehenden 20. Jahrhunderts zumindest in
sogenannten
'hochentwickelten' Gesellschaften in sich trägt.
Anmerkungen
1.
Vgl. die Aufsätze von Parnas, D.L., Hofmann, H.W., Bläsius,
K.H.,
Siekmann, J.H.: Info.-Spektrum 10 (1987); Floyd, Ch.: Wo sind die
Grenzen
des verantwortbaren Computereinsatzes? Info.-Spektrum 8, 3-6 (1985);
Yazdani,
M., Narayanan, A. (eds.): Artificial Intelligence: Human Effects.
Chichester:
Horwood 1985; Gill, K.S. (Ed.): Artificial Intelligence for Society.
London:
Wiley 1986; Capurro, R.: Zur Computerethik. Ethische Fragen zur
Informationsgesellschaft,
in: Lenk, H., Ropohl, G. (Hrsg.): Technik und Ethik, S. 259-273.
Stuttgart:
Reclam 1987.
2.
Winograd, T., Flores, F.: Understanding Computers and Cognition. A New
Foundation for Design. New Jersey: Ablex 1986. Vgl. auch die
Besprechungen
von Vellino, A., Stefik, M.J., Bobrwo, D.G., Suchman, L.A., Clancey,
W.J.
sowie die Replik der Autoren in: Artif. Intell. 31, 213-261 (1987).
3.
Gadamer, H.-G.: Wahrheit und Methode. Grundzüge einer
philosophischen
Hermeneutik. Tübingen: Mohr 1975; Gadamer, H.-G., Boehm, G.
(Hrsg.):
Seminar: Die Hermeneutik und die Wissenschaften. Frankfurt: Suhrkamp
1978; Capurro, R.: Hermeneutik der
Fachinformation.
Freiburg-München: Alber 1986.
4.
Maturana, H.R., Varela, F.J.: Autopoiesis and Cognition. The
Realization
of the Living. London: Reidel 1980; Der Baum der Erkenntnis. Die
biologischen
Wurzeln des menschlichen Erkennens. München: Scherz 1987; Stent,
G.S.:
Programmatic Phenomena, Hermeneutics and Complex Networks, in:
Steinberg,
Ch.M., Lefkovits, I. (eds.): The Immune System. Festschrift in Honor of
Niels Kaj Jerne, S. 6-13 (Basel: Karger 1981); Tsuda, I.: A Hermeneutic
Process of the Brain. Progr. Theor. Phys. Suppl. 79, 241-259 (1984).
5.
Searle, J.R.: Speech Acts. Cambridge 1969, dt. Sprechakte, Frankfurt
1971;
Eley, L.: Sprache als Sprechakt, in: Simon, J. (Hrsg.): Aspekte und
Probleme
der Sprachphilosophie, S. 137-189, Braunschweig 1974.
6.
Zum Begriff des 'Forschungsprogramms' in der Wissenschaftstheorie vgl.
Lakatos, I.: Falsifikation und die Methodologie wissenschaftlicher
Forschungsprogramme,
in: Lakatos, I., Musgrave, A. (Hrsg.): Kritik und
Erkenntnisfortschritt,
S. 89-189, Braunschweig 1974.
7.
Dreyfus, H.L., Dreyfus, S.E.: Künstliche Intelligenz. Von den
Grenzen
der Denkmaschine und dem Wert der Intuition. Reinbek bei Hamburg:
Rowohlt
1987.
8.
Flores, F.: Management and communication in the office of the future.
San
Francisco: Hermenet 1982.
9.
Poser, H. (Hrsg.): Wandel des Vernunftbegriffs. Freiburg-München:
Alber 1981.
Letzte
Änderung: 14. Juli 2017