1) 1950-1970: Es ist die Zeit der ersten Programme
zur
maschinellen
Übersetzung. Auch das berühmte und später von seinem
Schöpfer J. Weizenbaum scharf kritisierte Frage-Antwort-System
ELIZA, das ein
nicht-direktives psychoanalytisches Gespräch simulierte, wurde in
dieser Zeit entwickelt. Computer lernten Schach spielen und begannen,
Muster zu erkennen.
2) Die siebziger Jahre: Neue Formen der
Wissensdarstellung
und die
entsprechenden Suchtechniken werden entwickelt. Terry Winograd erstellt
das Programm
SHRDLU,
das die Interaktion sowohl auf syntaktischer als auch auf semantischer
Ebene mit einem Wissensvorrat ermöglicht. Auch Prototypen für
das Verstehen von gesprochener Sprache werden entwickelt. Es ist aber
vor allem die Zeit, in der die ersten
Expertensysteme
entstehen. Diese haben als Ziel, Expertenwissen so aufzubereiten,
daß bei seiner Abfrage das System das Verhalten eines Fachmanns
bei der Lösung eines Problems simuliert.
MYCIN war einer der
ersten Prototypen im Bereich der medizinischen Diagnose.
3) Seit 1980: Die
KI-Forschung
beginnt sich zu kommerzialisieren, d.h., vielfältige industrielle
Anwendungen werden in Angriff genommen. Die Japaner arbeiten an einer
Fünften Computer
Generation. Amerikaner und Europäer beschleunigen ihre
Forschungsaktivitäten auf diesem Gebiet.
Nach diesem kurzen Überblick über die
Geschichte
der
KI-Forschung soll nun auf den Gegenstand selbst eingegangen werden.
Obwohl keine einhellige Meinung über den Forschungsgegenstand der
KI-Forschung herrscht, kann dieser als der Versuch angesehen werden,
spezifische menschliche Verhaltensweisen, und dabei insbesondere die
Intelligenz des Menschen, maschinell nachzuahmen bzw. von einer
"intelligenten Maschine", u.U. in noch perfektionierter Form,
ausführen zu lassen. Wie man sich leicht vorstellen kann,
enthält eine solche Definition zwei Kernbegriffe, die Anlaß
zur Kontroverse geben, nämlich "Intelligenz" und "nachahmen".
Dabei ist außerdem zu bemerken, daß die KI-Forschung nicht
bloß die rein rationalen Fähigkeiten des Menschen, sondern
auch die mit ihnen verbundenen leiblichen Funktionen des Wahrnehmens,
Empfindens, Erkennens und Handelns "im" Computer bzw. mit seiner Hilfe
"nachzuahmen" versucht. Eine zusammenfassende Darstellung über die
gegenwärtige Lage der KI-Forschung und ihrer industriellen
Anwendung bietet z.B. der amerikanische Report "Artificial
Intelligence: A New Tool for Industry and Business. Vol. 1: Technology
and Applications, Vol. 2: AI Programs at U.S. Universities" (SEAI
Institute, 1984).
KI-Forschung
ist ein
interdisziplinäres Gebiet, dessen Wurzeln in der
Weiterentwicklung der "Rechenmaschinen" liegen. Als Disziplin wuchs sie
zunächst mit der von N. Wiener entwickelten
Kybernetik
zusammen, aber andere
Gebiete wie die Psycho- und Soziolinguistik, die Computer-Linguistik,
die Neurophysiologie, die Psychologie, die Elektrotechnik und
Elektronik und nicht zuletzt auch die Philosophie (insbes. Logik,
Erkenntnistheorie und Sprachphilosophie) kamen bald hinzu.
Obwohl Fachklassifikationen ein eher statisches
Bild eines
Fachgebietes
wiedergeben, ohne daß die gegenseitige Verzahnung der einzelnen
Gebiete deutlich wird, scheint es im Rahmen dieser kurzen
Einführung nützlich zu sein, gewissermaßen als
"Über-Blick", darauf hinzuweisen. Ein Beispiel einer solchen
KI-Fachklassifikation bietet D.L. Waltz ("Scientific DataLink's
Artificial Intelligence. Classification Schema. In: The AI Magazine,
Spring 1985, S. 58-63), der folgende zwölf Hauptgebiete nennt:
1. Anwendungen der KI, insbesondere
Expertensysteme: in
Industrie,
Medizin, Wissenschaft und Forschung, Spiele, Büroautomation,
militärische Anwendungen, Wirtschaft und Finanzen, Lehre un
Ausbildung, Bibliothekswesen, Ingenieurwissenschaften.
2. Automatisches Programmieren: automatische
Analyse von
Algorithmen,
Modifikationen von Programmen.
3. Deduktion und Verifikation von Theoremen:
Programmierlogik,
mathematische Induktion.
4. Wissensdarstellung: "Frames",
Prädikatenlogik,
semantische
Netzwerke, Abbildungen der physischen Welt, Darstellung der Semantik
natürlicher Sprachen.
5. Programmiersprachen und Software: Sprache
für
Wissensdarstellungen und Expertensysteme.
6. Lernen: Analogien, Begriffslernen, Induktion,
Wissenserwerb,
"knowledge engineering", Spracherwerb.
7. Verarbeitung von natürlicher Sprache:
Sprachgenerierung,
Sprachverstehen, Sprachübersetzung, Spracherkennung, Textanalyse,
Lexikologie (Thesauri), Entwicklung von "interfaces".
8. Problemlösung, Kontrollmethoden und Suche:
Graphen-
und
Baum-Suchstrategien, heuristische Methoden.
9. Robotik: Manipulatoren, Propeller, Sensoren.
10. Visuelle Wahrnehmung: Modelle, Photometrie,
Bewegung,
Gestaltwiedergabe.
11. Erkennungsmodelle und psychologische Analyse
von
Intelligenz:
Analyse von Emotionen, Beweisführung, Entscheidungsmodelle,
Erinnerungsvermögen, Bewußtseinsmodelle.
12. Soziale und philosophische Aspekte:
KI-Paradigmen,
Phänomenologie, Kreativität, Hermeneutik, Erkenntnistheorie,
Intentionalität, gesellschaftliche Auswirkungen, Geschichte,
Forschungsmethodologie.
Wenn man das letzte Gebiet als eine
"Meta-Disziplin"
versteht, die die
KI-Forschung als Ganzes betrifft, dann lassen sich die restlichen elf
in drei Kerndisziplinen zusammenfassen, nämlich:
Expertensysteme
Es geht darum, Fachwissen aus einem genau
definierten
Gebiet so
aufzubereiten (in Form einer "Wissensbank"), daß man mit Hilfe
der sukzessiven Verknüpfung von Wenn-dann-Beziehungen schrittweise
zu einer Problemlösung (bzw. zu einem Prolemlösungsvorschlag)
gelangen kann. Neben der Wissensbank gehört auch eine "inference
engine", d.h. ein Mechanismus des Schlußfolgerns, dazu. Besondere
Schwierigkeiten bereiten dabei die Pflege der Wissensbank sowie die
unterschiedlichen Inferenzmechanismen und -strategien. Ferner, da das
Expertensystem notwendigerweise in bezug auf seine
Wissensvoraussetzungen (hermeneutisch: Vorverständnis) begrenzt
ist, so sind auch seine Schlußfolgerungen, je mehr sie die
Randzonen betreffen, mit Ungewißtheit bis hin zur abrupten
Unwissenheit behaftet. Oder anders ausgedrückt, da die "Fakten"
die als Grundlage des Deduktionsprozesses dienen, ihrerseits
"dynamischer Natur" sind (im Falle wissenschaftlicher Erkenntnisse
haben wir es ja mit hypothetischem Wissen zu tun), können die
Lösungen nur einen vorläufigen Charakter haben. Der besondere
Vorteil eines Expertensystems besteht aber darin, daß eine
große Anzahl von Einzelerkenntnissen als Grundlage einer
Schlußfolgerung im Hinblick auf ein bestimmtes Problem zu Rate
gezogen werden kann, wozu gewöhnlich nur ein Fachmann (zumindest
in einer solchen systematischen Form und in kurzer Zeit) selten
(meistens "intuitiv" bzw. aufgrund der langen Erfahrung) in der Lage
ist.
Dabei sollten die Zwischenstufen des
Folgerungsprozesses
jederzeit
transparent bleiben bzw. das System muß in der Lage sein, auf
besondere Anfrage seine Schlüsse zu "rechtfertigen". Ob solche
Systeme in Zukunft "lernfähig" sein werden, d.h. ob sie aufgrund
der Eingabe von neuem Wissen ihr bisheriges Vorwissen und die
entsprechenden Schlußfolgerungen "automatisch" werden ändern
können, ist eine offene Frage.
Entscheidend bei der Entwicklung von
Expertensystemen ist
die Forschung
auf dem Gebiet der Wissensdarstellung (Fachgebiet 4), der Lernprozesse
(Fachgebiet 6), sowie der Problemlösungsmethoden (Fachgebiet 8).
Die Anwendungen reichen von der medizinischen Diagnose über die
industrielle und wirtschaftliche Beratung bis him zum
(Aus-)Bildungsbereich. Eine besondere Bedeutung finden Expertensysteme
im militärischen Bereich. Wei auch im Falle anderer Technologien
sollte hier die philosophische Ethik mit klarem analytischen Verstand
die "Sache der Vernunft" in aller Deutlichkeit zur Sprache bringen.
Verarbeitung
natürlicher
Sprache
Hier geht es darum, den Mensch-Maschine-Dialog von
seinen
bisherigen
Formalisierungen zu lösen, so daß ein "natürlicher"
zwischenmenschlicher Dialog "nachgeahmt" werden kann. Das geht bis hin
zu Techniken der Spracherkennung und Sprachausgabe. Ähnlich wie
das geschriebene Wort muß auch das gesprochene Wort durch eine
Zeichencodierung "umgesetzt" werden. Man denke z.B. an einen
"Diktierschreiber". Die Schwierigkeiten liegen u.a. in der Forderung
sprecherabhängiger Einzelworterkennung. Die Einführung der
Schreibmaschine mit Spracheingabe hätte voraussichtlich
schwerwiegende Auswirkungen auf den Arbeitsmarkt, weil damit ein
großer Teil der konventionellen Sekretariatsarbeit wegfallen
würde.
Neben der Schreibmaschine mit Spracheingabe sind
weitere
künftige
Anwendungsgebiete die maschinelle Sprachübersetzung, die
Dokumentenanalyse, Kommandoeingaben bei Überwachungssystemen,
computergestütztes Lernen/Lehren usw. Im Falle der
Dokumentenanalyse geht es z.B. um die automatische Extraktion von
(Such-) Deskriptoren (automatisches Indexing), die automatische
Herstellung von Kurzfassungen und die automatische Ausgabe von
semantischen Netzwerken. Wie im Falle von Expertensystemen muß
der Computer in der Lage sein, aufgrund von vorgegebenen Daten
(Thesauri, syntaktische und semantische Regeln usw.) die
Wissensextraktion und Wissensverarbeitung durchzuführen. Breite
soziale Anwendungen (etwa im Dienstleistungsbereich) sind hier denkbar.
Die Fachgebiete 6, 7 und 8 gehören zum Kern dieses Bereichs.
Robotik
Hierzu gehört vor allem die Entwicklung auf
dem Gebiet
der
Bildverarbeitung, wodurch z.B. ein Industrie-Roboter in der Lage sein
soll, Gegenstände zu sortieren bzw. zu montieren usw. Dem
"Roboter-Blick" folgt also ein "Roboter-Griff". Dabei ist sowohl das
Erkennen des einzelnen Objekts als auch das des Kontextes von
Bedeutung, was z.B. anhand von Musterstrategien erfolgen kann.
Dementsprechend spielt das Bildverstehen sowohl in der Robotik als auch
in der Verarbeitung natürlicher Sprache (wie Bildverstehen von
Graphiken) eine besondere Rolle. Wie auch im Falle des Verstehens von
Einzelerkenntnissen kann ein Gegenstand nur im Zusammenhang mit einem
bestimmten Koordinatensystem ("frame") "erkannt" bzw. manipuliert
werden. M. Minsky hat die Rolle der "frames" eingehend untersucht (vgl.
M. Minsky: A Framework for Representing Knowledge. In: J. Haugeland,
Ed.: Mind Design. Philosophy, Psychology, Artificial Intelligence.
Cambridge: M.I.T. 1981, 95-128).
"Bekannte" Roboter sind z.B. "Freddy" in
Edinburgh, der ein
hölzernes zerlegtes Spielzeugautomontieren kann, oder "
Shakey" am
Standorf Research Institute in California, der auf Anweisung
Gegenstände von einem Ort zum anderen bringt.
Zur Robotik gehören vor allem die oben
erwähnten
Fachgebiete
9, 10, und 11.
Es ist hier natürlich sehr naheliegend zu
fragen,
inwiefern der
Begriff der menschlichen "Nachahmung" nicht ins Groteske geraten kann,
gerade weil die "Ähnlichkeit" im "Äußeren" auf Anhieb
so verblüffend ist. Damit meine ich nicht, daß man gegen die
KI-Forschung etwa durch Herausbildung einer (vermeintlichen)
"Innerlichkeit" (Seele, Bewußtsein usw.) des Menschen
argumentieren sollte. Man kann aber doch die völlig verschiedene
Andersartigkeit des menschlichen "Außer-sich-seins" (z.B. durch
eine Phänomenologie seines spezifischen "Im-Raume-seins" und
"In-der-Zeit-seins") gegenüber den (zumindest bisherigen)
maschinellen "Nachahmungen" herausarbeiten. Hiermit wären wir
erneut bei den "Meta-Aspekten" (Fachgebiet 13). Es bleibt
schließlich zu bemerken, daß die Fachgebiete 2 und 3
(Deduktionssysteme) für die gesamte KI-Forschung sowie für
die Computerwissenschaft von Bedeutung sind.
Ich möchte diese kurze Einführung mit
einem Zitat
von
Terry Winograd
über
die Frage nach den "richtigen Fragen" in der KI-Forschung
beschließen. Es lautet: