|
Kapitel 5: Wissenserschließung und -darstellung |
|
5.1 Einführung
Diese Frage wurde seit den 30er Jahren im wissenschaftlichen Bereich akut: Angesichts der Fülle an Veröffentlichungen auch in einem "kleinen" Fachgebiet, mußte ein Wissenschaftler zunächst lediglich anhand von Kurzfassungen (abstracts) entscheiden, ob die betreffende Publikation für ihn relevante Informationen enthielt oder nicht. Mit anderen Worten, die Frage, die sich die Informationswissenschaft damals stellte und heute wohl auch stellt, ist die nach den Bedingungen des "intellektuellen Zugangs zur Information" (intellectual access to information) (Ingwersen 1995, S. 140). Im Folgenden gebe ich zunächst einige Grundgedanken wieder, die in meinem Buch "Hermeneutik der Fachinformation" ausführlich(er) dargestellt sind: "Es war vermutlich Calvin N. Mooers, der 1950 den Ausdruck "information retrieval" für das Suchen und Auffinden von "Informationen" aus einem Computerspeicher prägte "(Vgl. R. Kuhlen, Hrsg.: Datenbasen, Datenbanken, Netwerke, München 1979, Bd. 1, S. 15). Die Entwicklung begann mit der Erstellung von bibliographischen Datenbasen. Die dabei suchbare und auffindbare Information besteht aus den Hinweisen zur veröffentlichten (einschließlich "grauen") Literatur eines Fachgebietes. Obwohl der Begriff des Information Retrieval ursprünglich die Informationen selbst und nicht so sehr die Information über Dokumente meinte, wurde und wird er heute zum Teil noch mit "Referenz-Retrieval" gleichgesetzt (G. Salton, J.J. McGill: Introduction to Modern Information Retrieval, New York 1983, S. 7ff). Dennoch, wie wir am Anfang gesehen haben, stellen bereits "Referenz-Datenbasen" eine Möglichkeit des Information Retrieval dar. Hinzu kommen die "Quellen-Datenbasen", die die gesuchte Information selbst, sei es numerische oder textuelle, anbieten. Man spricht hier auch von Daten-/Fakten-Retrieval. Eine weitere daran anschließende Entwicklung bilden die sogenannten Expertensysteme mit der damit zusammenhängenden Forschung im Bereich der "künstlichen Intelligenz". Beim Aufbau einer Datenbasis wird ein Teil des thematisierten Vorverständnisses zum Zwecke seiner (gezielten) Wiederfindung verobjektiviert. Hermeneutisch gesehen sind also Datenbasen verobjektivierte Vorverständnisse. Demnach stellen sich unterschiedliche hermeneutische Fragen, je nachdem was für ein Vorverständnis und in welcher Weise es dargelegt und "retrieval-fähig" gemacht wird. Im folgenden wollen wir diese Problematik einer Hermeneutik des Information Retrieval exemplarisch am Beispiel der bibliographischen Datenbasen erläutern. Unsere Darstellung ist aber insofern generalisierend, als hier nicht auf die Unterschiede bei den einzelnen Fachgebieten eingegangen werden soll. Im Falle bibliographischer Datenbasen gelten als Fachinformationen die Hinweise (u.U. auch der gespeicherte Originaltext) auf die Literatur eines Fachgebietes. Wie Oeser mit Recht bemerkt (E. Oeser: Wissenschaft und Information, S. 86), muß das, was als Information gelten kann, vor und nicht nach dem automatischen Verarbeitungsprozeß feststehen. Dieses Vorverständnis bezieht sich im Falle bibliographischer Datenbasen auf die "dokumentarischen Bezugseinheiten" (DBE) bzw. "Dokumentationseinheiten" (DE) (eine DE geht stellvertretend für eine DBE ein. Vgl. K. Laisiepen u.a.: Grundlagen, S. 106 ff.). Bereits vor der Beschaffung und Auswertung der DBE, muß das jeweilige Fachgebiet abgegrenzt werden. Der darauf folgende Dokumentationsprozeß, der zum Aufbau einer bibliographischen Datenbasis führt, besteht in der formalen Erfassung und inhaltlichen Erschließung der DBE sowie in der entsprechenden Computerverarbeitung, wodurch die Suche nach den vorgegebenen Kriterien ermöglicht wird." (Capurro 1986, 141-143) "Bei der inhatlichen Erschließung von Dokumenten im Hinblick auf den Aufbau von bibliographischen Datenbasen stellen sich insbesondere jene hermeneutischen Fragen in einer spezifischen Form, die mit der Struktur des Verstehens zusammenhängen. Es geht dabei um: a)
die Klassifikation, d.h. um die Zusammengehörigkeit der in
einem Dokument dargestellten Sachverhalte zum thematisch
vorverstandenen
Fachgebiet bzw. zur jeweiligen "Hinsicht", unter der die Sachverhalte
ausgelegt
wurden; Diese Vorgänge sollen ermöglichen, daß beim Retrieval so etwas wie eine "Horizontverschmelzung" zwischen dem verobjektivierten Vorverständnis und dem Vorverständnis des Suchenden stattfinden kann. Die aufgebaute bibliographische Datenbasis ist somit wesentlich hermeneutischer Natur: sie ist das Ergebnis einer bestimmten Form der Verobjektivierung eines Vorverständnisses und setzt stets dieses beim Retrieval voraus." (Capurro 1986, 145) Zur Frage der formalen Erfassung vgl. U. Krischker: Formale Analyse von Dokumenten. In: Buder et al.: Grundlagen der praktischen Information und Dokumentation, Bd. I, 63.87. Mit
dem Aufkommen des Internet und der damit zusammenhängenden
Vielfalt
von Formaten hat diese Frage heute eine besondere Relevanz.
Ein führendes Forum auf dem Gebiet Abstracting/Indexing ist die:
Führende Fachvertreter einer sich rasch entwickelnden Netzwissenschaft finden Sie hier:
Wenn Sie das Internet besser verstehen wollen, dann hilft diese Adresse bestimmt:
Im Folgenden gehen wir auf die Probleme der inhaltlichen Erschließung näher ein. 5.2 Klassifizieren5.2.2 Fachklassifikationen 5.2.3 ASIS sig/cr 5.2.1 Typologie von Klassifikationssystemen
"Wissensbezogene Klassifikationen können in verschiedenen Verwendungsbereichen und dabei im Hinblick auf unterschiedliche Intentionen entwickelt werden (Vgl. I. Dahlberg: Grundlagen universaler Wissensordnung, Pullach b. München 1984, S. 30ff). Im Bereich der Wissensvermittlung sind zwei Möglichkeiten zu nennen: Im weiten Sinne des Wortes kann auch der im nächsten Abschnitt zu erörternde Vorgang der Indexierung als ein Modus des Klassifizierens bzw. können Klassifikationen und Indexierungsformen als unterschiedliche Stufen eines Vorganges, der denselben Zweck erfüllt, betrachtet werden. Man spricht auch in diesem Zusammenhang von "Dokumentationssprachen". Fachklassifikationen im Information Retrieval dienen also nicht der Fixierung der Dokumente oder ihrer Inhalte an einem Ordnungsschema, sondern sie sollen die Hinsichten bzw. "Horizonte" freilegen, worunter ein Sachverhalt in einem Dokument behandelt wurde bzw. worunter der Suchende zu ihm gelangen kann. Demnach setzt eine Fachklassifikation die Bestimung eines Fachgebietes ("subject field") voraus. In diesem Sinne sagten wir oben (III.3.b), daß Klassifikationen ein "sekundäres" Problem sind. 5.2.2 FachklassifikationenDie Entwicklung einer Fachklassifkation gibt u.U. die jeweilige Dynamik eines Fachgebietes wieder. Beim Vorgang des Klassifizierens sollen die jeweiligen Sachverhalte in ein "präkoordiniertes" d.h. im voraus festgelegtes "weitmaschiges" Netz von (poly-)hierarchischen Beziehungen eingebettet werden, so daß bei der Suche mögliche Bezüge aufgedeckt bzw. thematisch zusammengehörende Dokumente wiedergefunden werden können. Diese insbesondere aus dem Information Retrieval gewonnene Vorstellung von Fachklassifikationen als Netzwerke ("Facettenprinzip") scheint wiederum ihre eigentlichen Zweck in den Wissenschaften zu entsprechen als die herkömmliche lineare monohierarchische Vorstellung (Vgl. N. Rescher: Cognitive Systematization. Oxford 1979).Eine Fachklassifikation stellt also den dem Dokumentar, dem Autor und dem Suchenden gemeinsamen Rahmen dar oder, mit anderen Worten, sie bildet das vorläufige thematisierte Vorverständnis einer Fachgemeinschaft. Insofern steht im Mittelpunkt des Klassifizierens die Öffnung der Bedeutungsgehalte auf die zum Teil vorverstandenen Hinsichten und die dadurch zu ermöglichende Bildung von neuen Horizonten bei der Suche. Dabei vollzieht der Dokumentar, wie auch der Autor und der Suchende, eine "kreisförmige" Bewegung ("hermeneutischer Zirkel"), indem, vom Text ausgehend, auf das Vorverständnis bzw. auf die Fachklassifikation reflektiert und diese wieder auf die thematisierten Sachverhalte bezieht. Der "Zirkel" ist ein bleibender bzw. ein methodischer. Es ist eine "Zirkelbewegung", in der die Sachverhalte und deren vielfältige Bedeutungs- und Verweisungszusammenhänge ausgelegt werden bzw. in ihren Beziehungs- und Deutungsmöglichkeiten offen bleiben. Die Fachklassifikation soll diese hermeneutische Bewegung und die an ihr Teilnehmenden zusammenhalten ohne die jeweiligen offenen Sinnmöglichkeiten zum Erstarren zu bringen. Sie kann sowenig eine "Wirklichkeit an sich" als eine "Dokument an sich" "abbilden". Die Vorstellung von einer Fachpublikation "an sich" ist genau so absurd, wie die Vorstellung einer "Welt" von "Problemen an sich", oder die der Wortbedeutungen "an sich", d.h. unabhängig vom Satz. Die moderne sprachanalytische Philosophie hat auf diesen letzten Sachverhalt mit hinreichender Klarheit aufmerksam gemacht (E.Tugendhat: Vorlesungen zur Einführung in die sprachanalytischen Philosophie, Frankfurt a.M. 1976) Wenn
es also keine absoluten objektiven Kriterien gibt, mit deren Hilfe eine
objektive Wirklichkeit begrifflich "abbildbar" wäre, dann stellen
Fachklassifikationen einen von einer Fachgemeinschaft
vorläufig
vereinbarten bzw. bewährten Verständigungsrahmen dar. Es ist
insofern mißverständlich, sie primär als Ordnungssysteme
zu bezeichnen, sondern sie sollten eher, sofern sie diesen
"Abbildungsanspruch"
aufgeben, als Verständigungssysteme bzw. Verständigungsinstrumente
aufgefaßt werden." (Capurro 1986, 146-148)
5.2.3 ASIS SIG/CSSpecial Interest Group: Classifications Systems der American Society for Inforamtion Science:
5.3 Indexieren5.3.2 Extraktionsverfahren 5.3.3 Gewichtungsorientierte Verfahren 5.3.4 DIN 31 623 5.3.5 Bildindexierung 5.3.6 Thesauri und Thesaurus-Software im WWW 5.3.1 Prä- und Postkoordination"Ausgehend von dieser Fragestellung folgten, historisch gesehen, die "postkoordinierten" Systeme bzw. die Methode der "gleichordnenden Indexierung" ("coordinate indexing"). Demnach werden die einzelnen u.U. normierten bzw. "kontrollierten" Begriffe einer Fachsprache gleichwertig behandelt, d.h. sie werden nicht in einem System vorgefertigter Hinsichten aufgehoben, sondern jeder Begriff stellt sozusagen eine eigene Hinsicht dar, wie sie das Wort "Index" (lat. "indicare" = hinweisen) es ausspricht. (Vgl. H.H. Wellish: "Index": the word, its history, meanings and usages. In: The Indexer 13, 1983, 3, S. 439-458).Obgleich
die Begriffe in ihren vielfältigen Beziehungen untereinander
gekennzeichnet
werden können, bildet jeder eine gleichwertige Eintragung, und sie
werden erst während des Retrieval miteinander verknüpft.
Darauf
bezieht sich der Hinweis "postkoordiniert". Die kontrollierte
Festlegung
einer fachlichen Begrifflichkeit führt zur Bildung eines
"Thesaurus".
Dessen Termini werden "Deskriptoren" genannt. Wersig faßt die
Merkmale
eines Thesaurus wie folgt zusammen (G. Wersig: Thesaurus-Leitfaden.
München
1978): Ein Thesaurus verobjektiviert einen Teil des begrifflichen Vorverständnisses einer Fachgemeinschaft und stellt dieses als einen normierenden Horizont dar. Sowenig es aber eine Fachgemeinschaft "an sich" oder "Probleme an sich" gibt, sowenig gibt es auch eine Fachsprache "an sich". Die verobjektivierte Fachsprache ist aber, ähnlich wie die Fachklassifikation, an einem temporären Stand der Wissenschaft orientiert. Sie gibt außerdem ein idealisiertes bzw. auf Eindeutigkeit reduziertes Bild einer in Wirklichkeit nicht genau abgrenzbaren Fachsprache wieder. Dennoch scheint hier ein künstlicher Gegensatz vorzuliegen, wenn man die Methode des kontrollierten Vokabulars, die zudem durch die Vergabe von "freien" Schlagworten "ergänzt" werden kann, der auf der "natürlichen Sprache" basierenden entgegensetzt. Auch Fachklasifikationen wurden lange Zeit der Thesaurus-Methode entgegengesetzt, während man sie heute als komplementäre Methoden betrachtet." (Capurro 1986, 151-153) 5.3.2 ExtraktionsverfahrenEs handelt sich hier im wesentlich um das Freitext-Verfahren sowie um wortorientierte Verfahren. Dazu schreibt Knorz (G. Knorz: Indexieren, in: Buder et al. Bd. I, 130):"Das Aufkommen von billigen Massenspeichern schuf eine historisch völlig neue Situation in der Dokumentation: Die Reduktion auf wesentliches wurde teurer als das Anbieten aller Textwörter als Suchbegriffe. Da die Invertierung aller im Text vorkommenden Wortformen (ausgenommen das kleine Inventar an Funktionswörtern und banalen Wörtern) völlig unabhängig von der Art der (Text-)Dokumente und deren Sprache ist und auch keine manuelle Pflege erfordert, sind sie aus der Sicht von Datenbankproduzenten die ideale Erschließungsmethode. Der Freitext in Zusammenhang mit Boole'schen Retrieval ist auch dann die Basistechnik, wenn weitere Formen der Inhaltserschließung integriert sind (z.B. läßt sich im CT-Feld mit Trunkierung und mit Abstandsoperatoren recherchieren)." 5.3.3 Gewichtungsorientierte VerfahrenZu diesem heute führenden Verfahren schreibt Knorz:"Ein vollständig anderer Weg wird (mit guten Argumenten, siehe Abschnitt B 4.7.3) von der Information-Retrieval-Forschung der letzten 30 Jahre vorgeschlagen (siehe dazu Lit. 23, Lit. 19). Nicht Retrievalsysteme mit logischen Verknüpfungsoperationen stehen hier im Mittelpunkt des Interesses, sondern Systeme, die Fragerepräsentationen und Dokumentrepräsentationen in Form gewichteter Index Terms miteinander vergleichen und als Antwort eine Dokumentreihenfolge liefern. Sortierkriterium ist die vom System geschätzte Wahrscheinlichkeit bzw. Plausibilität von Relevanz auf eine gestellte Frage. Da das Retrievalverfahren nicht von manueller Suchstrategie abhängt, sondern fest vorgegeben ist, besteht die Aufgabe darin, die Parameter des Verfahrens (Gewichtungen, Rechenvorschriften) zu optimieren." (G. Knorz: Indexierien, in: Buder et al. Bd. I, 131)Zu diesen Parametern zählt insbesondere die Termgewichtung: Das Gewicht eines Indexterms g(t) errechnet sich aus der Häufgigkeit, mit der t im Dokument vorkommt geteilt durch die Anzahl der Dokumente, in denen t vorkommt. Die Summe der Gewichte von den jeeils im Dokument gefundenen Terms ergibt dann das Gewicht eines Dokuments in bezug auf eine Frage. Eine
Weiterentwicklung probabilistischer Verfahren bietet: WebCheck: www.webtop.com
"On the Web the large search engines report that most people just type in one or two search words. Yet the probabilistic models are best applied if we can tease more words out of the user, at query time. A new tool from Bright Station called WebCheck removes the need to type a search. WebCheck allows the user to highlight text within a desktop document (eamil, Word report. Profound document) and drag it over the WebCheck icon. No typing required. The innovation is to simply used the text of the user's desktop to drive the query, saving the time and hassle for the user to think up a useful query. Have you ever sat at the search box wondering what words to use? 5.3.4 DIN 31 623: Indexierung zur inhaltlichen Erschließung von DokumentenInhalt1. Anwendungsbereich 2. Zweck 3. Begriffe: Dokument, Dokumentationssprache, Deskriptoren, Notationen, Indexierung 4. Methoden der Indexierung 5. Bewertungskriterien für Indexierungsergebnisse 6. Zusätzliche Gesichtspunkte zur Indexierungspraxis Vgl. Zur
Vertiefung: 5.3.5 BildindexierungVgl. E. M. Rasmussen: Indexing Images. In: Williams, Martha E. (ed.): Annual Review of Information Science and Technology (ARIST), published on behalf of the ASIS (American Society for Information Science), Information Today Inc., Medford, N.J.. Vol. 32 (1997), 169-196:"CONSTANTOPOULOS & DOERR identify four techniques used in image retrieval systems to represent the conceptual content of an image: (1) captions (essentially free-text annotations); (2) keywords from a controlled vocabulary; (3) iconic indexing (symbolic objects stored with spatial and attribute information); and (4) hypermedia annotation (a link to text, attribute information or other source." (S. 175-176)Zur Frage des Bildretrieval siehe Modul 6. 5.3.6 Thesauri und Thesaurus-Software im WWW
5.4 Kurzreferate / Abstracting5.4.2 DIN 1426 5.4.3 Forschung 5.4.1 Was sind Kurzreferate?"Als Orientierungshilfe weist ein Kurzreferat besondere Vorteile auf: es erleichtert die Auswahl der Dokumente, hilft die "Sprachbarriere" zu überwinden, hilft den "eiligen Leser" Zeit zu sparen usw. Im Rahmen einer Hermeneutik des Information Retrieval sind also zwei Funktionen von Kurzreferaten hervorzuheben: sie dienen als Ganzes bei Relevanzentscheidungen und sie können "invertiert" werden und stellen somit eine Bereicherung der Suchbegrifflichkeit dar. In diesem Fall lösen sich Kurzreferate als Suchhilfe in eine Indexierungssprache auf.Die
Frage nach der Darstellung des "wesentlichen Inhalts" eines Dokuments
ist,
wie schon erwähnt, eine im Rahmen einer allgemeinen
Texthermeneutik
zu behandelnde Frage. Hier genügt der Hinweis, daß die
Hermeneutik
den Platonismus einer "absoluten Textgegebenheit" in Frage stellt, so
daß
das Referieren nicht auf die vermeintliche "Wiedergabe" des "Wesens"
eines
"Inhaltes" abzielt, sondern bestimmte im Text thematisierte
Zusammenhänge andeutet, die zu ihren Verständnis ein
Vorverständnis
voraussetzen. Da dieses Vorverständnis, wie schon gesagt, nur ein
vorläufiges ist und Texte nicht "an sich", sondern immer nur zu
diesem
offenen Horizont "relativ" bleiben, ist die übliche Auffassung von
Kurzreferat als eine "Wiedergabe" des "Wesentlichen" nur als relativ
zum
jeweiligen, u.U. verobjektivierten Vorverständnis zu
verstehen."
(Capurro 1986, 162-164) 5.4.2 DIN 1426: Inhaltsangaben in Information und DokumentationHauptformen von Inhaltsangaben: Inhaltsverzeichnis, Auszug, Zusammenfassung, Annotation, Kurzreferat, Sammelreferat, Rezension, Sammelrezension, Literaturbericht.Kurzreferate: Hauptformen: Autorenreferat, Fremdreferat, maschinell erstelltes Kurzreferat Kurzreferate nach der Form: Schlagwortreferat, Textreferat, Strukturreferat Kurzreferate nach dem inhaltlichen Bezug: indikatives, informatives, indikativ-informatives Referat Grenzformen des Kurzreferats: ersetzendes Referat, kritisches Referat. Zur Vertiefung: Inderjeet Mani, Mark T. Maybury Eds.: Advances in Automatic Text Summarization. MIT Press 1999. M. Haag: Automatic Text Summarization: Evaluation des Copernic Summarizer und mögliche Einsatzfelder in der Fachinformation der DaimlerChrysler AG. Shaker-Verlag 2002. R.
Kuhlen: Abstracts - Abstracting - Intellektuelle und maschinelle
Verfahren.
In: Buder et al. 1997, Bd. I, 88-120. 5.4.3 Forschung
Endres-Niggemeyer, B.: Summarizing Information. Berlin: Springer-Verlag 1998 5.5 Informationsdesign5.5.2 Interkulturelles Informationsdesign 5.5.3 Edward R. Tufte 5.5.1 Screen DesignElemente des Screen-Designs: - Orientierungselemente - Navigationselemente: Hotspots, Schaltflächen/Buttons, Drawer, "zurück"-Button/Backtrack, Lesezeichen, Landkarten, Clusters, Hyperbolic Tree, Suchfunktion, Index - Inhaltselemente - Screen-Layoutelemente - Interaktionselemente - Motivationselemente - Lexikon Informationsdesign der FH Stuttgart:
- Ann Navarro, Tabinda Kahn: Effective Web Design. San Francisco 1998. - Jared M. Spool et al.: Web Site Usability: A Designer's Guide. San Francisco 1999. www.mkp.com www.uie.com 5.5.2 Interkulturelles InformationsdesignDie konkreten Maßstäbe zur interkulturellen Websitenalyse sollten nicht nur auf einer allgemeinen und formalen Ebene verbleiben, etwa im Sinne einer Feststellung über mehrsprachige Websites, oder, allgemeiner, auf die Frage der Mehrsprachigkeit in Internet beschränkt werden, sondern es geht darum, den Einfluß kultureller Werte, Normen, Ausdrucksformen, Bilder, Farben, Strukturierung von Information, Inhalte, Zugänglichkeit usw. zu analysieren und zwar sowohl bei gemeinnützigen oder non-for-profit Organisationen als auch bei multinational oder global agierenden kleinen, mittleren und großen Unternehmen.Das bedeutet, daß bei der Wahl eines konkreten Untersuchungsobjekts die anvisierte Kultur mitreflektiert werden muß. Diese liefert sozusagen die inhaltlichen Maßstäbe an denen sich dann die Website-Analyse orientieren soll. Kultur ist auch ein Mittel der Politik. Internationale, multinationale, nationale und regionale Institutionen präsentieren sich im Netz entsprechend ihren kulturellen Unterschieden. Wie sehen diese konkret aus? Wie äußert sich Kultur? Primär in der Sprache, das heißt in bezug auf das Internet in Schrift und Bild. Dies impliziert aber auch u.U. jahrhundertealte Traditionen von Bildern und Assoziationen, die von Kultur zu Kultur unterschiedlich sind. Das Bild einer Krone in England hat zum Beispiel eine andere semantische Resonanz als etwa in den USA. Auch die Regeln des Ansprechens und Werbens sind kulturell unterschiedlich. Es gibt Farben und Farbkompositionen sowie icons, die je nach Kultur und Region anders wahrgenommen werden. Semantische (konnotative und dennotative) und pragmatische Dimensionen von Sprache (Schrift und Bild) sind von entscheidender kultureller Bedeutung: Welche Aussagen werden in welcher Form und mit welchen Mitteln dargestellt? Kulturen halten sich nicht an nationalen Grenzen, auch wenn sie vor allem im 19. und im 20. Jahrhundert zur Stiftung nationaler Identität ge(miß-)braucht wurden. Auch ihre zeitliche Dimension ist sehr unterschiedlich und sie umfassen religiöse, philosophische, wissenschaftliche, ökonomische und politische Dimensionen. Wenn wir also zum Beispiel Websites aus islamischen Ländern analysieren, tun wir gut daran, uns zunächst mit der islamischen Kultur auseinanderzusetzen, um festzustellen, inwiefern diese sowohl seitens islamischer Institutionen als auch zum Beispiel seitens eines Unternehmens, der seine Produkte in islamischen Ländern absetzen will, berücksichtigt werden. Interkulturelle Websiteforschung hat, wenn sie Websites-Objekte aus der Wirtschaft analysiert, nicht allein mit Werbestrategie in Zeiten des E-Commerce zu tun, sondern sie betrifft die gesamte Unternehmenskultur in einer globalisierten Wirtschaft. Die Ergebnisse
eines Seminars
zu diesem Thema finden Sie hier: 5.6 Visualisierung von Information- The Visual Display of Quantitative Information (1983, 1992) - Envisioning Information (1990) - Visual Explanations : Images and Quantities, Evidence and Narrative (1997) - Visual & Statistical Thinking : Displays of Evidence for Decision Making (1997) Vgl.auch: S. K.
Card, J.
D. Mackinlay, B. Shneiderman Eds.: Readings in Information
Visualization.
Using Vision to Think. San Francisco, CA: Morgan Kaufmann Publishers
1999.
Enhält: 5.7 Web-Content-Management
Schlechte Web-Seiten entstehen auch, wenn die Einstellung herrscht, dass mit dem neuen Medium Internet alle bisherigen Erkenntnisse über Psychologie und Verhalten von Menschen nichtig werden. Genau das Gegenteil ist der Fall: Im Netz verhalten sich die Anwender wie in der realen Welt. (...) "Ein Online-Kaufhaus muss für die Besucher so klar gegliedert sein wie ein reales Kaufhaus. Sie müssen wissen, wo welche Abteilungen sind, wie sie dorthin kommen, wo die Kassen sind und, ganz wichtig, wie sie wieder raus kommen", beschreibt Michaul Kaufmann vom Beratungs- und Informationszentrum Elektronischer Geschäftsverkehr (BIEG) Hessen bei der IHK Frankfurt die Anforderungen an gute Shop-Seiten." Die "Killer" einer Internet-Seite: Grundsätzlicher Usability Test: Hans
Obermeier: Gut
unterwegs - eine Frage des Inhalts. e-commerce magazin, März 2001,
S. 72-74:
Eine besondere Rolle beim Informationstransfer spielen Hyperlinks. Sie verknüpfen zusammengehörende Dokumente und verschaffen so Telearbeitern udn mobilen Usrn schnell den neuesten Wissensstand. Was geschieht jedoch, wenn Dokumente im Intranet verschoben, umbenannt oder gelöscht werden? Bei herkömmlichen Hyperlinks erhält der Mitarbeiter wenig hilfreiche Meldungen wie etwa "404 File not found". Moderne Systeme, dazu zählt beispielsweise der Hyperware Information Server, arbeiten daher mit so genannten dynamischen Links. Diese werden getrennt von den Dokumenten als Objekte in einer Datenbank gespeichert und passen sich den Änderungen entsprechend automatisch an. (...) Wichtige Informationen werden in Unternehmen nicht selten auf dem Flur, in der Kaffeküche oder in der Kantine ausgetauscht. Um Telearbeiter und ihre mobilen Kollegen nicht vom kurzen Dienstweg auszuschließen, muss das Informationsportal die Rolle des Informanten übernehmen. Wertvolle Dienste leisten auch regelmäßige Newsleter, digitale Entsprechungen von Schwarzen Brettern, sowie "Agenten" und "Augen". Agenten sich Suchprofile, die den Dokumentenbestand im Intranet entweder ständig oder nur zu definierten Zeiten durchsuchen. Werden relevante Dokumente publiziert oder aktualisiert, schickt der Agent seinem Auftraggeber eine e-Mail oder macht einen Vermekr auf dessen "News Page". Augen hingegen beobachten ausgewählte Dokumente oder einen Arbeitsprozeß und melden, wenn Änderungen eintreten. Ergänzt durch Bookmarks, die häufig genutzte Quellen markieren, können sich die Mitarbeiter auf diese Weise ein informelles Netz aufbauen. Durch die genannten Maßnahmen ist die Gefahr einer Trennung in informierte und nicht informierte Mitarbeiter gebannt. Wie gelangt jedoch extern produzierter Content in Echtzeit ins Intranet? WCM-Systeme, die HTML-Kenntnisse oder einen Web-Administrator erfordern, wirken als Flaschenhals. Folglich müssen die Mitarbeiter Informationen im Intranet selbst publizieren - entweder direkt aus Anwenderprogrammen heraus oder per Drag & Drop über den Microsoft Explorer.(...) Die Risiken der fortschreitenden Aufspaltung in traditionelle Mitarbeiter, Telearbeiter und mobile Arbeiter sind die Vereinzelung und eine behinderte Team-arbeit, zudem verteilt sich das Wissen ind den Köpfen auf viele Standorte und ist so nur schwer zugänglilch. Damit im virtuellen Büro die Kommunikation und der Austasuch von Erfahrungen nicht zu kurz kommen, enthalten Informationsportale verschiedene Werkzeuge zum Aufbau sozialer Strukturen. Gerade für Mitarbeiter, die nicht ständig online oder häufig unterwegs sind, bieten sich Diskussionsforen an. In diesen treffen sich die Mitglieder einer Projektgruppe, tauschen Informationen aus und arbeiten gemeinsam an Dokumenten, die dort abgelegt sind. Mittels elektronischer Notizzettel werden Fragen, Antworten und Hinweise plaziert, für einen direkten Kontakt gibt es zudem die Möglichkeit zum Online-Chat. Wie aber findet man den richtigen Gesprächspartner? Eine Möglichkeit sind die "Gelben Seiten" des Unternehmens. Sie verzeichnen neben den Kontaktdaten und die Funktion eines Mitarbeiters seine speziellen Kenntnisse sowie aktuelle Projekte und Dokumente, an denen er gerade arbeitet.(..) Die WAP-Technologie sorgt für einen zusätzlichen Mobilitätsschub beim Content Management. Bisher behinderten vor allem die geringe Mobildfunk-Bandbreite und die aufwendige Konvertierung der Daten durch spezielle Server einen effizienten ransfer von Informationen aus dem Intranet auf WAP-Handys. Abhilfe verspricht hier der neue Mobilfunkstandard GPRS (General Packert Radio Service), der mobilen Datenstransfer annhähernd in ISDN-Geschwindigkeit ermöglicht und kurz vor der Einführung steht." 5.8 Zur Vertiefung2. R. Capurro: Glossar zur Sacherschließung. 3. M. Rowland, D. Brenner (eds.): Beyond Book Indexing: How to Get Started in Web Indexing, Embedded Indexing, and Other Computer-Based Media. ASIS 2000. 4. G. Marchionini, A.Komlodi: Design of Interfaces for Information Seeking. In: Williams, Martha E. (ed.): Annual Review of Information Science and Technology (ARIST), published on behalf of the ASIS (American Society for Information Science), Information Today Inc., Medford, N.J.. Vol. 33 (1998), 89-130. 5.Ch. Maar, H.-U. Obrist, E. Pöppel, Hrsg.: Weltwissen - Wissenswelt. Das globale Netz von Text und Bild. Köln 2000, Kap. 3 5.9 Für Fortgeschrittene2. H.H. Wellisch: Glossary of Terminology in Abstracting, Classification, Indexing, and Thesaurus Construction , 2nd Edition, ASIS 2000. 3. Efthimis N. Efthimiadis (ed.): Advances in Classification Research–Vol. 8. Proceedings of the 8th ASIS SIG/CR Classification Research Workshop. Advances in Classification Research, Volume 8 is a compilation of papers prepared for the 8th ASIS SIG/CR Workshop on Classification Research, held at the 60th ASIS Annual Meeting in Washington, D.C. on November 1-6, 1997. Advances in Classification Research. Volume 8 concentrates on such important developments as: Classification Systems as Boundary Objects in Diverse Information Ecologies (Hanne Albrechtsen & Elin Jacob); Automatic Categorization of Statute Documents (Thomas Curran & Paul Thompson); Knowledge Class—A Dynamic Structure for Subject Access on the Web (Xia Lin & Lois Mai Chan); The Word Association Test in the Methodology of Thesaurus Construction (Marianne Lykke Nielsen); Automatic Text Categorization Using Neural Networks (Miguel Ruiz & Padmini Srinivasan); End-User Searching of Web Resources: Subject Needs and Zero-Hits (Peiling Wang & Line Pouchard). Übungen2. Was ist ein Thesaurus? 3. Welche Arten von Referaten kennen Sie und welche Vorteile bieten Kurzreferate bei der Informationssuche? 4. Erläutern Sie die Grundelemente des Screen-Designs? 5. Was ist und wozu braucht man interkulturelles Informationsdesign? 6. Erörtern Sie verschiedene Möglichkeiten der Visualisierng von Information |
|
|
|
|
Homepage | Forschung | Veranstaltungen |
Veröffentlichungen | Lehre | Interviews |