Abstract
Innerhalb des Wissensorganisationsansatzes wird postuliert,
daß hypertextartig gestaltete Informationssysteme
die Freiheitsgrade während Rezeption und Produktion produktiv
erweitern. Im Kontrast zu diesem Ansatz steht die Annahme vom
"Verlorengehen" und "Verzetteln". Hier wird
Hypertext als Handicap beschrieben, das über Optimierung
technischer Hilfsmittel ausgeglichen werden sollte. Der vorliegende
Beitrag greift den Handicap-Gedanken auf, stellt ihn jedoch
nicht als als eine pragmatische Herausforderung, sondern als ein
theoretisches Dilemma dar, dessen Lösung vorerst offen bleibt.
Ausgegangen wird von der Annahme, daß eine Betrachtung
des Umgangs mit Hypertext bruchstückhaft bleibt, wenn nicht
das softwaretechnische Funktionsinventar der Hypertextsysteme
reflektiert wird, da diese Funktionen die Produktions- und
Rezeptionsvorgänge, wenn nicht einschränken, so doch
präformieren. Zur Analyse der Hypertexttechnologie wird eine
perspektivische Skizze der technikgeschichtlichen Entwicklung von
Hypertextsystemen herausgearbeitet, aus der sich theoretisch
bedeutsame Beobachtungen ableiten lassen. So läßt
sich zeigen, daß Vannevar Bush, der Anfang der 30er Jahre
im Rahmen eines MIT-Forschungsprojektes zur Etablierung eines
integrierten Bibliotheksarbeitsplatzes das Programm Hypertext
erstmalig formulierte, offensichtlich auf das mechanistische
Assoziationsprinzip rekurrierte. Sein Konzept lief darauf hinaus,
einen externen Speicher in Analogie zu menschlichen
Denkvorgängen mit "assoziativen"
Verarbeitungsfunktionen auszustatten, um die
"künstlichen" bibiliothekarischen Indices durch
eine "natürliche" Ordnung zu ersetzen. Die
technische Implementierung der "Selektion durch Assoziation"
blieb Utopie, der Entwurf des programmatisch memory extender
(Memex) genannten fiktiven Geräts hatte jedoch leitmotivischen
Einfluß auf später tatsächlich konstruierte
Hypertextmaschinen.
In Bushs Technikutopie manifestiert sich der assoziationspsychologische,
mechanistische Grundgedanke, daß das Denken aus einer variablen
Verknüpfung gegebener Elemente besteht, die auch losgelöst
voneinander betrachtet werden können. Spätestens die
gestaltpsychologischen Untersuchungen zu Beginn des 20. Jahrhunderts
weisen allerdings nach, daß sich einzelne Elemente im menschlichen
Wahrnehmen und Denken nicht ohne kontextuellen Bezug konstituieren. Die
Hypertextforschung muß demnach mit der Hypothek leben, daß
die von Bush inspirierte Hypertexttechnologie von einer -
allgemeinpsychologisch betrachtet - unangemessenenen elementaristischen
Grundannahme ausgeht. Die schwerwiegende Folgewirkung dieser Ausgangsbasis
liegt auf der Hand: Es ist das Problem, "Wissensbausteine"
herzustellen, die möglichst ohne Kontext verständlich sind.
So ergibt sich das für Hypertextsysteme charakteristische Dilemma,
das als wechselseitige Abhängigkeit der technischen
Funktion (Vernetzung elektronischer Dokumente) und des organisatorischen
Prinzips (Isolierung elektronischer Dokumente) beschrieben werden kann.
Anwenden lassen sich diese Überlegungen beispielsweise auf die
häufig zitierte Navigationsproblematik. Der traditionelle lineare
Text verliert seine Form innerhalb eines Hypertextsystems, d.h. das
über Jahrhunderte kodifizierte "Skript" zur Form von
Büchern, Artikeln, Zeitungen, Zeitschriften, kann nicht auf die
Erzeugung elektronischer Hypertextdokumente übertragen werden.
Kohärenz im althergebrachten Sinne, so die These, wird innerhalb
von Hypertextsystemen nicht gewährleistet. Daraus folgt, daß
sich Lesestrategien, die sich bei der Rezeption traditioneller Texte
herausgebildet und bewährt haben, als inkompatibel bei der Rezeption
von Hypertextdokumenten erweisen. Schwerwiegender scheint jedoch
das Fehlen einer Rhetorik für die Gestaltung dieser neuen
Dokumentenklasse. Dies sorgt dafür, daß Hypertextautoren auf
vertraute Konventionen zurückgreifen. Daher ist auch nicht
verwunderlich, daß viele bislang produzierte Hypertexte aussehen
wie elektronische Inkunabeln.