Riders on the Info-Storm: Suchprozesse im Cyberspace

Kai Lehmann (2001)

1. Mare incognita digitalis
2. Die Surfbretter des Cyberspace
3. Die blinden Flecke des Netzes: „Oh wie gut das niemand weiß...“
4. How to navigate? “Segel setzen!”
5. Filter der eigenen Kompetenz
6. Epilog: Das Wissen im Cyberspace
7. Literaturverzeichnis
8. Endnoten

1. Mare incognita digitalis

“Frage nicht die Suchmaschinen um Rat,
denn sie werden sowohl Ja als auch Nein sagen.”
(frei nach J.R.R. Tolkien: Der Herr der Ringe)

[1] „In welcher Gesellschaft leben wir eigentlich?“, fragt Armin Pongs (1998) in seiner gleichnamigen soziologischen Einführungslektüre, die aus unterschiedlichen Richtungen auf gesellschaftliche Strukturen blickt. Eine der populäreren Perspektiven auf Gesellschaft fokussiert dabei auf den Umgang mit Informationen und Wissen1, fragt nach den Veränderungen dieser Ressourcen und deren Bedeutung für die Menschen. Mit der Postulierung der Transformation von der Industrie- zur Informations- und Wissensgesellschaft (Bell 1973, Drucker 1969, Stehr 1994) existiert eine Sichtweise, die sich darum bemüht, gesellschaftliche und vor allen Dingen ökonomische Strukturen und Veränderungen an solch schwer fassbarem wie Wissen und Informationen aufzuzäumen.

[2] Parallel dazu wandelt sich der Transport der wichtigen Ressource sowohl qualitativ als auch quantitativ: Mehr und mehr Fernsehsender, Radiostationen, Hochglanzmagazine, Durchbrüche bei den technischen Übertragungswegen und nicht zuletzt das Internet sorgen dafür, dass es niemanden nach Wissen dürsten muss. „Die Vorstellung einer regelrechten Sintflut von Informationen wird zumeist und in erster Linie mit dem Internet verknüpft (...). Alles fließt. Wo ist Halt?“ (Böckelmann/ Mahle 2000: 27) Wohl kein anderes Medium wird und wurde dermaßen durch Metaphern strapaziert, wie der Cyberspace. Mit einem bunten Bilderreigen präsentiert sich das Internet in Sachen Wissensgesellschaft entweder als Informationsflut, Generator von Datenmüll und Infosmog, oder als Wissensspeicher und globales Gehirn2. Auf der einen Seite stürzen Informationen ungeordnet und willkürlich und ohne unser Zutun auf uns ein. Am anderen Ende des Spektrums wartet eine wohlgeordnete Bibliothek, die für die Nutzerin das momentan aktuelle Weltwissen parat hält – vorausgesetzt sie beherrschen die Benutzerregeln.

[3] Die auch weiterhin deutungsmächtigen Massenmedien unterstellen dem Datenreisenden auf seiner Tour durch das Netz bedeutungsschwangere Tätigkeiten, um auf den digitalen Wellen der Informationen zu reiten. Vom Surfen, Browsen und Navigieren ist die Rede. Ein scheinbar risikoreicher Sport ohne weitreichendes Wissen über das umgebende Mare incognita. Verschiedenste (Aufmerksamkeits-) Lotsen kommen da zur Hilfe und führen durch den Cyberspace, nehmen den User an die Hand und verweisen scheinbar auf das Wahre im Falschen. Im Netz3 ist, wer etwas wissen will - oder wissen muss4, da mit der ansteigenden Schnelllebigkeit von Informationen auch der Druck zur Aktualisierung des eigenen Wissens steigt. Handlung trifft hier auf Struktur und generiert Kilobytes schwere Ergebnisse, Trefferlisten genannt, des scheinbar Gesuchten. Im Folgenden sollen Verweiskonzepte des Cyberspace und der Umgang der Nutzer mit diesen neuen Wissensvorräten phänomenologisch und analytisch beleuchtet werden.

2. Die Surfbretter des Cyberspace

[4] Die Masse an Informationen, die das Netz der Netze bereit hält, hat niemand komplett gesehen. Viele dunkle Flecke zeigen sich auf der Landkarte des Cyberspace, deren Ausmaße nur geschätzt werden können. Durch die Unbegrenztheit des Netzes kann nur das Bekannte benannt werden. Das Nichtwissen bleibt immens und diffus. Eins ist zwangsläufig: Soll Wissen zugänglich sein, bedarf es einer Struktur. Dabei gibt es keinen Anfangs- und Endpunkt im Netz. Jeder Punkt ist die Mitte und präsentiert (s)einen selektiven Blick auf das Netz. Der Einstieg bestimmt die wahrgenommene Topologie des Cyberspace, entscheidet über Existenz und Nicht-Existenz von digitalem Wissen. Zentrale Institutionen des World Wide Webs (WWW) helfen dabei, Strukturen aufzubauen und Komplexität zu reduzieren.

2.1 Der Universalist: Hypertext

[5] Basis des erfolgreichsten Internetdienstes, des World Wide Web, ist der Hypertext, der nicht internet-induziert ist und seine Wurzeln in den 30er/ 40er Jahren hat (vgl. Rada/ Murphy 1992). Als gemeinsame Plattform für theoretisch alle Medienformen ermöglich der Hypertext nicht-lineares Multimedia-Erleben. Texte, Bilder, Töne und Videos vereinigen sich hier zu einem Gesamtwerk, das doch immer fragmentarisch bleibt. Mittels der Link-Technologie ist dabei das nächste Hypertext-Dokument nur ein Mausklick entfernt. Wissen und Informationen, dass in unterschiedlichste Formen gegossen wurde, ist so durch den Hypertext mittels einer Software, des Browser, leicht zugänglich. Binnenstrukturierend für die Inhalte der WWW-Seiten wirkt ihr Design5. Auf der Programmcode-Ebene sorgen Meta-Tags, eine Art versteckter Schlagwortkatalog zum Inhalt der Seite, für Strukturierungshilfen nach außen hin6.

2.2 Klein, aber fein: Linklisten und Kataloge

[6] Das Hypertext-Konzept basiert auf der Link-Technologie. Sie bietet die Möglichkeit, die Aufmerksamkeit des Nutzers auf andere WWW-Seiten zu lenken, die Entscheidung aber beim Nutzer zu belassen. Sogenannte Linklisten kleinerer Sites bieten in der Regel eine Menge hoch qualitativer Verweise auf thematisch ähnliche Wissensbestände im Netz.

[7] Größer und professioneller sammeln (Themen-)Kataloge, wie Yahoo! und Web.de, ihnen wichtig erscheinende Links auf andere WWW-Ressourcen. Mittels einer nicht kanonischen, durchaus willkürlichen Verschlagwortung durch den Betreiber7 bieten sie der Nutzerin so Zugang zu den potenziellen Informationen. „Wenn das Internet eine Bücherei ist, dann ist hier der Katalogsaal“ (Schönert 1998). Die Aufnahme erfolgt dabei nach Vorschlag des Autoren oder mittels kleiner Computer­programme, sogenannten Spiders, die den Redakteuren des Katalogs entsprechende Daten über­mitteln8.

2.3 Die Rasenmäher des Cyberspace: Suchmaschinen9

[8] Suchmaschinen, wie AltaVista und Lycos, sind die automatischen Brüder der Kataloge. Computer­pro­gram­me, Spiders, Bots oder Crawler genannt, „lesen“ sich über die Hypertextseiten des Netzes. Sie registrieren dabei den Text, der in einer Datenbank indexiert wird und so u.a. über die spätere Auffindbarkeit der Web-Seite auf eine Suchanfrage entscheidet. Die vorgefundenen Links dagegen werden von den „Bots“ benutzt, um weitere Hypertexte zu finden, indem sie diesen einfach folgen.

[9] Die Indexierung und die Bewertungskriterien des Suchmaschinenalgorithmus’, den der Internetsurfer nutzt, um seine Trefferlisten zu generieren, sind dabei das streng geheime Lebenselixier der Anbieter. Und obwohl die Entstehungsprozesse der Suchergebnisse völlig unklar bleiben, sind die Nutzer auf die Blackbox Suchmaschine angewiesen. „Wie verschiedene Studien gezeigt haben, werden fast 90 Prozent aller Websites über die Search Engines gefunden - und nicht über Werbung in Printmedien oder Fernsehen, die 'Bannerwerbung' auf anderen Websites, Mundpropaganda oder andere Informationswege“ (Baumgärtel 1998). Meta-Suchmaschinen versuchen die Mängel einzelner Suchmaschinen zu kompensieren und fragen über ein Eingabe-Interface mehrere, teilweise näher zu bestimmende Search Engines ab und liefern komprimierte, weil abgeglichene Ergebnisse10.

2.4 Das Deep Web: Datenbanken

[10] Datenbanken sind die Informationsschätze des Netzes. In ihnen schlummern 500 mal mehr Informationen als auf statischen Hypertext-Seiten11. Während sich der Großteil der Seiten im WWW nicht verändert, also statisch ist, bieten Datenbanken Zugang zu ihrem Wissen über dynamische Seiten. Sie werden stets nach den eingegeben Suchkriterien des Nutzers generiert. Diese Seiten werden durch die Suchprogramme der Suchmaschinen nicht gefunden, da sie in der Regel nicht von anderen Seiten aus verlinkt sind. Somit fehlt den Bots das einzige Kriterium, um Seiten im Netz zu finden. Lediglich die obersten, statischen Eingangsseiten werden ggf. registriert, spiegeln aber den Inhalt der Datenbank nicht wider. Populärstes Beispiel einer solchen Datenbank ist die Encyclopedia Britannica12, die 1999 ihren Datenbestand online stellte. Das 24-bändige Werk mit seinen 44 Millionen Begriffen ist ein renommiertes Nachschlagewerk. Die kostenlose Internetpräsenz des ansonsten rund 1200 Dollar kostenden Kompendiums erreichte soviel Auf­merksamkeit, dass in den ersten Wochen die Datenbank-Server überlastet waren (vgl. Rötzer 1999c).

2.5 Aufmerksamkeitslotsen13 im Cyberspace: Portale und andere Dienste

[11] Neben den klassischen Institutionen Suchmaschine und Katalog generieren auch andere Webanbieter Aufmerksamkeit auf ihnen wichtig erscheinende Websites. Portale, große Webseiten mit einem umfang­reichen Informationsangebot über Inhalte im Netz, journalistische Produkte wie Spiegel-Online und zahlreiche andere Webseiten geben Tipps für weitere interessante Internetadressen. Ein besonders Konzept der Internetführung verfolgen dabei Dienste wie Netzpiloten.de. Zu bestimmten Themen kann sich hier die Nutzerin zahlreiche Webseiten zeigen lassen. Ein besonderes Navigationstool ermöglicht es ihr dabei, die einzelnen Seiten erst zu erkunden und sich dann weiter führen zu lassen.

2.6 Aufmerksamkeitslotsen offline: Massenmedien

[12] Nicht nur On-, sondern auch Offline wird das Internet stark thematisiert. In klassischen Massenmedien spielt der Cyberspace eine zunehmend starke Rolle. Populäre Publikumszeitschriften und Fachmagazine bringen regelmäßig „die 1000 besten Internetadressen“ oder ähnliche Verweise auf scheinbar lohnenswerte Ziele im Cyberspace. Spezielle Interneteinführungen für jede Berufsgruppe und Lebenslage und die wichtigsten 3000 Adressen erscheinen als Ratgeberlektüre und weisen die Wege ins Netz.

2.7 Wissen lassen, statt selber wissen: Agenten und Bots

[13] Unter Bezeichnungen wie Agent, Knowbot oder einfach Bot tummeln sich kleine Programme im Netz, die im Informationswirrwarr genau das herausfiltern, was der Benutzer zur Vorgabe gemacht hat. Um solche Helfer zu nutzen, ist es lediglich nötig, dem Agenten seine Interessen und Vorlieben mitzuteilen – und ihn mit diesem Auftrag in das weltweite Netz loszuschicken. Die digitalen Assistenten versuchen dann genau das holen, was man bei herkömmlichen Suchmaschinen allenfalls unter einem mitgelieferten Adressberg finden kann. Zwar steckt die ganze Technik noch in den Kinderschuhen, viele Agenten sind noch im Aufbau und mancher Suchauftrag geht ins Leere - doch einfache Konzepte verrichten bereits zur Zufriedenheit vieler Surfer ihre Dienste14.

3. Die blinden Flecke des Netzes: „Oh wie gut das niemand weiß...“

[14] Bei solch’ zahlreichen Werkzeugen, die den Nutzerinnen die Pfade im Cyberspace aufzeigen, und der gepriesenen Vielfalt der Internetinhalte, sollte es ein leichtes sein, den persönlichen Informationsbedarf zu stillen. Doch die Realität des digitalen Suchens malt ein anderes Bild. Es stellt sich die Frage, welche Inhalte im Netz eher gefunden werden und welche sich schlechter auf den Bildschirm bringen lassen? Welche Implikationen bringen die oben erwähnten Verweiskonzepte mit sich?

[15] Neben der Selektion durch die Wahl des Mediums, die Informationen, die nicht im Netz stehen, ausblendet - mit den zum Beispiel im Internet eventuell nicht abbildbaren Wissensbeständen - sind zahlreiche weitere Selektionen, technik- und subjektinduziert, vorhanden. Im Folgenden sollen einige der den Nutzerinnen meist unbewussten Konsequenzen bei Suchprozessen im Internet näher erläutert werden.15

3.1 Probleme des Hypertextes: „Lost in Hyperspace“

[16] Die Besonderheit des Hypertextes, die Nichtlinearität, die Vermischung von Inhalten und Verweisen und die starke Vernetzung der zum Teil fragmentierten Inhalte legen Nahe, sich mit den neuartigen Anforderungen an die Nutzer auseinander zu setzen. „Bei der Rezeption von Hypertexten sind unterschiedliche Klassen von kognitiven Aktivitäten wie einerseits das Lesen der Dokumente, das Enkodieren von Bildern etc. sowie die Entwicklung von Suchplänen, das Suchen, Stöbern etc. andererseits im Vollzug von ökologischen (...) Bearbeitungsakten im schnellen Wechsel permanent involviert“ (Ohler/ Nieding 1997: 221). Trotz zahlreicher Studien und Metastudien existiert momentan kein einheitliches Bild über die Eigenschaften des Hypertextes beim Wissenserwerb und Suchen (vgl. Gerdes 1997a, Naumann/Waniek/Krems 1999).

[17] Einige Ergebnisse seien hier genannt: Durch die neuartigen Strukturen kann es so zum Beispiel zur Desorientierung kommen. Der User befindet sich „Lost in Hyperspace“. Gerdes (1997:147, vgl. Edwards/ Hardman 1999) unterscheidet mehrere Teilprobleme: „Die Leserin weiß nicht,

[18] Eine nicht repräsentative Studie aus dem Jahre 1996 von Pitkow und Kehoe fand heraus, dass zahlreiche Nutzer Orientierungsprobleme im Netz haben. So gaben 35% an, dass sie gelegentlich nicht in der Lage waren, eine Seite zu finden, von der sie wussten, dass sie existiert. 24% passierte dies auch bei Seiten, die sie schon einmal besucht hatten. 14% der Befragten berichteten, dass sie Probleme hätten, sich vorzustellen, wo sie bereits gewesen wären und wo sie hingehen könnten.16

3.2 Implikationen der Suchmaschinen: „Der Teufel und der Beelzebub“

[19] Suchmaschinen, zentrales Verweiskonzept des Internet, bedürfen einer eingehenderen Betrachtung, da sie das wesentliche Zugriffskonzept in Sachen Informationssuche sind und einen dauerhaften Platz unter den zehn meist besuchtesten Webseiten der Welt haben (vgl. Baumgärtel 1998, Hölscher 1999, Günther/ Hahn 2000). Im Folgenden sollen deren oftmals unbewusste Grenzen aufgezeigt werden. Die Informationsüberlastung durch unzählige Suchergebnisse, die von Suchmaschine zu Suchmaschine vollkommen unterschiedlich sein können, gehört genau so dazu, wie die Betrachtung ihrer wissenspolitischen Rolle bei der Entscheidung über Existenz und Nicht-Existenz.

3.2.1 Informationsüberlastung: Das Wahre im Falschen finden

[20] Suchmaschinen generieren den ersten, wirklich internetspezifischen information overload. Schnell umfassen die Trefferlisten 10.000 Ergebnisse und mehr. Erst eine speziellere Suche und die Optionen der Profisuche, die die meisten Maschinen anbieten, geben Hoffnung, ein übersichtlicheres Ergebnis zu produzieren. Aber auch 500 Fundstellen im Netz sind in der Regel nicht zu sichten. Die Folge: Wer an Platz 176 steht, existiert eigentlich nicht. Die Nutzerin wird sich auf die erstbesten Ergebnisse stürzen, ggf. ihren Informationsbedarf hier befriedigt haben oder eine neue Suche einleiten17. „…it came up with streams and streams of information’s and it just tooks ages to scroll trough it all – and it never came up with anything particulary usefull…I then tried to enter words that were more specific to what we wanted, but in the end I just gave up because I couldn’t find anything” (Pollock/ Hockley 1997).

[21] Gründe für die massenhaften Fundstellen sind möglicherweise zum einen der Umfang der zur Verfügung stehen Webseiten18, der Komplexitätsgrad der zu lösenden Aufgabe (Ohler/ Nieding 1997), einer diffusen Vorstellung vom Gesuchten (Gerdes 1997), Schwierigkeiten bei der Formulierung geeigneter Suchbegriffe (Pollock/ Hockley 1997), eine zu hohe Verknüpfungsdichte der Webdokumente (Khan/ Locatis 1998), eine Vermeidung der erweiteren Suche (Voorbij 1999) sowie mangelhafte Suchalgorithmen der Maschinen und ungeeignete, inkonsistente Suchstrategien der Nutzer (vgl. dazu Abschnitt 4 und 5).

[23] Wer sich durch die Massen an scheinbaren „Treffern“ auf seine Suchanfrage geklickt und gesurft hat, ist schnell ernüchtert. Die Qualität der vorgefundenen Informationen bzw. der nicht erfüllte, weil sehr spezielle Informationsbedarf führt schnell zu Frustrationen (vgl. Pollock/ Hockley 1997). „The most serve problem seems to be the large amount on information on the Internet. As one respondent indicated: ‘There is a huge amount of information on the Internet. A simple search yields hundreds of hits, 99% of which are useless’” (Voorbij 1999: 604). Hinzu kommt, so Voorbij weiter, dass es laut Aussagen der Befragten in seiner Studie ein Mangel an qualitativ hochwertigen Wissensressourcen bzw. zuviel minderwertige Informationen aus den Suchergebnissen resultierten (ebd. 1999). Zahlreiche Verweise sind zudem nicht mehr aktuell und lassen die Suche ins Leere laufen: In einem Test der Computer Zeitung vom 30.4.1998 (zit. nach Fachhochschule Deggendorf 2000) sind zwischen 1,6% und 5,3% der Suchergebnisse nicht mehr aufzufinden.

3.2.2 Bewertungskriterien: „Die Guten ins Töpfchen, die Schlechten ins Kröpfchen“

[24] Neben der unendlichen Liste von scheinbaren Fundstellen des Gesuchten, bleiben für den Nutzer die Bewertungskriterien des Ergebnisses und der präsentierten Reihenfolge im Dunkeln. So kommen bei unter­schiedlichen Suchmaschinen zu bestimmten Suchbegriffen vollkommen unterschiedliche Ergebnisse heraus:

Suchbegriffe

AltaVista

Exite

Hotbot

Lycos

Yahoo

Wirtschaftsinformatik

8.000

3.167

10.955

0

3

Multimedia

300.000

296.530

723.945

228.793

5.568

SAP

30.000

24.856

60.855

10.632

171

Aktienkurse

900

453

1.132

66

2.510

Tabelle 1: Ergebnisse von Suchmaschinen und Katalogen für unterschiedliche Begriffe (Fachhochschule Deggendorf 2000)

[25] Da Suchmaschinen die indexierten Texte inhaltlich nicht verstehen, sind sie auf formale Kriterien zur Abschätzung der Relevanz eines Dokumentes angewiesen. Neben dem Titel der Webseite und den Meta-Tags (unsichtbaren Hinweisen auf Programmcode-Ebene), die Schlagwörter zu den Inhalten der Seite angeben, sind weitere Kriterien im Laufe der Zeit dazu gekommen, die die Suchprogramme nutzen, um eine Seite zu erfassen. So ist bei einigen Suchmaschinen die Häufigkeit, mit der das Suchwort im Text vorkommt, ein Faktor, von dem das Ranking abhängt. „Je häufiger ein Wort im Verhältnis zu den übrigen Worten auf einer Seite vorkommt, desto wichtiger muß es sein. Das bedeutet freilich auch, daß die Suchmaschinen quasi 'automatisch' kurze Texte für wichtiger ansehen als lange“ (Baumgärtel 1998). Eine Seite, die nur aus einem Wort besteht, "zählt" dementsprechend als wichtiger, als ein langer Text, in dem das gesuchte Wort immer wieder vorkommt. Ein weiteres Bewertungskriterium ist die Zahl der Links, die auf eine Seite verweisen. „Je mehr Links es auf eine Seite gibt, desto 'beliebter' und folglich 'besser' muß sie auch sein“ (Baumgärtel 1998). Dieser Mechanismus führt zu einer Hierarchisierung des Internets: Wenig verlinkte Seiten rutschen ins virtuelle Off, weil Sites, zu denen viele Links führen, bevorzugt und populäre Seiten so noch populärer werden19.

[26] Mittlerweile ist ein steter Kampf zwischen Webautoren und Suchmaschinen-Programmierern entbrannt. Denn jede neue Erkenntnis über die Funktionsweisen und Bewertungskriterien der Crawler führt zu einer Anpassung der Webseite, um in der Indexierung besser dazustehen. Den nicht immer ganz sauberen Mitteln der Seitenproduzenten versuchen die Suchmaschinen-Anbieter dann durch neue Feinheiten in der Registrierung der Seite zu begegnen.

3.2.3 Umschlagsknoten der Aufmerksamkeit:Suchmaschinen als Gatekeeper

[27] Suchmaschinen fungieren als invertierte Gatekeeper. Statt, wie in den traditionellen Massenmedien, den Zugang zur Veröffentlichung zu kontrollieren, entscheiden Suchmaschinen über die Aufmerksamkeit, die eine Site erfährt. „In ist, wer drin ist!“, lautet hier das darwinistische Motto des WWW. „Die Suchmaschinen sind aber nicht einfach nur wichtige Anlaufpunkte im Internet, sie sind vielmehr die zentralen Knotenpunkte des angeblich dezentralen, hierarchiefreien Internets, an denen die Aufmerksamkeit der Netznutzer 'umgeschlagen' und 'weiterverteilt' wird“ (Baumgärtel 1998).

[28] Die invertierte Gatekeeping-Funktion der Suchmaschinen unterscheidet sich von den Aufmerksamkeitslotsen durch die Macht-Dimension. Während letztere immer bewusst einen Ausschnitt des Netzes zeigen, sind Suchmaschinen die letzte Instanz, die fast ausschließlich über die von der Öffentlichkeit wahrgenommenen Existenz entscheiden und dementsprechend folgenreich sein können20: „Beispielsweise können die Indexierung und das Ranking von Online-Geschäften sich substantiell auf die wirtschaftliche Rentabilität auswirken; ein verzögertes Indexieren wissenschaftlicher Forschungsergebnisse kann zu einer Verdopplung der Arbeit oder zu einem langsameren Fortschritt führen; und verzögertes und einseitiges Indexieren kann gesellschaftliche oder politische Entscheidungen beeinflussen“ (Rötzer 1999b)21.

3.2.4 Blackbox: Die dunklen Seiten des Netzes

[29] Alle Hilfskonzepte, Informationen im Web zu finden, bleiben aber eine Blackbox, die der Nutzer weitestgehend nicht durchschauen kann. Bei den meisten sich herausgebildeten Institutionen der Wissens­navigation sind die Technologien, die Bewertungskriterien, das Ausgeschlossene unbekannt. Es findet eine Abgabe der Ressource statt, die eigentlich dem Netz zugesprochen wurde: Freiheit. Der Nutzer muss den Institutionen vertrauen und sich der Vorselektion, dem blinden Fleck in der Beobachtung bewusst sein.

[30] Eine Untersuchung in der Zeitschrift Nature (Lawrence/ Lee Giles 2000) brachte die eklatante Kluft zwischen Suchmaschinen und dem World Wide Web zutage: Lediglich 335 Millionen der geschätzten 800 Millionen Web-Seiten waren Anfang 1999 in Suchmaschinen verzeichnet. Die beste Suchmaschine indexierte gerade einmal 16% des Webs22. In einer Untersuchung aus dem Jahre 1997 (Lawrence/ Lee Giles 1997) waren noch rund ein Drittel des WWW in der umfangreichsten Suchmaschine enthalten. Neuere Zahlen belegen trotz Wettlauf der Suchmaschinen-Betreiber um den ersten Platz bei den indexierten Seiten keine qualitative Veränderung. Grund sind sicherlich der explosionsartige Anstieg des WWW auf nun ca. 3 Milliarden Dokumente. Momentaner Sieger Google hat lediglich rund 19% aller Seiten indexiert (Sullivan 2000). Hinzu kommt, dass eine Aktualisierung des Indices immer langsamer vonstatten geht. Lawrence und Lee Giles (ebd. 2000) gehen in ihrer Untersuchung davon aus, dass es bis zu 6 Monate zwischen Webveröffentlichung und einer Indexierung liegen können. Eine regelmäßige Aktualisierung der Seiteninhalte dürfte sich entsprechend langsam in einem aktualisierten Index wiederfinden.

[31] Aber auch willkürliche Selektionskriterien der Suchmaschinen, welche Sites indexiert werden und welche ausgeschlossen bleiben, führen zu weiteren blinden Flecken: „Wie Experimente mit den Suchmaschinen und selbstgeschriebenen Seiten gezeigt haben, schließt z.B. AltaVista Seiten von bestimmten Servern (zum Beispiel von Geocities, Compuserve oder Tripod, bei denen man sich kostenlos eine eigene Homepage anlegen kann) gezielt aus“ (Baumgärtel 1998).

3.3 Filter im Cyberspace: „Scheuklappen der Moral“

[32] Neben den kaum einsichtigen Kriterien der Suchmaschinen und technischer Defizite sorgen weitere Selektionsfilter für einen eingeschränkten Zugang zu den virtuellen Wissensbeständen. Im Folgenden werden nur beispielhaft zwei Bereiche angeführt, die die Wahrnehmung von Wissen im Netz beeinflussen.

3.3.1 Filter der Moral

[33] Ein wesentlicher Antrieb Inhalte des Netzes auszublenden, sind moralische Bedenken, Angst vor Normverstößen und der „Schutz“ möglicher Opfer; namentlich Kinder und Jugendliche werden hier bedacht. Softwarefilter auf dem heimischen PC sollen hier eine moralische Schutzzone schaffen und Webseiten, die bestimmte Schlagworte im Text oder der Webadresse enthalten, ausblenden. Vornehmlich pornographische und gewaltverherrlichende Inhalte werden so verbannt. Dabei kann die Filtersoftware lernen und neue, nicht genehme Seiten in den Zensurindex aufnehmen bzw. andere Seiten freigeben. Nutzen Erwachsene den Internetzugang kann die Software auch abgestellt werden und so alle Inhalte wieder zugänglich machen.

[34] Spezielle Suchmaschinen für Jugendliche (z.B. www.zlash.de oder www.yahooligans.com), versuchen den moralischen Bedenken gesellschaftlicher Diskurse gerecht zu werden, indem sie nur speziell aufbereitete Informationen in ihren Datenbanken anbieten. „Der zlash-Index basiert inhaltlich auf dem Fireball-Index und besteht aus mehr als 100.000 deutschsprachigen Seiten. Dabei wurde besonders darauf geachtet, dass jugendgefährdende Inhalte nicht zu finden sind“ (Corinth 2000). Doch der gut gemeinte Ansatz ist vergebens, wenn der große Bruder Fireball.de und alle anderen Suchmaschinen mit ihren unzensierten Inhalten doch nur ein Mausklick entfernt sind.

[35] Tiefgreifender gehen Internetzugänge für bestimmte Zielgruppen das „Problem“ an. Sogenannte „Gated Communities“ bieten einen „sauberen“ Zugang zum Netz und blenden „schmuddelige“ Seiten aus. Nach einem Artikel der New York Times (zit. nach Rötzer 1999d) gab es 1999 schon über 30 solcher Internetprovider, die mittels Hardware basierten Filtern Zugänge für Familien, Gewerkschaften und religiösen Gruppen anbieten. Bei American Familiy Online sind nicht nur zweifelhafte Texte, sondern auch Chatforen generell gesperrt. Mit FamilyHarbour.de gibt es seit Ende 1999 auch in Deutschland einen ersten Provider, der einen gefilterten Zugang zum Cyberspace anbietet23.

[36] Noch grundsätzlicher sind nationalstaatliche Einschränkungen der Internetinhalte und –zugänge. Nationale Abschottungen, in erster Linie undemokratischer Staaten wie China oder Iran, lassen ganze Teile des WWW komplett sperren und so nur wenige Inhalte in ihrem Land freizugänglich. Wegen moralischer Bedenken blockierten Saudi-Arabiens Tugendwächter zum Beispiel im letzten Jahr den Zugang zu den Hobby-Seiten des US-Internet-Anbieters Yahoo. Und zwar nicht nur zeitweise, sondern für immer (Klein 2000).

[37] Auch in demokratischeren Staaten finden juristische und moralische Diskurse über die Tauglichkeit, aber auch den faktischen Zugang zu bedenklichen Inhalten statt. So machten im letzten Jahr französische Richter auf sich aufmerksam, weil sie das Portal Yahoo! aus dem ‚französischen Internet’ zu verbannen versuchten. Der auch als Auktionsplattform auftretende Suchmaschinenanbieter hatte auch Devotionalien der Nationalsozialisten in seinem Angebot.

3.3.2 Filter der Ökonomie

[38] Unbewusster, aber wahrscheinlich weit aus wirksamer als die moralisch induzierten Filter, sind die Verzerrungen ökonomischer Natur. In einem Bereich, der dermaßen von Venture Capital anhängig ist und in dem sehr viel Geld für Ideen und Marktauftritte ausgegeben wird, gehören dementsprechend Verflechtungen und ein hohes Maß an Eigeninteressen zum Tagesgeschäft. Während bei Filtern bestimmte Inhalte ausgeblendet werden, kommt es bei ökonomischen „Filtern“ eher zu einer Aufmerksamkeitssteuerung auf genehme Wissensbestände. Alternatives Wissen ist dann, ganz in der Tradition der Massenmedien, nur in Nischen zu finden. Auch eine Art echter Filterung, im Sinne einer Zugangsbeschränkung, soll hier beispielhaft erwähnt werden.

[39] Mit der zunehmenden Verbreitung von Datenbanken und Multimedia-Anwendungen, der Digitalisierung von Wissen und deren dadurch leichter werdende Verbreitung, bekommen Informationen immer öfter den Status eines Privateigentums. Denn immer häufiger ist Wissen aus Datenbanken nur gegen Bares zugänglich. Oder wie beim Online-Provider AOL, mit seinen zahlreichen journalistischen Inhalten, wo der Zugang an kostenpflichtige Mitgliedschaften gebunden ist. Geld als Ressource sich den Netzzugang, die evtl. kostenpflichtigen Inhalte zu erlauben, beschränkt zudem den zeitlichen und technischen Zugang zum Netz und trennt somit von Wohlhabenden mit Wissen und Geld und Armen ohne Wissen und Geld. Auch Florian Rötzer sieht den Trend zur Kommerzialisierung des Wissens und warnt davor, diese wichtige Entwicklungsressource zu beschränken: „Die Copyrightlobby sähe es am liebsten, wenn jeder online abgerufene Inhalt gebührenpflichtig wäre“ (ebd. 2000: 35) Er befürchtet, dass privatisiertes Web-Wissen die Zensur des 21. Jahrhunderts werden könnte: „Wissen und den Zugang zum Wissen elektronisch zu reglementieren und zu blockieren bedeutet zudem, alte und neue Privilegien in einer elitären, privilegierten 'Wissensklasse' zu festigen“ (Rötzer 2000: 36).

3.4 Zwischenfazit: Die Rolle der Struktur

[40] Das Netz lebt: Es wächst unaufhörlich, gebärt neue Ideen, wuchert in allen realen Lebensbereichen. Neue Technologien, gesellschaftliche Diskurse und ökonomische Interessen verändern immer wieder den Blick auf den wahrgenommenen Cyberspace. Trotz oder gerade aufgrund der ständigen Veränderung ist das Internet nicht zu fassen, lässt sich nicht zu einem „idealen“ Wissensmedium formen. Die Nutzerin muss sich den system­immanenten Ausschlüssen stellen, sie erkennen und in Such- und Rezeptionsstrategien einbauen. Eine zentrale Prüfung und Registrierung der vielen Inhalte im WWW kann nicht stattfinden. „Informationen im Netz zu recherchieren, ist demnach ein aktiver Prozeß der Auseinandersetzung mit den zu recherchierenden Informationen“ (Batinic 2000: 36).

Abbildung 0: Das Web teilt sich in vier gleich große Teile (Hosbach 2001: 112)

[41] Ausgangspunkt dieser Arbeit war die Frage, welches Wissen sich im Internet finden lässt? Eine Studie von IBM, AltaVista und Compaq aus dem Jahre 1999 unterteilt das Netz in vier Klassen, die sehr schnell deutlich werden lassen, wo die blinden Flecken konzeptionell liegen.

[42] Es gibt die Einstiegsseiten, die auf andere verlinken, aber selbst nicht verlinkt werden. Die Endpunkte sind verlinkt, verweisen aber auf keine externen Inhalte. Zentraler Punkt des WWW ist das Herz mit Seiten auf die verlinkt wird und die selber verlinken. Daneben gibt es die unverbundenen Seiten, die als Inseln im Wissensmeer ihr Dasein fristen. Alle vier Bereiche sind in etwas gleich groß. Dies bedeutet, dass die Suchmaschinen aufgrund ihrer Vorgehensweise nur das Herz und die Endpunkte finden können – gut 50% des Netzes (Broder/ Kumar/ Maghoul1 1999). Alle weiteren Seiten sind darauf angewiesen, dass sie von den Autoren selbst in die Datenbank der unzähligen Suchmaschinen eingetragen oder von anderen Aufmerksamkeitslotsen ans „Tageslicht“ gefördert werden.

[43] Durch die Verzerrungen der Wahrnehmung kommt es zu einer „Emanzipation der Zeichen“ (Baudrillard 1982). Der zunehmende Umfang computervermittelter Kommunikation und Interaktion – gerade bei Suchprozessen im Netz ist dies der Fall – lässt das Reale verschwimmen: Die Symbole und Zeichen agieren anstelle der Wirklichkeit. Ist Wissen nicht zu finden, existiert es nicht, eine nicht aufzurufende Webadresse legt den Schluss nahe, dass die Eingabe fehlerhaft ist oder die Adresse nicht mehr existiert. „Our participants often assumed that the Internet did not have relevant information when results returned to them did not appear to make sense, when in fact their queries were answerable“ (Pollock/ Hockley 1997).

4. How to navigate? “Segel setzen!”

„There are four basic questions one must ask when traversing the peaks of Grand Tetons, the caverns of New York or the wonders of World Wide Web:
Where I am? Where do I want to go? Am I on the right path? Am I there yet?”

(Bachiochi et.al.1997)

[44] Ob Datenflut oder Weltbibliothek: Unzählige Informationen sind im Cyberspace zu entdecken - tagtäglich werden es mehr, wenn wir den zahllosen Studien der aus dem Boden sprießenden Marktforschungsinstituten glauben schenken dürfen. Entgegen den Flut-Metaphern24 gibt es sehr wohl Strukturen im Netz, wie oben ausführlich beschrieben wurde. Doch wie gehen die Nutzer und Nutzerinnen mit dem ambivalenten Potenzial des Cyberspace um?

[45] Der Nutzer sei faul, behauptet Wolfgang Schweiger in der Fachzeitschrift Journalist (ebd. 2001): Er scannt nur die Passagen, überfliegt die Seiten, und benutzt Links nach dem Prinzip „Trial & Error“. Schnell sei er gefrustet, so der Münchener Kommunikationswissenschaftler, benutze tendenziell den erstbesten Link und erwarte bekannte Strukturen bei Aufbau und Inhalt der Seiten, um sich schnell zurecht zu finden.

[46] Die Diagnose kommt ernüchternd daher, sind doch so viele Hoffungen mit dem Internet verbunden: Eine Demokratisierung des Wissens, ein neues Lernen, Transparenz und viele weitere Schlagworte geistern durch die Diskurse und verbreiten den Glanz des Neuen. Doch gibt Schweiger einen ersten Hinweis auf erst entstehende Verhaltensmuster im Umgang mit den neuen Wissensformen. Den Handlungen der Nutzerinnen - das Navigieren, Selektieren und Suchen im Netz - soll sich im Folgenden genähert werden.

4.1 Die Suche im Netz: „Zwei vor, eins zurück...“

[47] Hölscher (1999) fokussiert in einer empirischen Untersuchung mit Internet-Experten25 auf die zwei grundsätzlichen Strategien bei der Suche im Netz. Ein nicht-intentionales Browsen26 auf der einen Seite und das zielgerichtete (Auf-)Suchen einer Website, einer Information auf der anderen Seite markieren die beiden Pole des Handlungsspektrums im World Wide Web27. Neben der Nutzung einer Suchmaschine und der Angabe eines oder mehrerer Suchbegriffe (Querying) ist das ansurfen einer erfolgsversprechenden Website, eines Kataloges oder Portals mit anschließendem Browsing innerhalb der Bestände eine weitere Suchoption. Abbildung 1 beschreibt die generellen Handlungsoptionen, die Nutzerinnen haben, wenn sie sich auf die Suche begeben. Die dabei angegeben Zahlen sind die aus der Studie resultierenden Übergangswahrscheinlichkeiten zwischen den einzelnen Modellschritten. So zeigt sich, dass nur Zweidrittel aller Experten eine Suchmaschine direkt aufriefen. Wurde über diese ein relevant erscheinendes Dokument gefunden, führt dies in der Hälfte aller Fälle zu einem Browsing innerhalb des Dokumentes, welches zum Ziel führen, aber auch mit einem Rücksprung zur Suchmaschine enden kann. „Die Experten in dieser Studie wechseln also häufig und bedarfsorientiert zwischen Querying und Browsing“ (Hölscher 1999).

[48] Die Abbildung 2 dagegen fokussiert feiner auf die direkte Interaktion mit einer Suchmaschine. Die geraden Verbindungen von oben nach unten entsprechen dabei den üblichen Optionen einer Suchanfrage. Das abweichende Verhalten besteht im wesentlichen aus Handlungen, die die Experten ausführten, um Re- und Neuformulierungen der Suchanfrage zu initiieren oder weitere Ergebnisse der Suchmaschine anzufordern. Hölscher (1999) zeigt, dass Experten in verstärktem Maße Gebrauch von erweiterten Suchmöglichkeiten, wie Booleschen Ausdrücken und Formatierungen, machen.

4.2 Typologien des Suchens

Abbildung 1 und 2: Der Handlungsprozess der Suche im Cyberspace (Hölscher 1999)

[49] Die Studie von Hölscher (ebd. 1999) greift zwei wesentliche Begrifflichkeiten des Nutzerverhaltens auf: Browse vs. Search. In der informationswissenschaftlichen Literatur28, die vornehmlich die Navigation als Form der Suche in Hypertexten untersucht, findet sich eine zahllose Reihe von verschiedenen Handlungstypologien, die das Verhalten der Nutzer kategorisieren: Cove und Walsh (1988) unterscheiden für Hypertexte zwischen einer zielgerichteten Suche (Search Browsing), einer Suche die erfolgsversprechende Informationsquellen durchstöbert (General Purpose Browsing) und einer gänzlich zufälligen Suche (Serendipity Browsing). Auch Carmel, Crawford und Chen (1992) nennen drei, Canter, River und Storrs (1985) sogar fünf Handlungstypologien, die nicht immer eindeutig voneinander abzugrenzen sind (vgl. die Diskussion bei Weber/ Groner 1999). Allen diesen Typologien, so trennscharf oder –unscharf sie auch immer sein mögen, ist eines gemeinsam: Sie spannen ein Kontinuum von möglichen Handlungsmöglichkeiten auf. An dem einen Ende steht das zielgerichtete Suchen in einer Umgebung, in der die gewünschte, konkrete Information schon vermutet wird. Dagegen wird der andere Pol von einer eher explorativen, spielerische Suche bestimmt, ohne dass das Ziel konkret oder dauerhaft sein muss.

[50] Marchionini (1989) sowie Rada und Murphy (1992) weisen darauf hin, dass das Suchverhalten auch massiv von der Art der Suchaufgabe geprägt ist. Rada und Murphy (ebd.) grenzen die Begrifflichkeiten „search question“ und „browsing question“ voneinander ab, um Faktensuchen, dass sich auf einen Blick findet, vom Suchen nach Zusammenhängen zu unterscheiden: „The answer to a search question could be found in one section of the book, whereas the answer to a browse question occurred across sections“ (Rada/ Murphy 1992: 1). Marchionini (1989) nennt in seiner Studie „open tasks“ und „closed tasks“, die ähnlich konzeptioniert sind.

[51] In Anlehnung an Wirth und Brecht (1999) scheint mir eine erweiterte, mehrdimensionale Betrachtung der Handlungsweisen angebracht29:

[52] Sicherlich überlappen sich viele dieser Kategorien und andere lassen sich noch finden. Grob vereinfacht aber können die oben aufgeführten Dimensionen unter zwei grundlegende Paradigmen eingeordnet werden: Rational Choice vs. heuristische Strategie. In der Überbetonung des Internet als Informationsmedium ist in vielen Studien sicher explizit oder implizit das rationale Paradigma verstärkt mit eingeflossen. Zentrale Instanz der Selektionsentscheidung ist hier dann der Nutzer, während unter dem heuristischen Paradigma verstärkt auch das Spontane, beeinflusst durch die vorgefundenen Inhalte, mit einfließt.

[53] Das Suchen im Netz ist eine Sonderform des Selektierens von Inhalten, das beim Navigieren durch den Hypertext immer gefordert ist. Welche Rahmenbedingungen und Entscheidungsregeln für die Selektion im Netz verantwortlich sind, soll in den folgenden Kapiteln geklärt werden.

4.3 Theoretische Rahmenbedingungen

[54] Ausgangspunkt jedweder Informationsaufnahme ist die Selektion aus einer Vielzahl von Medien und Wissensbeständen. Dabei ist die viel zitierte Informationsflut kein Kind des Internet. Bereits Ende der achtziger Jahre blieben durchschnittlich 98 Prozent der von den Massenmedien produzierten Informationen beim Publikum unbeachtet (Brünne/ Esch/ Ruge 1987, zitiert nach Donsbach 1998:27). Da besitzt auch die ständige Zunahme des Netzumfanges, der erreichbaren Informationen keine qualitative Bedeutung für den Selek­tions­­prozess mehr. Längst hat das World Wide Web Dimensionen erreicht, die eine vollständige Betrachtung verhindert. So bleibt es nebensächlich ob der Nutzer in zwei oder vier Milliarden Dokumenten surft und seinen Wissensbedarf stillt. Der viel zitierte „Information Overload“ hat längst eingesetzt (vgl. Borck 1998).

[55] Wie viel Prozent der Medien on- oder offline es auch genau sein mögen, die nicht wahrgenommen werden (können): Unbestreitbar ist, dass das Auswählen von Informationen aus Medien schon im „analogen Zeitalter“ zwingende Notwendigkeit der Rezeption war. Eilders (1999) beschreibt dabei die Komplexitätsreduktion durch die Selektion sogar als notwendige anthropologische Konstante. Sie ist „alltägliches Erfordernis im Umgang mit Umweltreizen“ (ebd: 14). Durch das Internet ist diese Situation sicherlich nicht besser geworden: Komplexitätsreduktion zur Wahrnehmung der Welt ist weiterhin ein Muss32, gerade weil der (nicht zwangsläufig negative) Druck33 zugenommen hat.

[56] So verwundert es nicht, dass das Konzept der Selektion für Kommunikationswissenschaftler ein zentrales Handlungsmotiv darstellt. Wirt und Schweiger (1999) versuchen in ihrem aktuellen Sammelband dieser Bedeutung gerecht zu werden und transferieren das Konzept auf die Auswahl von Internetinhalten. Denn die wesentliche Errungenschaft des World Wide Web, der Hypertext mit seinem multimedialen Verknüpfungs­potenzial, ist Ursache für eine ständige Selektion. Im Gegensatz zur Berieselung durch den Fernseher und das Radio bedarf das Internet immer einer Entscheidung für eine weitergehende Rezeption34. Zudem kommt im Vergleich mit Zeitungen und Zeitschriften hinzu, dass die potenzielle Nicht-Linearität der Internettexte zu erhöhter Entscheidung zwingt, wo und wie inhaltlich angeschlossen werden kann und soll (vgl. Wirt/Schweiger 1999a: 47f).

[57] Die kommunikationswissenschaftliche Selektionsforschung hat ihre Wurzeln in der Frage, warum Medienwirkungen bei Nutzern ausbleiben: Der dissonanztheoretische Ansatz degradierte die Nutzer zu Objekten der Medien­wirkungen. Anfang der siebziger Jahre wurden diese dann nicht mehr als Objekte, sondern als handelnde Subjekte betrachtet. Der Uses & Gratification-Ansatz brachte eine funktionalistische Perspektive in den Medienkonsum ein und fragte nach den Motiven der Selektionshandlung (vgl. Eilders 1999, Tasche 1999, Wirth/ Schweiger 1999a).

[58] Selektion ist aber mehr als nur eine binäre Handlung von Auswählen/ Nichtauswählen. Wirth und Schweiger (1999a) betrachten sie als eine selektive Verteilung von Aufmerksamkeit. Dabei findet die zumindest periphere Rezeption des Textes parallel zum Selektionsvorgang statt, um die Informationen zu dekodieren, die für den Selektionsprozess notwendig sind. Selektion ist damit für die beiden „der Aspekt des Nutzungs- und Rezeptionsprozesses (und damit als Teilprozess), bei dem vor dem Hintergrund begrenzter Ressourcen die eingehenden bzw. aufgenommene Informationsmenge auf ein erträgliches oder angenehmes Maß für die Weiterverwendung reduziert wird“ (Wirth/ Schweiger 1999a: 46).

4.4 Die Selektionssituation

[59] Ohler und Niedig (1997) nennen mehrere Faktoren, die die Interaktionsgüte mit Hypertexten beeinflussen: Sie machen „kognitive Stile und Fähigkeiten der Benutzer im Bereich räumliche Kognition, Komplexität der zu lösenden Aufgabe sowie Art der Informationsdarbietung auf der Benutzeroberfläche und hier vor allem Formen der Visualisierung“ (ebd., 220) für die Güte der Interaktion verantwortlich. Wirth und Schweiger (1999a) schlagen ein umfassenderes, ökologisches Handlungsmodell vor, dass die Rahmenbedingungen der Selektion mit einbezieht, um so die Handlungen besser verstehen zu können.35

[60] Sie beschreiben dafür Webseiten als Texturen, die aus drei Bestandteilen bestehen: (a) redaktionellen Inhalten, (b) Navigationselementen und (c) redaktionell und navigatorisch irrelevanten Dingen, die in erster Linie der Werbung, Unterhaltung oder Ästhetik verpflichtet sind. Links haben darüber hinaus den Zweck zu redaktionellen Inhalten zu führen. Diese „Optionen“ werden durch „Attribute“ auf der Webseite beschrieben.

4.4.1 Medienmerkmale

[61] Das Medium, also in unserem Falle das World Wide Web, ist geprägt durch die Anzahl der Handlungsoptionen. Bei Wirth und Schweiger sind dies die Links zu redaktionellen Inhalten. Dabei vergessen sie die Möglichkeit des Verweises auf andere Medienoptionen des Internet: So könnte der User auch eine Email schreiben oder in ein Webchat-Programm aktivieren. Der Begriff der Optionen kann aber ohne Verlust der vortheoretischen Konsistenz entsprechend erweitert werden.

[62] Bei der Linkrezeption spielt die Modalität der Optionen eine wichtige Rolle. Werden sie ikonisch, semantisch oder numerisch dargeboten? „Offenbar orientieren sich Nutzer bei einer visuellen Darbietung stärker an der Auffälligkeit der Attribute, bei numerischen Ausdrucksweisen werden die Attributswerte hingegen miteinander verrechnet“ (Wirth/ Schweiger 1999a: 57)

[63] Hinzu kommt die Attributierung der Links: Wie viel erfährt der Nutzer über die möglichen Handlungsalternativen? „Attribute ermöglichen die Evaluation eines Links, ohne dass das Ziel eines Links angesteuert werden muss“ (Wirth/ Schweiger 1999a: 56). Dabei kann die wahrgenommene Qualität des Attributs je nach Motivation schwanken.

[64] Die Komplexität, gegeben durch Handlungsoptionen, Beschreibungen und Inhalte, und die Strukturierung der Webseite sind weitere wichtige Merkmale des konkreten Mediums.

4.4.2 Personenmerkmale

[65] Erfahrungen, auch im Sinne von Medienkompetenz, Motivationen und Interessen, Habitualisierung der Mediennutzung und kognitive Stile prägen als persönliche Merkmale des Nutzers den Umgang mit dem Medium.

4.4.3 Situative Merkmale

[66] Die unmittelbare Situation der Hypertext-Rezeption ist geprägt von der Transparenz der Handlungsmöglichkeiten, der Kontrolle über den Rezeptionsprozess, die Möglichkeit der Reversibilität, sprich des Rückgängigmachens von Navigationsentscheidungen, dem kognitiven Aufwand der Selektionsentscheidung auf Grund der Komplexität der Seite und dem Verhaltensaufwand für einzelne Selektionshandlungen.

4.4.4 Kontextuelle Merkmale

[67] Daneben bestimmen finanzielle und zeitliche Kosten die Navigationsstrategie. Auch die Länge des Entscheidungsweges und die Optionsdichte, ausgedrückt durch die Anzahl der Möglichkeiten pro Entscheidung ziehen Wirth und Schweiger (ebd. 1999a) als relevant mit in die Bedingungen mit ein.

4.4.5 Resümee

[68] Auch wenn nicht alle Merkmale des Modells die gleiche Wertigkeit haben, einige sich scheinbar auf andere zurückführen lassen bzw. in abstraktere Merkmale zusammen fassen lassen, zeigt der Rahmen der Selektionssituation die Vielfalt der Einflussfaktoren auf die Navigationsentscheidung auf. „Wie die Forschung der Entscheidungspsychologie zeigt, sind die Situationscharakteristika und die gewählten Entscheidungsstrategien nicht unabhängig voneinander“ (Wirth/ Schweiger 1999a: 65). In diesem Sinne wird deutlich, dass sich Selektion und Navigation im Netz nicht funktionalistisch oder rational reduzieren lassen, sondern eine Vielzahl an Strategien, abhängig von der Situation, angewandt werden.

4.5 Formen der Navigation: Nutzungstypologien

4.5.1 Das Clickstream-Modell

Abbildung 3: Mikroperspektive einer Selektionshandlung im WWW (Wirth/ Brecht 1999: 157)

[69] Nachdem das grundsätzliche Verhaltensspektrum und der Rahmen der Selektionsbedingungen skizziert wurden, bleibt nach der Modellierung der Entscheidungssituation und konkreten Navigations- und Entscheidungstypologien zu fragen. Wirth und Brecht (1999) untersuchten dazu die Navigationshandlungen von Nutzern, denen das Clickstream-Handlungsmodell unterstellt wurde.

[70] Die vier Hauptkomponenten (Selektionsziel, Selektionsorientierung, Selektionshandlung und Zielevaluation) beschreiben die Selektionshandlung auf der Mikroebene: „Ein Ziel kann beispielsweise ein bestimmter Inhalt, Anbieter oder eine Navigationshilfe, es kann sehr spezifisch oder nur allgemein und schließlich intendiert oder eher spontan gefasst sein“ (Wirth/ Brecht 1999:156). Die Selektionsorientierung beschreibt die Merkmale, die der Nutzer als Auffälligste in seine Überlegungen einbezieht. Die Navigationshandlung erfolgt dann rational-intendiert oder als affektiv-spontane De-facto-Selektion aus der Menge der technisch möglichen und subjektiv wahrgenommenen Aktionen. Schließlich erfolgt eine Evaluation des Zieles, die die weitere Wahrnehmung und das Ziel beeinflusst.

4.5.2 Empirische Befunde: Handlungstypen

[71] In zahlreichen Studien wurde über die Typisierung des Navigationsverhaltens hinausgegangen und auf das konkrete Surfverhalten der Nutzerinnen geschaut. Catledge und Pitkow (1995) beobachteten nonreaktiv die Handlungen der Nutzer anhand von Logfile-Analysen. Die Auswertungen ergaben, das 42% aller Aktionen als rückwärtsgerichtete Navigation mittels „Back-Button“ klassifiziert werden können. Sie fanden verschiedene Muster, die den einzelnen Browser-Typologien von Cove & Walsh (1988) zugeordnet werden können. ‚Serendipitous browser’ zeichnen sich demnach durch viele, verschiedene, dafür aber sehr kurze Pfade aus. ‚Searcher’-Verhalten identifizierten sie dagegen durch wenige, dafür lang anhaltende Wege durch die Webseiten. Tauscher und Greenberg (1997, zit. n. Wirth/ Brecht 1999) wiesen mittels Logfile-Analyse ebenfalls die Bedeutung der regressiven Nutzungsweise nach. Mit einer Wahrscheinlichkeit von 58% wird bei einer Selektion eine bereits zuvor aufgesuchte Seite aufgerufen. Die Aktivierung der Back-Funktion (30%) und eines Links (50%) sind die häufigsten Navigationshandlungen. „Nutzer im World Wide Web kehren im Allgemeinen gern zu zentralen Seiten zurück, um Informationssuchaufgaben zu bewältigen“ (Wandke/ Hurtienne 1999a: 282). Ein häufig vorgefundenes Navigationsmuster ist dabei der Nabe-Speiche-Typ. Die Nutzerinnen untersuchen von einer zentralen, für das Gesuchte viel versprechenden Seite aus die verlinkten Webseiten und eruieren nach dem ‚Trial & Error’-Prinzip deren Inhalte. Dann kehren sie wieder zur Ausgangsseite zurück und setzen die Suche fort. Tauscher und Greenberg (1997) fanden zu dem den Typus des ‚depth-first-search’. Hier verfolgen Nutzer die Links bis in die tiefste Hierarchieebenen hinein, um dann wieder zur zentralen Ausgangsseite zurückzukehren.

Abbildung 4: Prozentuale Verteilung der Selektionshandlungen auf den jeweils dominanten Pol (Wirth/ Brecht 1999)

[72] In einer aufwendigen Studie untersuchten Wirth und Brecht (1999) die Navigationshandlungen genauer und kamen zu 10 Typologien, die auf fünf Ebenen entgegengesetzte Pole bilden. Durch eine differenziertere Handlungstypologie zeigt sich, dass die hohen Wahrscheinlichkeiten für bestimmte Handlungen, wie sie in den obigen Studien vorkommen, deutlich niedriger ausfallen.

[73] Die dargestellten Dimensionen sind genau genommen keine Typen, sondern eher Faktoren. In Reinform dürften sie kaum auftreten. Das Navigationsverhalten setzt sich vielmehr aus allen diesen Dimensionen in unterschiedlicher Gewichtung zusammen. „Erklärt man sich mit einem gewissen Informationsfluss einverstanden, so kann man jede Selektionshandlung dem Pol und damit dem Idealtyp zuordnen, der quantitativ am stärksten ausgeprägt ist“ (Wirth/ Brecht 1999: 174f).

4.6 Das Modell des adaptiven Nutzers

[74] Wirth und Schweiger entwickeln in Anbetracht der vielen empirischen Befunde und theoretischen Überlegungen zum Selektionsverhalten das Modell des adaptiven Nutzers, der im Idealfall vier unterschiedliche Entscheidungstypologien zeigt, die er je nach Situation wählt.

[75] Resümierend bleibt festzuhalten, dass das Modell des adaptiven Nutzers ein Verhalten skizziert, dass den kognitiven Anspruch der medialen Situation entweder erfüllt oder nur einige wesentliche Faktoren berücksichtigt, um „somit schneller und mit geringerem kognitivem Aufwand zu einer dann aber häufig suboptimaleren Entscheidung“ zu kommen (Wirth/ Schweiger 1999a: 68). Auch Wirth und Brecht (1999) kommen zu ähnlichen Ergebnissen in ihrer Untersuchung: „Vielmehr reagieren Nutzer da eher spontan und wenig reflektiert, wo für sie wenig auf dem Spiel steht. (...) Umgekehrt lassen sich subjektiv begründete und reflektierte Entscheidungen besonders häufig dann finden, wenn ein neues Ziel festgelegt wird. So setzt der ‚adaptive’ Nutzer kognitiven Aufwand da ein, wo es ihm erforderlich oder wert scheint (...)“ (ebd: 177).

5. Filter der eigenen Kompetenz

[76] Neben den weiter oben beschriebenen gesellschaftlichen, ökonomischen und technischen Filtern, die sich direkt auf das vorhandene Wissen im Netz auswirken, kommen auch kognitive Effekte beim Individuum zum Tragen, die die Wahrnehmung der Netzinformationen beeinflussen und den Zugriff darauf reglementieren.

[77] Die erste Gruppe von subjektiven Filtern36 sind wissens-, besser bildungsinduziert, zwei weitere Einflussgrößen im Umgang vor allem mit den Neuen Medien sind die technische Medien- und die reflektierende Wissenskompetenz.

[78] Unterschiedliche Wissensarten sind also entscheidend für einen kompetenten Umgang mit Medien und Wissen in der Informationsgesellschaft: Wissen über das Web, über die Suchinstrumente, über den Suchgegenstand (vgl. Weber/ Groner 1999), aber auch Allgemeinbildung (Pollock/ Hockley 1997), Erfahrungswissen (Hsieh-Yee 1993) und vor allen Dingen Kompetenz Wissen zu bewerten (vgl. Hubig 1998) sind unerlässlich. Dabei sind die einzelnen Wissensbereiche nicht voneinander zu trennen: „The results showed that search experience affected searcher’s use of many search tactics, and suggested that subject knowledge became a factor only after searchers have had a certain amount of search experience“ (Hsieh-Yee 1993: 161). “Kompensatorische Effekte können ebenfalls nachgewiesen werden, insbesondere für die simulierten Suchaufgaben: Web-Experten, denen es an Inhaltswissen über den Euro fehlt, konzentrieren sich sehr auf formale Aspekte der Suche (Boolesche Verknüpfungen etc.), während jene Volkswirtschaftskundige, die nur wenig Web-Wissen haben, auf solche Formatierungen meist verzichten und statt dessen bei der Auswahl von Suchbegriffen Kreativität und Flexibilität beweisen“ (Hölscher 1999).

6. Epilog: Das Wissen im Cyberspace

[79] Die vorherigen Ausführungen zeigen, dass sich Wissen im Cyberspace anders erschließt, als es Individuen bisher gewohnt waren. Strukturen, Techniken und Implikationen des neuen Wissensspeichers ändern sich dynamisch. Das Wissen darüber muss immer wieder auf den neuesten Stand gebracht werden. Der Umgang mit dem Internet bedarf dafür nicht nur einer Medienkompetenz. Wenn sich Wissen erschließen sollen, bedarf es eines reflektierten Wissens über Wissen39, denn dessen Strukturen und –prozesse ändern sich. Die Ursachen sind nicht allein durch das Internet induziert, sondern begründen sich u.a. in einer generellen Computerisierung der Gesellschaft, die zudem selbst einem grundlegenden Wandel unterliegt. So schließt sich der Kreis, indem die Arbeit, wie schon in der Einleitung, nach dem Umgang mit Wissen in der Gesellschaft fragt.

[80] Wissen und Informationen sind in Bewegung gekommen: Nicht nur im Internet unterliegen sie einer hohen qualitativen wie quantitativen Dynamik. Informationen zählen nur, wenn sie neu und aktuell sind. Ein unendlicher Apparat sorgt deswegen unentwegt für Nachschub. Das neue Wissen dominiert das alte, da die Halbwertzeit von Wissen immer geringer wird. Niemanden interessiert, was gestern war, viel mehr wollen alle am Morgen teilhaben. (Degele 2000, Weizenbaum 2001). Als ein Beispiel aus der ‚Offline-Welt’ mag das selbstreferenzielle System der Börse dienen. Hier sollen die Kurse nie das Heute, sondern stets die Zukunft der Unternehmungen widerspiegeln. Entsprechend extrapolieren Analysten die Entwicklungen des Unternehmens ins Ungewisse, um die stark vom Nichtwissen geprägten Empfehlungen bzw. Nichtempfehlungen auszusprechen. „Antizipierte Informationen“ werden so Grundlage des Handelns, dass so selbst wieder Informationen schafft. Nicht mehr der faktionale Gehalt ist entscheidend, sondern die Anschlussfähigkeit der Information. So mischt sich Fiktionales und Faktionales zu einer von vielen Wirklichkeiten. Verstärkt tritt der Wegfall dieser Distinktion im Digitalen auf, wo Quelle und Kontrolle unerreichbar sind (vgl. Schetsche 2000).

[81] Dabei hat modernes Wissen einen doppelten Selbstbezug. Zum einen wird das Individuum zum Hamster im Laufrad, wie es Diskurse vom lebenslangen Lernen zeigen. Da nichts bleibt, wie es war, muss stetig Neues gelernt werden, Altes verliert rasant an Wert: „Es gehen diejenigen Sicherheiten verloren, die auf der Grundlage klassischen Expertenwissens gewachsen sind: die formale Qualifikation, das abgegrenzte Fachgebiet, der stabile Korpus der Wissensdomäne“ (Degele 2000: 255)40. Also kann Wissen in der Wissensgesellschaft nur dazu dienen, neues Wissen zu erschließen.

[82] Auf der anderen Seite ist die Wissensgesellschaft auch ihr eigener Problemgenerator: Sie benötigt immer neues Wissen, um weiterbestehen und –produzieren zu können. Ähnlich passiert es im Internet, steht doch gerade hier Aktualität an erster Stelle. Wie ein Paradigma zieht es sich es als Forderung durch den virtuellen Raum: Nur eine aktuelle Seite ist lohnenswerter Anlaufpunkt für die Nutzerinnen. Daten(banken) über das digitale Datenmaterial im Netz, Design-, Marketing- und Rechtsstudien werden erstellt und online zugänglich gemacht. In Newsgroups und Mailinglisten werden zusätzlich zum Web Inhalte generiert, gespeichert und so dem Cyberspace einverleibt. Längst ist das Netz der Netze nicht nur Abbild bestehender Bibliotheken, sondern enthält auch spezifisches Wissen, das sich nur hier findet.

[83] Die Fluktuation von Wissen ist immens. Mit der ewigwährenden Speicherung von Webinhalte ist es dabei nicht weit her. Koehler (1999) zeigt, dass das World Wide Web längst nicht so beständig in seinen Inhalten ist, wie den speicherbaren, digitalen Daten gern unterstellt wird: „If the Internet is truly world brain or its infantile precursor (...) two things can be said for it. World brain has a short memory. And when it does remember, it changes its mind a lot” (Koehler 1999: 179).

[84] Die neuen Informationsfluten des Cyberspace sind auch einer scheinbaren Demokratisierung der Veröffentlichung geschuldet. Im Kontrast zu anderen (Massen-)Medien können im Internet mit geringem technischen Aufwand beliebige Inhalte weltweit veröffentlicht werden. Die gesellschaftlichen Selektionsmechanismen werden hier nicht mehr durch die traditionellen Gatekeeper der Massenmedien ausgeübt. Vielmehr steuern Aufmerksamkeitslotsen, die ein Gatekeeping der Wahrnehmung betreiben, die Nutzerströme. Im Unterschied zu analogen Zeiten aber sind diese Prozesse nicht mehr absolut. Auch massenmedial ignorierte Wissensbestände können nun ein weltweites Publikum finden (vgl. Schetsche 2000).

[85] Um mit Koehler (1999) zu sprechen, bildet das digitale Wissen des Netzes einen “third way“ neben dem oral- und dem analog medialverbreiteten Wissen. „(...) Web documents differ from oral, unrecorded communi­cations in that they are stored and retrievable (…). At the same time, Web documents differ from the second form, ‘traditional’, recorded materials in that they are highly ephemeral, do not preserve their intellectual provenance, and are owned and maintained centrally” (Koehler 1999: 178). Mit einer hohen Verbreitungsmächtigkeit (Schetsche 2000) haben digitale Inhalte zudem die Chance schnell und weitreichend verbreitet und verarbeitet und so von traditionellen Massenmedien in gesellschaftliche Diskurse umgewandelt zu werden. Diverse Anschluss- und Verbreitungslogiken entscheiden dabei über die Lebensfähigkeit und Umsetzung des Wissens auf andere Ebenen (vgl. Schetsche 2000). Der Cyberspace ist also weniger eine Bibliothek der Welt, als viel mehr eine mit Kontingenz gefüllte Sandkasten-Gesellschaft.

7. Literaturverzeichnis

Akademie.de (2000): Datenbanken, die unausgeloteten Tiefen des Internets?. [WWW-Dokument: http://www.akademie.de/news/langtext.html?id=6668 - Zugriff: 05.11.2000]

Bachiochi, D., M. Berstene, E. Chouinard, et. Al. (1997): Usability Studies and Designing Navigational Aids for World Wide Web.[WWW-Dokument: http://www.scope.gmd.de/info/www6/technical/paper180/paper180.html - Zugriff: 07.03.2001]

Batinic, Bernard (1996): Drei-Länder-Umfrage. [WWW-Dokument: http://www.psychol.uni-giessen.de:80/~batinic/ survey/drei_1.html – Zugriff: 11.05.1998]

Batinic, Bernard (Hrsg.)(1997): Internet für Psychologen. Göttingen, Bern, Toronto: Hogrefe

Batinic, Bernard (2000): Der Nutzer in der Informationsgesellschaft. In: Mahle, Walter: Orientierung in der Informationsgesellschaft. AKM-Studien Bd. 43, Konstanz: UVK Medien, 33-44

Baudrillard, Jean (1982): Der symbolische Tausch und der Tod. München: Merve

Baumgärtel, Tilman (1998): Reisen ohne Karte. Wie funktionieren Suchmaschinen?, WZB Discussion Paper FS II 98-106, Wissenschaftszentrum Berlin

Bell, Daniel (1973): The Coming of Post-Industrial Society: a Venture in Social Forecast. New York: Basic Books

Böckelmann, Frank und Walter Mahle (2000): Die politische und kulturelle Orientierung des Individuums als Nutzer in der Angebotsflut der Informationsgesellschaft. In: Orientierung in der Informationsgesellschaft. AKM-Studien 43, Konstanz: UVK Medien, 25-29

Bork, Thomas (1994): Informationsüberlastung in der Unternehmung Eine Mehrebeneanalyse zum Problem Information Overload aus betriebswirtschaftlicher Sicht. Frankfurt/ Main: Deutscher Universitäts Verlag

Broder, Andrei, Kumar, Ravi, Maghoul1, Farzin et al. (1999): Graph Structure In the Web. [WWW-Dokument: http://www.almaden.ibm.com/cs/k53/www9.final - Zugriff: 10.02.2001]

Brünne, Michael, Esch, Franz-Rudolf und Hans-Dieter Ruge (1987): Berechnung der Informationsüberlastung in der Bundesrepublik Deutschland. Saarbrücken: Bericht des Instituts für Konsum- und Verhaltensforschung der Universität des Saarlandes

Canter, David, River, Rod und Graham Storrs (1985): Characterizing User Navigation Through Compex Data Structure. In: Behaviour and Information Technology, 4,2, 93-102

Carmel, Erran, Crawford, Stephen und Hsinchun Chen (1992): Browsing in Hypertext: A Cognitive Study. In: IEEE Transactions on Systems, Man, And Cybernetics, 22, 5, 865-883

Catledge, Lara D. und James E. Pitkow (1995): Characterizing Browsing Strategies in the World Wide Web. [WWW-Dokument: http://www.igd.fhg.de/archive/1995_www95/papers/80/userpatterns/UserPatterns.Paper4.formatted.html - Zugriff: 02.01.2000]

Corinth, Ernst (2000): Aids statt Sex. In: Telepolis - Magazin der Netzkultur. [WWW-Dokument: http://www.heise.de/tp/deutsch/inhalt/te/8697/1.html - Zugriff: 05.01.2001]

Corinth, Ernst (2001): Eine ganze Uni voller Sexprotze. In: Telepolis – Magazin der Netzkultur. [WWW-Dokument: http://www.heise.de/tp/deutsch/inhalt/glosse/4922/1.html - Zugriff: 02.03.2001]

Cove, J.F. und B.C. Walsh (1988): Online Text Retrieval via Browsing. In: Information Processing and Management, 24, 1, 31-37

Debatin, Bernhard (1996): Elektronische Öffentlichkeiten. Über Informationsselektion und Identität in virtuellen Gemein­schaften. [WWW-Dokument: http://www.uni-leipzig.de/~debatin/english/Articles/fiff.htm - Zugriff: 24.05.1999]. Auch in: FIFF-Kommunikation, H.4, 23-26

Degele, Nina (2000): Informiertes Wissen. Eine Wissenssoziologie der computerisierten Gesellschaft.Frankfurt/Main: Campus.

Döring, Nicola (1997): Lernen und Lehren im Internet.In: Batinic, Bernard (1997): 359-394

Döring, Nicola (1999): Sozialpsychologie des Internet. Die Bedeutung des Internet für Kommunikationsprozesse, Identitäten, soziale Beziehungen und Gruppen. Göttingen, Bern, Toronto: Hogrefe

Dörner, Dietrich (1994): Vom Umgang mit komplexen Systemen. Denkpsychologische Befunde zum Entscheidungs­verhalten. In: Rösler/ Florin, 27-43

Donsbach, Wolfgang (1998): Mediennutzung in der Informationsgesellschaft. In: Mahle, Walther (Hrsg.): Kultur in der Informationsgesellschaft. Konstanz, UVK Medien, 25-35

Drucker Peter (1969): The Age of Discontinuity Guideline to Our Changing Society. New York: Harper & Row.

Edwards, Deborah und Lynda Hardman (1999): Lost in Hyperspace : Cognitive Mapping and Navigation in a Hypertext Environment. In: McAleese, Ray: Hypertext. Theory into Pratice.Exeter: Intellect, 90-105

Eilders, Christiane (1999): Zum Konzept der Selektivität: Auswahlprozesse bei Medien und Publikum. In: Wirth/ Schweiger (1999), 13-41

Fachhochschule Deggendorf (2000): Skript zur Vorlesungseinheit ‚Suchmaschinen’. [WWW-Dokument http://www.fh-deggendorf.de/doku/fh/meile/nmedien/k2/vert.pdf – Zugriff 08.01.2001]

Franck, Georg (1998): Ökonomie der Aufmerksamkeit. Ein Entwurf. München: Hanser

Frey, Dieter (1994): Über die Ausblendung unerwünschter Informationen. Sozialpsychologische Befunde zum Entscheidungsverhalten. In: Rösler/ Florin, 45-57

Gerdes, Heike (1997): Hypertext.In: Batinic, Bernard, 137-159

Gerdes, Heike (1997a): Lernen mit Text und Hypertext. Lengerich: Pabst

Günther, Armin und André Hahn (2000): Suchmaschinen, Robots und Agenten: Informationssuche im World Wide Web. In: Batinic, Bernard (Hrsg.): Internet für Psychologen. 2. Auflage. Göttingen, Bern, Toronto: Hogrefe

Helmers, Sabine (1995): Per Mausklick zur Couch Potatoe. Über die Welt des Internet, gewachsene kulturelle Ordnung und gegenwärtige Turbulenzen. In: Schell, Fred (Hrsg.): Jugend auf der Datenautobahn. München: KoPäd-Verlag, 38-46

Hölscher, Christoph (1999): Informationssuche im World Wide Web – Messung von Benutzerverhalten. In Reips/ Batinic/ Bandilla, [WWW-Dokument: http://dgof.de/tband99/hoelscher.pdf - Zugriff 18.01.01]

Hsieh-Yee, Ingrid (1993): Effects of Search Experience and Subject Knowledge on the Search Tactics of Novice and Experienced Searches. In: Journal of the American Society for Information Science, 44, 3, 161-174

Hubig, Christoph (1998): Informationsselektion und Wissensselektion. In: Bürgel, Hans Dietmar (Hrsg.): Wissensmanagement. Schritte zum intelligenten Unternehmen.Berlin: Springer, 1-18

Khan, Kushal und Craig Locatis (1998): Searching trough Cyberspace: The Effects of Link Display and Link Density on Information Retrieval from Hypertext on the World Wide Web. In: Journal of the American Society for Information Science, 49, 2, 176-182

Klein, Pit (2000): Umgeleitet. Die Zensur im World Wide Web greift um sich. In: internet world, 11/2000, 62-63

Koehler, Wallace (1999): An Analysis of Web Page and Web Site Constancy and Permanence. In: Journal of the American Society for Information, 50, 2, 162-180

Lawrence, Steve und C. Lee Giles (1997): How big is the Web? How much of the Web do Search Engines index?. [WWW-Dokument: www.neci.nj.nec.com/homepages/lawerence/websize.html - Zugriff: 03.03.2001]

Lawrence, Steve und C. Lee Giles (2000): Accessibility of Information on the Web. In: Nature, 400, 107-109

Lévy, Pierre (1998): Cyberkultur. In: Bollmann, Stefan und Christiane Heibach (Hrsg.): Kursbuch Internet. Reinbek bei Hamburg: rororo, 60-87

Marchionini, Gary (1989): Information-Seeking Strategies of Novices Using a Full-Text Electronic Encyclopedia. In: Journal of the American Society for Information Science, 40,1,54-66

McDonald, Sharon und Rosemary Stevenson (1998): Effect of Text Structure and Prior Knowledge of the Learner on Navigation in Hypertext. In: Human Factors, 40, 1, 18-27

Naumann, Anja, Jacqueline Waniek und Josef F. Krems (1999): Wissenserwerb, Navigationsverhalten und Blickbewegung bei Text und Hypertext. In Reips/Batinic/Bandilla, [WWW-Dokument: http://dgof.de/tband99/naumann.pdf - Zugriff 18.01.01]

Ohler, Peter und Gerhild Nieding (1997): Kognitive Modellierung der Textverarbeitung und der Informationssuche im World Wide Web. In: Batinic, 219-239

Hosbach, Wolf (2001): Dumme und intelligente Roboter. In: PC Magazin, 4, 112-115

Pitkow, James E. und Colleen M. Kehoe (1996): Emerging Trends in the WWW User Population. In: Communications of the ACM, 39, 6, 106-108

Pollock, Annabel und Andrew Hockley (1997): What’s Wrong with Internet Searching. In: D-lib Magazine [WWW-Dokument http://www.dlib.org/dlib/march97/bt/03pollock.html - Zugriff 18.01.01]

Pongs, Armin (1998): In welcher Gesellschaft leben wir eingentlich?: Gesellschaftskonzepte im Vergleich. München: Dilemma.

Rada, Roy und Clare Murphy (1992): Searching Versus Browsing In Hypertext. In: Hypermdia, 4, 1, 1-30

Reips, Ulf, Batinic, Bernard, Bandilla, Wolfgang. et. al. (Hrsg.) (1999): Current Internet Science - Trends, Techniques, Results. Aktuelle Online Forschung - Trends, Techniken, Ergebnisse. Zürich: Online Press. [WWW-Dokument: http://dgof.de/tband99/ - Zugriff 18.01.01]

Rössler, Patrick (1999): ‚Wir sehen betroffen: die Netze voll und alle Schleusen offen...’. NETSELEKT – eine Befragung zur Auswahl von Webinhalten durch Onlinegatekeeper. In: Wirth/ Schweiger (1999): 97-124

Rösler, Frank und Irmela Florin (Hrsg.) (1994): Psychologie und Gesellschaft. Stuttgart: Wissenschaftliche Verlags-Gesellschaft

Rötzer, Florian (1998): Aufmerksamkeit – der Rohstoff der Informationsgesellschaft. In: Bollmann, Stefan und Christiane Heibach (Hrsg.): Kursbuch Internet. Reinbek bei Hamburg: rororo, 88-103

Rötzer, Florian (1999a): Das Web wird zum Massenmedium. In: Telepolis - Magazin der Netzkultur. [WWW-Dokument http://www.heise.de/tp/deutsch/special/auf/5227/1.html - Zugriff 05.01.01]

Rötzer, Florian (1999b): Suchmaschinen sind einseitig. In: Telepolis - Magazin der Netzkultur. [WWW-Dokument http://www.heise.de/tp/deutsch/inhalt/te/5059/1.html – Zugriff: 03.03.2001]

Rötzer, Florian (1999c): Encyclopedia Britannica öffnet kostenlos die Internetpforten. In: Telepolis – Magazin der Netzkultur. [WWW-Dokument http://www.heise.de/tp/deutsch/inhalt/on/5402/1.html - Zugriff: 02.02.2001]

Rötzer, Florian (1999d): Gated Communities im Cyberspace. In: Telepolis – Magazin der Netzkultur. [WWW-Dokument http://www.telepolis.de/deutsch/inhalt/co/5400/1.html - Zugriff: 02.03.2001]

Rötzer, Florian (2000): Wird wissen zu Privateigentum? Risse in der Wissensgesellschaft. In: Psychologie Heute, 2, 34-38

Schetsche, Michael (2000): Wissenssoziologie sozialer Probleme. Grundlegung einer relativistischen Problemtheorie. Opladen: Westdeutscher Verlag

Schönert, Ulf (1999): Der Mausklick zum Durchblick. Professionelles Surfer schaffen Ordnung im Internet. In: Die Zeit, online: http://www.archiv.zeit.de/daten/pages//199938.ce-surfer_.html [Zugriff: 23.11.1999]

Schweiger, Wolfgang (2001): Zu mühsam? In: Journalist, Jahrgang, 1, Beilage Sage und Schreibe, S.13.

Stehr, Nico (1994): Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften. Frankfurt/ Main: Suhrkamp.

Sullivan, Danny (2000): Search Engine Sizes. [WWW-Dokument: http://searchenginewatch.com/reports/sizes.html - Zugriff: 02.03.2001]

Tasche, Karl (1999): ‚Uses and Gratification’ und Stimmungsregulationstheorie. In: Wirth/ Schweiger (1999), 75-94

Tauscher, L und S. Greenberg (1997): How People revisit Web Pages. Empircal Findings and Implications for the Design of History Systems. [WWW-Dokument: http://www.hbuk.co.uk/ap/ijhcs/webusability/tauscher/tauscher.html - kein Zugriff]

Teuteberg, Frank: Effektives Suchen im World Wide Web: Suchdienste und Suchmethoden. In: Wirtschaftsinformatik, 39, 4, 373-383

Unz, Dagmar, Capstick, joanne und Monika Reisbeck (1999): Damit die Suche (schneller) zum Ziel führt: Interfacedesign einer Suchmaschine zur Unterstützung von Selektionsentscheidungen. In: Wirth/ Schweiger (1999), 249-270

Voorbij, Henk (1999): Searching Scientific Information on the Internet: A Dutch Academic User Survey. In: Journal of the American Society for Information Science, 50, 7, 598-615

Wandke, Hartmut und Jörn Hurtienne (1999): Zum Navigationsverhalten von Anfängern im World Wide Web. In: Zeitschrift für Arbeits- und Organisationspsychologie, 43, 1. 46-54

Wandke, Hartmut und Jörn Hurtienne (1999a): Psychologische Analysen und Gestaltungsvorschläge zur Informationsauswahl im World Wide Web. In: Wirth/ Schweiger (1999), 271-291

Weber, Christian und Rudolf Groner (1999): Suchstrategien im WWW bei Laien und Experten. In: Wirth/ Schweiger (1999), 181-197

Weizenbaum (2001): „Lernen kann ruhig schwer sein“. In: Die Tageszeitung (taz) vom 9. Januar 2001

Wirth, Werner und Michael Brecht (1998): Medial und personal induzierte Selektionsentscheidungen bei der Nutzung des World Wide Web. In: Rössler, Patrick (Hrsg.): Online-Kommunikation. Beiträge zur Nutzung und Wirkung. Opladen: Westdeutscher Verlag, 147-168

Wirth, Werner und Michael Brecht (1999): Selektion und Rezeption im WWW. Eine Typologie. In Wirth/ Schweiger (1999), 149-180.

Wirth, Werner und Wolfgang Schweiger (1999): Selektion im Internet. Empirische Analysen zu einem Schlüsselkonzept. Opladen: Westdeutscher Verlag.

Wirth, Werner und Wolfgang Schweiger (1999a): Selektion neu betrachtet: Auswahlentscheidungen im Internet. In: Wirth/ Schweiger (1999). 43-74

8. Endnoten

1 Der Einfachheit halber werden die Begriffe Informationen und Wissen im Laufe des Textes unscharf und deswegen als Synonym verwendet. Das gleiche gilt für ‚Internet’ und ‚Cyberspace’. In dieser Hausarbeit wird nicht gezielt auf geschlechtsspezifische Aspekte rekurriert. Abwechselnde männliche und weibliche Formen sind allein dem emanzipatorischen Ansinnen des Autoren geschuldet.

2 Zur Metapher des Weltgehirns siehe das frühe literarische Werk von H.G. Wells „World Brain“ aus dem Jahre 1938.

3 Vornehmlich soll bei Suchprozessen im Folgenden auf das World Wide Web rekurriert werden. Auch Newsgroups und andere soziale Netzwerke, wie sie Mailinglisten-Gemeinschaften evtl. bilden, können eine Strategie der Informations­beschaffung sein.

4 Neben dem vielfach verwandten rationalen Ansatz, der auf die Netznutzung als Informationssuche fokussiert, finden sich auch zunehmend unterhaltungsorientierte, „zweckfreiere“ Perspektiven in der Internetforschung. Vgl. dazu Tasche (1999).

5 Mit dem Verhältnis von Design und Zugänglichkeit der Webseite beschäftigt sich schwerpunktmäßig die Usability-Forschung. Zunehmend untersuchen auch Psychologen und Kommunikations­wissenschaftler die Rolle des Designs für das Transferpotenzial des Site (vgl. Wandke/ Hurtienne 1999, Unz/ Capstick/ Erbach 1999). Die Rolle der Sprache ‚Hypertext Markup Language’ (HTML) zur Strukturierung der WWW-Seiten findet längst nicht mehr den ursprünglich zugedachten Einsatz. Heute bestimmt im wesentlichen das Design über das Aussehen der Web-Sites.

6 Vgl. Gerdes (1997) und Steinke (1999) mit ihren ausführlichen Erläuterungen des Hypertext-Konzeptes.

7 Vgl. Döring (1999: 80ff) mit ihrer beispielhaften Auflistung von Kategorien unterschiedlicher Kataloge.

8 Mittlerweile gibt es eine klare Abgrenzung zwischen Katalogen und den nachfolgend beschriebenen Suchmaschinen nicht mehr. Beide Arten von Datenbanken bieten mittels Kooperationen erweiterte Datenbestände für die Nutzerinnen.

9 Einen ausführlichen Überblick über Arten und Funktionsweisen der Suchmaschinen geben Teuteberg (1997) und Baumgärtel (1998).

10 Dabei kommt es zu einer Schieflage zwischen Nutzen und Nutzung: „There seems to be a discrepancy between perceived importance of advanced search facilities and the use of these facilities. For instance, although 79% of the Internet users report that metasearching is important or very important, in practice metasearch engines such as Savvy are hardly used” (Voorbij 1999: 603).

11 Dies zumindest behauptet eine Studie des US-amerikanischen Unternehmens Bright Planet (zitiert nach Akademie.de 2000). Unabhängig von der Genauigkeit der Schätzung erscheint die Tendenz der Entwicklung stimmig und macht die Problematik für Suchmaschinen deutlich.

12 Zu erreichen unter www.britannica.com.

13 Der Begriff des Aufmerksamkeitslotsen geht auf Rössler (1999) zurück, der die Wandlung des journalistischen Gatekeepings untersucht. Vgl. Rötzer (1998) und Franck (1998). Sie sind die (deutschsprachigen) Urväter des Aufmerksamkeitskonzeptes.

14 Unklar ist, ob die Agenten wirklich das oft beklagte Informationsproblem lösen können, sind doch in Kriterien, nach denen die Programme suchen, nur syntaktischer Natur. Denn Such- und Selektionsprozesse „beruhen auf kognitiver Offenheit, emotiver Intuition, perzeptiver Gestaltwahrnehmung, oft zielloser Experimentierfreude und kreativer Konstruktion von manchmal ganz unwahrscheinlichen Ähnlichkeiten“ (Debatin 1996). Zu groß ist hier die Gefahr, dass vorab festgelegte Suchkriterien relevante Felder ausblenden.

15 Wenn die nachfolgenden Kategorien eher problematisierend wirken, ist dies nicht einer tendenziösen, defizitären Perspektive auf das Internet geschuldet. Die Chancen der Publikation von Wissen im Internet bedürfen vielmehr einer eigenen Fragestellung.

16 Deswegen wurden für Hypertexte eine Reihe von Orientierungsfunktionen entwickelt, um ein Zurechtfinden zu erleichtern: „Hypertext systems provide bookmarks, context maps, backtracing or history lists, and guided tours to help the user overcome such problems“ (Carmel/ Crawford/ Chen 1992: 865).

17 Vgl. Pollock und Hockley (1997) sowie Hölscher (1999).

18 Auf 800 Millionen Web-Seiten schätzen Lawrence/ Lee Giles (2000) den Umfang des Cyberspace Anfang 1999. Schätzungen für Ende 2000 kommen auf 3 Milliarden Seiten (searchenginewatch.com – 15.01.2001)

19 Eine Studie von Media Metrix (www.mediametrixcom (1999), zitiert nach Rötzer 1999a) bestätigt diesen Verdacht und zeigt auf, das die Nutzer sich immer mehr auf wenige Webseiten konzentrieren.

20 Wenn hier so scharf analysiert wird, soll dies der Bedeutung der Suchmaschinen Rechnung tragen. Eintrag und Platz in der Trefferliste entscheiden über die Auffindbarkeit der Inhalte enorm.

21 Die hier angegeben Folgen sind sicherlich teilweise überspitzt. Aber bei einer weiteren Zunahme der gesellschaftlichen Bedeutung können virtuelle Prozesse den oben beschriebenen Einfluss durchaus erhalten.

22 Vgl. ähnliche Zahlen bei Fachhochschule Deggendorf (2000) und einen Überblick über verschiedene Schätzungen bei Günther und Hahn (1997).

23 Zu welchen Possen die nie einhundertprozentig funktionierende Filtersoftware führen kann, zeigt beispielhaft Corinth (2001) anhand der Sperrung hannoverscher Studenten für filtergeschützte Foren auf.

24 Levy (1998) ist ein Vertreter solcher Flutbilder, der sich auflösende Gesellschaftsstrukturen ausmacht: „Die Entstehung des Cyberspace bedeutet keineswegs, daß jetzt alles zugänglich sei, sondern vielmehr, daß das Ganze endgültig außer Reichweite ist“ (ebd.: 64). Er verwechselt in seiner Argumentation aber zu sehr das Potenzial des Mediums mit der faktischen Nutzung und vergleicht die vorhandene Kompetenz der Nutzer, im Umgang mit den neuen Medien, mit den längst ausgeformten Kompetenzen der massenmedialen Nutzung. Insofern wird er dem Internet nicht gerecht.

25 Als Experten gelten hier Nutzer mit Medienkompetenz, i.S. von Erfahrungen im Umgang mit dem Internet.

26 Zur Begriffsbestimmung des Browsen in der Literatur siehe Abschnitt 4.2.

27 Die Wahl eines anderen Mediums zur Befriedigung des Informationsbedarfes muss hier außen vorbleiben. Wirth und Schweiger (1999) haben das Konzept der Selektionsphasen nach Donsbach zu diesem Zweck fruchtbar transferiert. Auch die Wahl der einzelnen Modi des Internet kann hier nicht dargestellt werden. Döring (1999) beschreibt für diesen Fall aber ein ökologisches, auf die Rahmenbedingungen rekurrierendes Modell, dass an Schweiger und Wirths Beschreibung der Selektionssituation anschlussfähig scheint.

28 Eine Reflektion zu den theoretischen Ausrichtungen und Methoden dieser frühen Hypertext-Studien findet sich bei Wirth und Brecht (1999).

29 Das von Wirth und Brecht (1999) eingeführte Begriffspaar „Zuwendung vs. Vermeidung“ wird hier weggelassen und später im Kapitel über die persönlichen Filter wieder aufgegriffen.

30 Dieses Begriffspaar verwende ich abweichend von Wirth und Brecht (1999), die mit „Zielgerichtet vs. Explorierend“ eher das von mir eingeführte „Informations- vs. Unterhaltungsorientierung“ meinen.

31 Das hier nicht aufgeführte Begriffspaar „Aktivität vs. Passivität“ weist eine große Nähe zu den beiden Nutzungsformen auf. Vgl. dazu die Erläuterungen von Wirth und Brecht (1999).

32 Im Folgenden wird nicht weiter auf die intermediale Selektion eingegangen, sondern sich auf das Internet beschränkt. Konzepte zur Medienwahl sind bei Döring (1999) sowie Wirth und Schweiger (1999a) zu finden.

33 Eine neue Form des Selektionsdruckes ergibt sich nicht durch die Masse, sondern viel mehr durch den nicht-linearen Hypertext, der immer wieder zu Entscheidungen zwingt. Vgl. Eilders (1999).

34 Vgl. zum aktiven und passiven Internetnutzer Helmers (1995) und Wirth/ Brecht (1998).

35 Zu verschiedenen Ansätzen kognitiver Modellierungen vgl. auch Carmel, Crawford und Chen (1992) für ihre Ausführungen zum GOMS-Modell.

36 Daneben sind auch psychologische Faktoren zu nennen, die die Wahrnehmung und die kognitive Verarbeitung beeinflussen. Dazu gehören die Probleme beim Umgang mit komplexen Systemen (vgl. Dörner 1994), wie sie beispielhaft bei der Orientierungslosigkeit im Hypertext erwähnt wurden. Aber auch die Ausblendung unerwünschter Informationen im Entscheidungsprozess spielen hier eine Rolle (vgl. Frey 1994, Wirth/ Brecht 1999).

37 Auch Pollock/ Hockley (1997) verweisen auf die Notwendigkeit zur sprachlichen Gewandtheit in der Formulierung von Suchbegriffen, um Suchprozesse flexibel gestalten zu können.

38 Einen guten Überblick über Suchmaschinen und ihre Eigenheiten bieten die Online-Angebote www.suchfibel.de und www.searchenginewatch.com.

39 Vgl. Hubig (1998), der eine Reihe von Kompetenzverlusten ausmacht: „Verluste an Fähigkeit, über diejenigen Kriterien und Maßstäbe zu verfügen, die eine rationale Durchführung (...)[von] Selektionen erst erlauben. (...) Beklagt werden Verluste an Kontrollkompetenz, was die Gestaltung von Information zu Wissen betrifft; beklagt werden Verluste an Kritikkompetenz, weil durch vorgegebene Verengung bessere Optionen aus dem Blickfeld geraten; beklagt werden Verluste kreativer Kompetenz, weil bestehende Kommunikationsalgorithmen, vorgegebene Suchpfade etc. einen Wissenskonservatismus befördern (...); beklagt wird schließlich der Verlust an Kompetenz, persönliche und individuelle Identität herauszubilden und fortzuschreiben im Zuge der Mensch-Rechner-Kommunikation (...)“ (ebd: 3f).

40 Vgl. Levys (1998) Strategie, gegen die Fluten des Cyberspace vorzugehen: „Wir alle (...) müssen Sinn erzeugen, uns in vertrauten Zonen einrichten., uns im umgebenden Chaos zurechtfinden. Aber einerseits muß jeder seine partiellen Totalitäten auf seine Weise nach seinen eigenen Bedeutungskriterien errichten, und andererseits sollten diese Zonen einer angeeigneten Bedeutung äußerst beweglich, veränderlich, im Werden begriffen sein“ (ebd.: 64).




Dieses Dokument ist nach dem Hypertext-Indexierungssystem (HIS) bearbeitet
Autor: Kai Lehmann
Titel: Riders on the Info-Storm: Suchprozesse im Cyberspace (2001)
URL: www.creative-network-factory.de/cybertheorie/cyberpapers/Texte/Riders.html
Erstellungsdatum: Februar 2001
Version: 1.0 (Januar 2005)