Der Computer - Medium oder Rechner?

Das Buch "Docuverse" des Frankfurter Medienwissenschaftlers Hartmut Winkler bringt frischen Wind in die Medientheorie im allgemeinen und die deutsche im besonderen. Netzkritiker Geert Lovink hat mit Winkler per Email ein ausführliches Gespräch geführt. In Insiderkreisen kursierende Vorabversionen des folgenden Texts haben zu heftigen Gegenreaktionen geführt. Was ist der Clou an Winklers "Docuverse"?

Zur Diskussion siehe auch den Kommentar von Rudolf Maresch Blindflug des Geistes
Weitere Beiträge von Hartmut Winkler in Telepolis: Suchmaschinen und Vom Pull zum Push?

Der Frankfurter Theoretiker Hartmut Winkler hat eine umfassende Kritik der neuen Deutschen Medientheorie vorgelegt. 'Docuverse' heißt seine Habitationsschrift, und das 420 Seiten dicke Manuskript trägt als Untertitel 'Zur Medientheorie der Computer'.

Thema im Hintergrund ist das Internet und der gegenwärtige Umbruch der Medienlandschaft von den Bildmedien hin zu den Computern und die Frage nach den gesellschaftlichen Motiven für diesen Wechsel. Im Mittelpunkt steht der Begriff der 'Wünsche', die "Rekonstruktion der Wünsche, auf die das Datenuniversum eine Antwort ist". Der Titel 'Docuverse' wurde von Ted Nelson übernommen und ist für Winkler ein wichtiger Begriff, weil er dazu zwingt, das Datenuniversum als eine textbasierte, technisch/soziale Gesamtanordnung zu denken und es gleichzeitig möglich macht, diese Idee als eine Theoriefiktion zu kritisieren.

Hartmut Winkler ist Medienwissenschaftler an der Uni Frankfurt am Institut für Theater-, Film- und Medienwissenschaft. 1991 erschien sein Buch 'Switching - Zapping' über dieses medienkulturelle Phänomen, eine gelungene Mischung von Film- und Medientheorie, in der Begriffe wie Montage und Traum plötzlich in einem neuen Zusammenhang auftauchen (siehe auch meine Rezension in Mediamatic 8#1). Sein zweites Buch zur Film- bzw. Medientheorie heißt "Der filmische Raum und der Zuschauer" (Heidelberg, 1992) und handelt von den sogenannten 'Apparatus'- Theorien, ein neuer Ansatz zur Techniktheorie des Films, der in den 70er Jahren in Frankreich begann und später in den USA weiterdiskutiert wurde.

'Docuverse' ist vorerst eine normale Habitationschrift: zäh, akademisch, manchmal langweilig und immer verantwortungsvoll. Das Interessante daran aber sind die Fragen, die gestellt werden und die weit über den kleinen akademischen Kreis hinausgehen. Winklers These lautet, daß der Computer grundverschieden von den Bildmedien ist, da er nicht auf Bildern, sondern auf Text basiert und sich demnach auch anders entwickeln wird als die Propheten der neuen Medien uns vorspiegeln. Also keine Synergie von Internet und Fernsehen? Und ist die ganze Multi-Media Branche wirklich eine Einbahnstraße?

Winkler fragt sich also, was die Mediengeschichte antreibt, schreibt über die Netzmetapher in der Sprachtheorie, über Computer als Gedächtnismaschinen, Leroi-Gourhan und seine Evolutionsgeschichte der Technik, Mnemepathie, Vergessen und Verdichtung (Freud und, wie war der Name?... Lacan), die 'Krise der Bilder', den Gegenbegriff 'Kontext' und am Schluß über den Computer als das 'Medium der Isolation'.

Jaja, Frankfurt, werden viele sagen, da meldet sich der linke Kulturpessimist, darauf haben wir schon gewartet. Diese Etiketten sind aber viel zu einfach. Zunächst kennt sich Winkler in der Literatur zu neuen Medien sehr gut aus, hat selbst jahrelang programmiert, meckert nicht über 'die Kulturindustrie', sondern kommt mit ganz frischen Thesen und Gegenargumenten. Die deutsche Medientheorie soll diese Herausforderung annehmen und über akademische Kreise hinaus die Debatte über das Wesen der Computer und der Netze in die (virtuelle) Öffentlichkeit führen.

Kannst du kurz andeuten, worum es dir in 'Docuverse' geht?

HARTMUT WINKLER: Bei dem Projekt, das Buch zu schreiben, sind zwei Interessen zusammengekommen: zum einen der Ärger über den riesigen Computer-als-Medium-Hype, der mit dem Internet ausgebrochen ist, und die modische, vorschnelle Art, in der die Debatte gegenwärtig geführt wird; und zweitens die Möglichkeit, meine Programmierer-Vergangenheit auf diese Weise zu recyclen. Es hat es mich gereizt, das Medium Computer mit bestimmten Theorien zu konfrontieren, die an den klassischen Medien entwickelt worden sind, und dann zu gucken, was aus denjenigen Kategorien wird, die gegenwärtig in aller Munde sind. Was in der Debatte bisher völlig gefehlt hat, sind Überlegungen zur Theorie der Sprache. Das WWW explodiert als ein Medium der Texte und der Schrift; und kein Mensch überlegt sich, wieso die Mediengeschichte die technischen Bilder (Fotografie, Film und TV) nach 100 Jahren offensichtlich aufgibt und, wie es scheint, zu Schrift und Sprache zurückkommt. Statt dessen wird - völlig albern - das 'Ende der Gutenberggalaxis' verkündet, das, wenn überhaupt, bereits um 1900 eingetreten ist.

Deine Kritik der 'Medientheorie' gilt vor allem einer bestimmten Gruppe von Autoren, die seit Ende der achtziger viel veröffentlichten. Einerseits der 'Kassler Schule' um Kittler, Bolz und Tholen und andererseits dem Ars Electronica-Kreis um Weibel und Rötzer. Wäre es möglich, diesen 'Diskurs' etwas genauer einzukreisen? Aus meiner Sicht gibt es hier ganz klare regionale und kulturelle, sogar historische Rahmenbedingungen unter denen diese rege Textproduktion zustande kam. Mir fällt immer das Jahr 1989 ein: Höhepunkt der achtziger Jahre, des Yuppietums und des Postmodernismus, Fall der Mauer, Geburt des Techno und die erste Ankündigung von VR und Netzen. Diesen Theoriekreis nun kann man weder als links-progressiv, im Sinne einer pauschalen Technologiekritik, noch als rechts-konservativ, im Sinne eines Kulturpessimismus einstufen. Natürlich gibt es immer diesen Geist Heideggers im Hintergrund. Und Lacan könnte man auch als gemeinsame Grundlage nennen, das gilt sogar für dich.

Sehr lange war es in Westdeutschland so, daß alle, die sich mit Medien befaßt haben, als gesellschaftskonform galten. Aber das fand ich immer eine Krankheit der Ideologiekritik. Die Mediensphäre ist ja sehr real und materiell (und wird das mehr und mehr). Vertreten diese Autoren noch etwas, oder soll man gar nicht mehr fragen nach soziologischen und ideologischen Positionen?

HARTMUT WINKLER: Es ist richtig, daß sich mein Buch vor allem auf die deutsche Theorie und auf die genannten Autoren bezieht, und aus der Kritik die eigenen Deutungsvorschläge entwickelt. Das ist das Projekt. Den historischen Ort dieser Debatte aber sehe ich anders. Zunächst denke ich nicht, daß die Ideologiekritik schlicht und generell medien- und technikfeindlich war. Wenn die genannten Autoren sich von der Ideologiekritik mehr als deutlich distanzieren (und in Deiner Darstellung klingt dieser Gestus ein wenig nach), so sehe ich dafür ein ganzes Bündel von Motiven: ein berechtigtes Bedürfnis, zu einer differenzierteren Deutung der Technik zu kommen und bestimmte Aporien auf dem Gebiet der Ideologiekritik zu überwinden. Daneben aber scheint mir die Distanzierung ein unmittelbares Resultat politischer Enttäuschungen zu sein. Die Technik bietet sich als ein Fluchtraum an vor den komplexen Anforderungen des Sozialen, und wer in der Technik das 'Apriori' der gesellschaftlichen Entwicklung ausmacht, muß sich um vieles nicht mehr kümmern. Und vor allem hat man sich von der Frage befreit, was wiederum der Technikentwicklung ihre Schubkraft und ihre Richtung gibt. Und hier würde ich Kittler und Bolz klar unterscheiden: Während Kittler tatsächlich Technikhermeneutik betreibt und zurückgewinnen will, was der soziale Prozeß in die Technik hineingeschrieben hat, wendet sich Bolz in eine offene Affirmativen, mit politisch reaktionären Implikationen. Ich denke wie Du, daß die Debatte eine exakte Zeitstelle hat. '1989' aber steht für mich nicht für einen Aufbruch, sondern für einen teigigen Kanzler und die potentielle Verewigung/Globalisierung der Bürgerherrlichkeit. Und wenn die Technik die einzige Sphäre ist, in der noch 'Fortschritte' zu verzeichnen sind, so ist es kein Wunder, daß sie begeisterte Fürsprecher findet.

In der Tat hat meiner Meinung nach die 70er Jahre Ideologiekritik großen Schaden verursacht, in dem sie den Medienbereich erstens grob vernachlässigte und zweitens sich weigerte zu verstehen, was Leute so anzieht an der Massenkultur, eine Frage, welche die englischen cultural studies dann aufgriffen. Man sieht diese fatale Haltung immer noch bei den Zeitschriften Spex und Beute, die die Medien pauschal als Ideologie abtun und, wie Mark Terkessides, den Kulturkampf nach wie vor im Feuilletonbereich ansiedeln. Wer sich innerhalb der Pop-Linken mit Kultur beschäftigt, muß sogar Carl Schmitt (wieder)lesen.

HARTMUT WINKLER: Wenn Du von den 70er Jahren sprichst, sprichst Du bereits von den Jüngern, und ich gebe Dir recht, daß diese die Propheten häufig unterboten haben. Für die Klassiker der Kritischen Theorie aber gilt, was Du sagst, nicht; weder für Kracauer, der sehr große Hoffnungen in die Massenkultur setzte, noch für Benjamin; bei Brecht gibt es die Utopie, den Massenmedien ihren monologischen Charakter zu nehmen, eine Utopie, die von Enzensberger in den Sechzigern aufgegriffen wird und die zur Grundlage einer Vielzahl praktisch-demokratischer Medieninitiativen geworden ist, die Kommunalen Kinos sind in den sechziger/siebziger Jahren gegründet worden usf. Vor allem aber finde ich, daß die Gegenüberstellung: Kritik versus Sympathie/Verständnis/Affirmation viel zu grob gestrickt ist. Wenn es das 'Kulturindustrie-Kapitel' der Dialektik der Aufklärung nicht gäbe, müßte es schnellstens geschrieben werden als ein Beitrag zu einer Debatte und als eine sehr radikale Perspektive, die eine bestimmte Seite der Medien sichtbar macht. Und die 'Ästhetische Theorie' Adornos enthält, obwohl sie Medien, Jazz und Massenkultur verwirft, eine Menge Kriterien, welche die Medien eigentlich besser und selbstverständlicher erfüllen als die von ihm favorisierte autonome Kunst.

'Die' Medientheorie ist meines Erachtens nicht mehr dem alten, instrumentellen, rationellen Technokratiedenken der damaligen Bundesrepublik (dem Wohlstands-NATO-Polizei-Atomstaat) verhaftet. Weder positivistisch noch aus dem Negativen heraus arbeitend, scheint sie vor allem der inneren Stimme der Technik auf der Spur zu sein. Die entseelten Maschinen, abgenutzt durch ihren Warencharakter, sollen (wieder?) zum Singen gebracht werden. Es sind ja vor allem Leute aus den Bereichen Germanistik, Philosophie und Kunst. So eine Konstellation gibt es, oder gab es, nur in Westdeutschland um diese Zeit (1989). Anderswo muß man die Medientheorie vor allem in den Bereichen Soziologie, Kommunikationswissenschaften und in der harten Technikgeschichte suchen. Warum ist 'die Deutsche Medienideologie' und ihre 'virtuelle Klasse' (wenn man sie überhaupt so nennen möchte) so erhaben dichterisch eingestellt? Anderswo erfinden die Medienspezialisten nicht solche wunderschönen und komplizierten Begriffe, um den grauen Medienalltag zu beschreiben. Wird Deutschland in der internationalen Arbeitsteilung mehr und mehr zum Land der Datendichter und -denker?

HARTMUT WINKLER: Oh je, jetzt bin ich in der Position, eine deutsche Sonderlösung verteidigen zu müssen. So absurd ich viele Bemühungen, viele Begriffe und Zwischenergebnisse der Debatte finde, so entschieden denke ich, daß die pragmatischer eingestellten Zugangsweisen ("Soziologie, Kommunikationswissenschaft und harte Technikgeschichte") ihren Gegenstand - die Medien - verfehlen. Wir wissen ausdrücklich nicht, was Medien eigentlich sind. Wir wissen, daß eine relativ blinde Praxis sie in die Welt bringt, wir wissen aber nicht, was es bedeutet, daß 'Kommunikation' immer kompliziertere technische Gadgets verlangt und die Welt der Symbole mit jener der Technik immer weiter verschmilzt; und solange wir das nicht wissen, denke ich, ist es sinnvoll, an den Begriffen zu arbeiten. 'Kommunikation' ist ein gutes Beispiel; Du gehst sehr selbstverständlich davon aus, daß lebendige Menschen (bilateral) miteinander kommunizieren, im Gegensatz zum 'toten' Universum der Schrift.
Aber ist das plausibel? Ist nicht die Technik selbst in diesem Sinne 'tot' wie die Schrift? Und ist das nicht Grund genug für das Bedürfnis, sie wieder zum 'Singen' zu bringen? Und hier beginnt mein Plädoyer auch für die "akademischen Denkverfahren", die Du in deinem Begleitbrief genannt hast. Sicher gibt es sie, die "universitären Schreibrituale"; gleichzeitig aber ist das wissenschaftliche Schreiben eine Chance, Abstand zu nehmen von den Selbstverständlichkeiten und anders zu sprechen, als dies unter Praxisbedingungen möglich und nötig ist. Mich wundert immer wieder, wie schnell und hart sich bestimmte Dinge als Konsens etablieren. Multimedia ist das natürliche Ziel der Computerentwicklung, der Computer eine universelle Maschine usf... Wenn man gegen einen solchen Konsens angehen will, braucht man entweder gute Nerven oder gute Argumente (und wahrscheinlich beides). In jedem Fall aber Begriffe, die nicht aus der unmittelbaren Debatte selbst stammen, sondern aus anderen Zusammenhängen, und wenn es eben Lacan oder Heidegger sind. Und wenn die internationale Arbeitsteilung diesen Teil der Theoriebildung den Deutschen überträgt, meinetwegen; die (wir) haben schon schlimmere Jobs gemacht.

Bleibt zu hoffen, daß die Universitäten (und ihre Rituale) Plätze für Kritik und Reflexion sind. Ich habe es anders erlebt und sehe auch nicht, daß deine (an sich richtige) Grundhaltung dort gefördert wird. Es geht hier um die Frage, wo und wie eine Medientheorie entsteht, die eigene Begriffe hervorbringt und den Konsens durchbricht. Die Gefahr der Position von Medienkünstlern und freischwebender Intelligenz (wie ich) ist in der Tat, daß wir zu nahe an der dreckigen Wirklichkeit arbeiten. Man müßte immer wieder für die eigene Weltfremdheit sorgen, sonst verschwinden wir vollends in der Hypernormalität.

Also, um 1989, in einer Zeit von raschen technologischen Entwicklungen, entsteht im Theoriebereich eine Spekulationsbewegung, die sich dadurch kennzeichnet, daß sie keinen Abschied nimmt von der Gutenberggalaxis, sondern das ganze Wissen der letzten Jahrhunderte in den Cyberspace mit hinein nimmt, die Spuren der Technikgeschichte zurückverfolgt und Verbindungen zwischen Chiparchitektur und moderner Literatur legt, worauf andere, ohne dieses Buchwissen, nie kommen würden. Sowieso kommt die Technik doch gut ohne Nietzsche und die Geisteswissenschaften aus? Es sind doch nur wir, die Intellektuellen, welche die Lebenshilfe von Kittler u.a. brauchen, um mit der Technik klar zu kommen? Medientheorie, erfaßt für eine bestimmte Schicht des Bildungsbürgertums, die sich mit den titanischen Kräften der 'Techne' schwer tun? Oder Sammelbände um den Aktien von AEG, Mercedes-Benz, Siemens und Deutscher Bank mehr Gewicht zu geben? Für die Macht sind die metaphysischen Kenntnisse der deutschen Medientheorie, meiner Meinung nach, nicht besonders brauchbar.

HARTMUT WINKLER: ...das will ich sehr hoffen. Und selbstverständlich kommt die Technik ohne Nietzsche aus. Generell aber geht es nicht einfach darum, mit der Technik klarzukommen, so wie sie ist. Wenn diese Gesellschaft sich entschieden hat, immer mehr Inhalte nicht in Texte, sondern in die Technik einzuschreiben, dann hat dies die Pointe, daß die Inhalte dort als solche nicht mehr sichtbar und nicht mehr erkennbar sind. Sie erscheinen als natürliche Eigenschaften der Dinge, als Resultat eines linearen (und notwendig einseitigen) technischen Fortschritts, als unhinterschreitbar. Es ist das gleiche wie mit den Codes. Was einmal codiert ist, ist unsichtbare 'Voraussetzung' von Kommunikation. Und wer vertritt, eine Kritik der Technik sei nicht mehr möglich und das Zeitalter der Kritik generell vorbei, sitzt letztlich einer Naturalisierungsstrategie auf.

Aufgabe der Theorie und der Technikhermeneutik wäre es entsprechend, die Inhalte zurückzugewinnen, die in die Technik "hineinvergessen" worden sind. Die Entscheidungen und Wertsetzungen, die sozialen Strukturen und Machtkonfigurationen, die Praxis, die in der Technik Struktur geworden ist. Diesen Umschlag von Praxis/Diskurs in Struktur (und Struktur in Praxis/Diskurs) zu zeigen, ist das hauptsächliche Theorieprojekt meines Buches.
Deine 'Netzkritik' will ja exakt das selbe. Auch die gewachsene Struktur des Netzes ist auf Kritik nicht angewiesen, um weiter wachsen zu können. Und wenn Du nicht einfach mit baust, sondern in einem anderen Medium (Schrift und Druck) über das Netz nachdenkst, dann ist es zu Nietzsche ohnehin nicht mehr weit.

Während der Bonner Republik (und jetzt vielleicht auch noch) galt ein strikter Unterschied zwischen Kultur und Medien (Bildung, Unterhaltung) und dem harten Bereich Arbeit und Technik. Deswegen gab es keine Nachfrage nach einer 'Philosophie des Computers' und führte die Technikhermeneutik ein Schattendasein. Das hat sich aber in den letzten Jahren geändert. Viele Medien sind freigegeben worden und nicht mehr unter Staatskontrolle. Computer und Netze haben eine fast allgemeine Verbreitung gefunden und damit bekommt die Medientheorie auch einen anderen Stellenwert. Die begeisterte Aufbruchsstimmung um 1989 gibt es aber so nicht mehr. Sie hat den Theorie- und Kunstbereich verlassen und treibt sich als Hype in den alten Massenmedien herum. Trotzdem können die 'Dichter des Technischen' jetzt gute Positionen als Berater der Macht bekommen. Dafür aber müssen die Philosophen sich in Marktpropheten verwandeln und als Trendforscher durchs Leben gehen. Ist das das Schicksal deiner Kontrahenten? Und was kommt nach der 'Theoriefiktion'? Wohl nicht eine Science Fiction... Oder eher eine neue Kritikwelle (Netzkritik als neueste Mode...)?

HARTMUT WINKLER: Die Sache, denke ich, wird sich teilen: die einen werden TV-Spots für die deutsche Telekom machen und Vorträge vor Marketingleuten (das ist nicht fiction sondern fact), die anderen werden ins Lager der kritischen Kritiker wechseln und sagen, sie hätten es immer schon gewußt. Die Skepsiswelle ist bereits abgelaufen, das sehe ich auch so. Auch hier aber würde ich sagen, daß die 'Positionen' weniger interessant sind als die Modelle und Deutungen, die mit diesen Positionen verbunden sind. Und wenn die Kritik nichts zu bieten hat als die alten 'humanistischen' Gewissheiten (Beispiel Clifford Stoll), wird sie so weit auch nicht kommen.

Es gibt bisher noch keine Medientheorie der Computer, nicht in Deutschland und auch nicht anderswo, das stellst du auch in deiner Einführung fest. Liegt das nicht vor allem daran, daß die Theoretiker selbst sich noch nicht in den Netzen aufhalten und zögern, sich dort einzurichten? Mit der Wahl des Begriffes 'Docuverse' (von Ted Nelson) gibst du meines Erachtens an, daß der Cyberspace für dich vor allem ein Raum der Texte und Dokumente ist. In deinem Buch kommt es nirgendwo vor, daß sich in den Netzen auch tatsächlich Menschen (und ihre künstliche Agenten) aufhalten. Du redest von einem 'menschenfernen Universum' und davon, daß 'Kommunikation' als Begriff zu kurz greift. Liegt das nicht vor allem daran, daß das Netz für dich sowieso eine Sammlung von 'toten' Informationen ist? Deine wichtigsten Quellen sind Derrida, Lacan, Freud, Nietzsche usw., kombiniert mit der neuen Fachliteratur. Warum ist deine Medientheorie der Computer so fest verankert in dem Buchwissen aus dem Zeitalter vor den Netzen? Welchen Konsens gibt es da mit den Leuten die du kritisierst? Kann es sein, daß es überhaupt keinen Paradigmenwechsel gibt und das Neue der Medien nur in den Wiederkehr des Alten gipfelt? Dann kann ja das altvertraute Theoriegerüst stehen bleiben!

HARTMUT WINKLER: Ganz klar gesagt: In den Netzen halten sich keine Menschen auf. Wenn ich einmal grob schätze, gibt es im Netz zur Zeit 60% natürlichsprachliche Texte in schriftlicher Form, 20% Programme und Algorithmen, 10% numerische Daten, 10% Bilder und 10% digitalisierte Töne - alles in allem 110%, zehn mehr als hundert, wie es für den Hyperspace angemessen ist. Und einige der schriftlich verfaßten Texte, da hast Du recht, sind zum sofortigen Verbrauch bestimmt und werden live und in Realzeit dialogisch ausgetauscht. Insgesamt ist es ein Schriftuniversum, da beißt die Maus keinen Faden ab.

Und wenn man fragt, was neu ist an dem ganzen, so scheint mir dies gerade nicht die bilaterale Kommunikation zweier Partner zu sein (als Neuauflage der Telephon- bzw. Fernschreiberlogik), und eben auch nicht die einzelnen Dokumente, sondern vielmehr deren Anordnung in einem n-dimensionalen Raum, ihre materielle Vernetzung durch Links und die Utopie einer universellen Zugänglichkeit, die mit dieser Anordnung verbunden ist. Der Nelson-Begriff 'Docuverse' scheint mir dies gut zusammenzufassen und ein genialer Vorgriff; und deshalb habe ich ihn zum Titel gemacht. In der Tat glaube ich, daß es sich eher um ein Wiedererstehen der Gutenberggalaxis als um ihr Ende handelt. Nach 100 Jahren Herrschaft der Bilder gibt es eine Explosion schriftlich verfaßter Texte, und in meinem Buch frage ich, warum dies geschieht. Von dieser These abtrennen würde ich das Methodenproblem, mit Hilfe welcher Theorien das neue Medium beschrieben werden soll. Über etwas Neues sprechen bedeutet immer, 'alte Kategorien', und im Zweifelsfall: Buchwissen, auf den neuen Gegenstand anzuwenden; einfach weil die Sprache grundsätzlich die Sprache der Vergangenheit ist. Viel verdächtiger ist mir die gegenwärtig weitverbreitete 'Rhetorik des Neuen', die im Begriff der Simulation nicht das ehrwürdige Problem der Ähnlichkeit, im Begriff der Virtuellen Realität nicht die Realismusbehauptung und im Begriff der Daten nicht die ontologischen Implikationen wiedererkennt. Das alte Theoriegerüst kann keineswegs stehenbleiben. Die Leute, die behaupten, es naßforsch eingerissen zu haben, aber werden erstaunt feststellen, wieviel sie, ohne es zu wissen, davon mitschleppen.

Was vor allem nicht neu ist, ist die zynische kapitalistische Logik die in dieser Branche so herrscht. Es gibt dort noch wenig ökonomisches Bewußtsein. Aber das mit der Kommunikation stimmt nach meiner Erfahrung so nicht. Wenn sich 50.000 Leute an der Digitalen Stadt Amsterdam beteiligen und Hunderte gleichzeitig Online sind, sich treffen, Spiele spielen, diskutieren, Emails schreiben usw., ist das für mich erstmal eine Tatsache und keine Ansammlung von Dokumenten. Es mögen multiple Persönlichkeiten sein, Avatars, Gender-Hobbyisten, und vielleicht einige artifiziellen Agenten dazwischen.

Norbert Bolz ist derjenige, mit dem du dich am meisten auseinandersetzt. Ist es vor allem das 'Totalisierende' in seinen Prophezeiungen, was dich am meisten stört ('das Unwahre'...)? Z.B. die feste Überzeugung über das Ende des Gutenberg-Universums, den Sieg der Hypermedien und die Nichtlinearität? Bolz ist ein Schüler von Jacob Taubes, kennt sich in der deutschen Philosophie und der politischen Theologie (Hobbes/Schmitt) bestens aus und ist außerdem Walter Benjamin-Spezialist. Dort liegt auch sein Ansatz in Richtung einer Theorie der neuen Medien. Mißbraucht er die klassischen Quellen deiner Meinung nach? Oder sind sie überhaupt nicht zu gebrauchen wenn es darum geht, die technologische Entwicklungen vorherzusagen? Man könnte doch sagen, gerade Norbert Bolz verkörpere die von dir gewünschte geistige Kontinuität und den Dialog zwischen den alten und neuen Medien. Oder geht die Kritik zurück auf Bolz' Absage an die Aufklärung und seine sonstigen postmodernen Aussagen?

HARTMUT WINKLER: Fast alles ja. Bolz soll ein wirklich gutes Buch über Benjamin geschrieben haben (das ich zu meiner Schande nicht kenne). Wenn er heute Benjamin verwendet, kürzt er aber Dreiviertel der wirklich schwierigen Dimensionen weg (den 'linken' Benjamin, den Metaphysiker, den Mystiker, den Sprachphilosophen und die jüdische Denktradition), bis er jene schlichte Technikaffirmation übrigbehält, die er brauchen kann. Bolz hat irgendwann kalt berechnet, daß diese Republik einen Medienfuzzi braucht, der ihr in genügend gebildeten Worten sagt, was sie hören will, und es hat funktioniert.
Im Buch benutze ich ihn als eine Art Boxsack, und das ist natürlich auch eine Stilisierung. Im Übrigen gibt es auch bei Bolz wirklich schöne Stellen. Wenn er schreibt, diese Gesellschaft habe sich entschlossen, "rein mit Fakten zu konstruieren", so ist das sehr inspirierend, auch wenn man seine affirmativen Folgerungen nicht akzeptiert.

Immer wieder kommst du zurück auf deine These, daß die neuen Medien auf Sprache basiert sind. Nach Sherry Turkle's Einteilung bist du bestimmt ein IBM-PC-Modernist alter Prägung, der die Segnungen des symbolisch-ikonographischen Apple-Windows 95-Postmodernismus noch nicht kennengelernt hat. Anders gesagt: der alte Computer, der als Rechner bedient werden mußte, gegen die neue Bildmaschine mit der zugänglichen, demokratischen Benutzeroberfläche. Umberto Eco macht den Unterschied zwischen bildlosen, abstrakten, protestantischen PCs und bebilderten Schirmen für die katholische Apple-Gemeinde. Also, gib zu, du bist ein protestantischer Modernist (wie ich), der dem Luther-Gutenberg-Pakt angehört! Offiziell also mußt du dich zur Büchergilde bekennen, als Hobby aber gehst du gerne ins Kino... (Hartmut Winkler: diese Unterscheidung ist super!).
Ganz im Ernst, du schreibst ja sogar, daß du die Denkdisziplin, die nötig ist für das Lesen von linearen Texten (Bücher), gutheißt. Du hast vor, 'die gesamte Technik nach dem Muster der Sprache zu denken.' Und generell möchtest du die übliche Verbindung zwischen Denken und Computer in Frage stellen. Das Denken ist nicht 'netzförmig' und verläuft erstmal nicht assoziativ, wie die Befürworter von WWW und Hypertext so gerne behaupten. Trotzdem, ich glaube, daß die jüngere Generation die 'Schrift' als 'bewußte Beschränkung' und 'restriktives System' nicht mehr einfach so hinnimmt. Die akademische Buchkultur der 68-Generation und die textbezogenen Diskussionen verschwinden langsam und ebenso der Einfluß der 'text based intellectuals'. Die Anzahl sowohl der alten wie der neuen Medien, die um unsere Aufmerksamkeit (Disziplin, wie du willst...) konkurrieren, nimmt ständig zu, und das Buch ist nicht so in Mode unter den Aufschreibesystemen. Deine Warnungen mögen ja richtig sein, die Gesellschaft aber entwickelt sich in eine andere Richtung. Die Schrift wird damit auch immer weniger die internalisierte Stimme der Macht. Sie verliert erstmals in ihrer Geschichte einen Teil ihrer Autorität, als Stimme Gottes, des Gesetzes und des Lehrers.

HARTMUT WINKLER: Das Letzte zuerst. Daß die Schrift die Stimme Gottes verliert, bedeutet nicht, daß sie verstummt und daß Gott resigniert aufgegeben hätte. Die erste Aufgabe wäre also, diese Stimme auch dort in Wirkung zu zeigen, wo sie scheinbar nicht spricht. Kittler z.B. tut dies, wenn er auf die Imperative hinweist, die der Technik selbst eingeschrieben sind und die sich haptisch-direkt oder via Handbuch (Schrift!) dem 'user' aufnötigen. Kurz: ich glaube ebenfalls, daß alternative Aufschreibesysteme an die Stelle der linearen Schrift getreten sind. Das allerdings passiert nicht gegenwärtig, sondern ist bereits um 1900, mit dem Machtantritt der technischen Bilder, passiert. Du hast es gelesen: vor allem und an erster Stelle kritisiere ich die Gewohnheit der Mediengeschichtsschreibung, die Computer und die Schrift unmittelbar zu konfrontieren, und die lange Phase der Bildmedien schlicht zu überspringen. Das Phänomen ist doch eben, daß die unsinnlichen Rechner (und auch die paar Icons machen sie nicht sinnlich) an die Stelle eines überwältigend sinnlichen Bilderuniversums treten, die Frustration mit den Bugs an die Stelle der 'uses and gratifications' (in diesen Kategorien hat man die Bildmedien doch immer gedacht!) und ein, wie die Semiotiker sagen: neuerlich arbiträres System an die Stelle eines motivierten. Und das, so denke ich, ist der Rahmen, insgesamt nach dem Verhältnis zwischen den Bildern und den Rechnern zu fragen.

Du hast recht: ich denke nicht, daß die Schrift abgelöst worden ist, weil sie, zu arm und zu wenig komplex, von den anderen Medien 'überboten' worden wäre. Das aber heißt ausdrücklich nicht, daß ich, wie Du schreibst, eine Rückkehr zur linearen Disziplin der Schrift predige. Man muß zumindest drei Ebenen unterscheiden: 1.) das historische Schicksal der Schrift, 2.) die Frage nach den Bildern, und 3.) meine These, daß man das n-dimensionale Netz von der Sprache her begreifen muß. Über die Bilder und die Sprache werden wir gleich sprechen. Schon hier aber ist mir wichtig festzuhalten, daß ich nicht deshalb immer wieder auf die Sprache zurückkomme, weil ich die Sprache hoch und die Bilder gering schätze, oder weil es im WWW so viele schriftliche Texte gibt. Wichtig vielmehr erscheint mir, daß es eine strukturelle Parallele gibt zwischen dem Datennetz und der Sprache - als zwei semiotischen Gesamtanordnungen.
Die Struktur des Netzes selbst, das ist meine zentrale These, imitiert die Struktur der Sprache. Und zwar der sprachlichen Struktur, die in unserem Köpfen abgelegt ist. Die Sprache selbst, das lehrt uns die Sprachwissenschaft, ist ein n-dimensionales Netz von Verweisen. Bedeutungen entstehen durch Abstoßung in einem n-dimensionalen Raum. Um diese Parallele zwischen Netz und Sprache geht es mir, und um die neue Perspektive, die sich daraus ergibt.
Und als vierten Punkt gibt es die These, daß grundsätzlich alle Technik von der Sprache her gedacht werden muß. Ich teile diese Auffassung mit Tholen, der auf Lacan und Derrida zurückgeht, und ich würde Leroi-Gourhan als einen handgreiflicheren und zugänglicheren Zeugen benennen. Sie eröffnet die Möglichkeit, die beiden Seiten der Medien zusammenzudenken: als symbolische Maschinen sind sie nicht einerseits symbolisch und andererseits technisch, sondern beides hat miteinander zu tun, und Aufgabe der Theorie ist es, diesen Konnex exakt zu beschreiben. Diese Diskussion steckt noch in den Kinderschuhen; aber Begriffe wie 'Einschreibung' überbrücken bereits die Differenz, und gerade deshalb sind sie spannend.

Was mir aufgefallen ist, ist das Fehlen Paul Virilios, seiner Geschichte der Medien als Beschleunigung und seiner aktuellen Kritik der Netze, die du vielleicht teilst. Das Datenuniversum mag zur Unifizierung führen, das digitale Grundalphabet als 'Phantasie des Einen' abgetan werden und das 'global village' sowieso nicht existieren, die Beschleunigung im Informationsaustausch und in der Kommunikation aber erscheinen mir durchaus als real. Jenseits des Hypes und der Macken der Maschinen ist das doch der Effekt einer Vernetzung der Büromaschinen. Die Beziehung zwischen dem Aufkommen der öffentlichen Computernetze und der Globalisierung der Wirtschaft ist bisher auch noch nicht gedacht worden. Immer nur: Sprache, Mathematik, Philosophie. Alles formuliert in einer sehr engen, abstrakten und sicheren Terminologie. Ist das nicht ein Zeichen der 'Isolation' des Denkens, ein Aspekt, den du dem Computer und seinen Visionären so vorwirfst?

HARTMUT WINKLER: Die frühen Sachen von Virilio finde ich prima, die späteren, soweit ich sie kenne, immer weniger relevant. Es würde tatsächlich lohnen, das Netz in Begriffen der Zeit und der Geschwindigkeit zu denken. Ich denke aber, daß man zu verblüffenden Ergebnissen käme. Die größte Beschleunigung ist, wenn ich gleichzeitig (!) Millionen von Adressaten erreiche (wie die Massenmedien dies tun), und nicht, wenn ich in der bilateralen Kommunikation einen Tag gegenüber dem Brief einspare oder ein paar Millisekunden gegenüber Fernschreiber oder Fax. Und relevant, denke ich, wäre die gesamte Zeitstruktur, also inklusive der realen Such- und Zugriffszeiten, die ja alles andere als kurz sind. Die Logik der Schrift scheint mir immer eine Zeitversetzung zu beinhalten, weil sie den Zeitpunkt der Einschreibung und den Zeitpunkt der Rezeption grundsätzlich trennt. Und dies eben auch im Datennetz. Was sich real ändert, aber ist die Zugriffszeit auf archivierte Materialien. Wenn Bush sagt, unser Problem sei "our ineptitude in getting at the record", so ändert sich (mit der Zugriffszeit) vor allem das Volumen des erreichbaren Materials. Und das wiederum ist keine zeitliche Größe...

Deinen Ärger, daß die Theorie z.B. die Globalisierung der Wirtschaft gegenwärtig ausgeblendet, teile ich vollkommen. Ich denke, dies ist ebenfalls eine Folge der Entpolitisierung und wird mit ihr korrigiert werden müssen. Auf einer Tagung habe ich den schüchternen Versuch gemacht, zumindest den Zusammenhang zu benennen, der zwischen der globalen Arbeitsteilung und dem Kommunikationsbedarf und damit der Entwicklung der Medien besteht. Dafür aber bin ich entsetzlich geprügelt worden, weil man der Meinung war, solche marxistischen Restbestände seien inakzeptabel, wo man doch inzwischen wisse, daß nicht die Ökonomie der Motor aller Dinge sei (- das ist aber nach wie vor so! Geert Lovink -). Wer nicht jeden Paradigmenwechsel klaglos mitmacht, hat noch nicht begriffen, worum es geht. Aber vielleicht hast Du recht, und es würde lohnen, von den lichten Höhen von "Sprache, Mathematik und Philosophie" dann und wann herabzusteigen...

Ich glaube, wie du, daß es für die Computer und ihre Entwicklung viel besser wäre, das 'Projekt Docuverse' als ein 'partikulares Medium' zu betrachten und die utopischen Träume vom universalen Medium, vom Datengesamtkunstwerk usw. als notwendige Rituale der Einweihungsphase anzusehen. Es geht also darum, die sauberen, totalitären Vorstellungen zu verschmutzen und temporäre, hybride Medienverbünde zu schmieden. Du gibst ein schönes Beispiel, wie dramatisch die Digitalisierung der Filme enden könnte, wenn man irgendwann mal rausfinden wird, daß auch Bytes zerfallen. Es wird aber nicht nur digitalisiert für Archivierungszwecke, sondern auch um die Distribution von Ideen, Texte, Bildern, schneller und billiger zu machen. Du mußt doch was über Netze als Vertriebssyteme sagen, oder spielt das ewige Hin und Her für dich keine entscheidende Rolle? Netze können dafür sogar als Metapher gesehen werden und sind in dem Sinne nicht mal 'real', sondern verweisen auf etwas anderes.

HARTMUT WINKLER: Ich sehe das Archiv und das Hin und Her nicht als zwei getrennte Betriebsmodi an, sondern als die notwendige Verschränkung von Sprechen und Sprache (Diskurs und Struktur), die ich oben als ein zentrales Problem der Theoriebildung genannt habe. Alle und jede Kommunikation operiert in Wechselbeziehung mit einem Archiv, ob dieses nun als 'Sprache' in den Köpfen der Leute abgelegt ist oder als Videothek in einem Holzregal. Wenn die Distribution also schneller und billiger wird, so beeinflußt dies zunächst diese Wechselbeziehung, und damit die Struktur des Archivs. Wissensbestände, die bis dahin getrennt waren (z.B. Deine und meine), werden in Kontakt gebracht und zu 0,3% aufeinander zu bewegt oder auch nicht.
Zudem muß man sich überlegen, ob die Distribution bisher langsam und teuer war, und woran man dies mißt. Viele 'Verlangsamungen' der Kommunikation, wie z.B. die Gewohnheit der Verlage, nur bestimmte Manuskripte zu drucken, andere aber nicht, haben ja eine präzise Funktion in der Ökonomie der Diskurse, und wenn solche Sperren fallen, muß man fragen, welche neuen Gliederungen (und Ausschlüsse) an ihre Stelle treten. Ich glaube in keiner Weise, daß Kommunikation per se etwas Gutes ist und wünsche mancher Ethnie, sie möge noch einige Zeit von ihr (und der Globalisierung) abgeschnitten sein. Ich glaube nicht wie Habermas, daß Kommunikation zwangsläufig Konsens produziert, oder wenn, dann eben zwangsläufig im wörtlichen Sinn von Zwang, und ich glaube nicht, daß die Ideen bisher vor allem Geschwindigkeitsprobleme hatten. In jedem Fall aber ändern sich die Strukturen. Und das ist tatsächlich interessant.

Im Moment werden 100.000 Stunden Betacam-SP Video aufgenommen mit den Zeugnissen der Überlebenden des Holocaust. Das 'Spielberg-Projekt' hat zum Ziel, dieses Material an fünf Orten zu lagern, zu digitalisieren, mit Links zu versehen und auf möglichst vielen Plattformen zugänglich zu machen (CD-Roms, Video, Fernsehen, usw.). Das Ziel:ein kollektives Gedächtnis unter den Bedingungen der neuen Medien zu entwickeln. Hier werden der Computer und die Netze eindeutig als Archiv benutzt, als Bibliothek und Referenzsystem, genau in dem Sinne wie du das meinst, oder? Andererseits wird das Netz als Enzyklopädie ein großartiger Fehlversuch sein, alle Kenntnisse der Welt in sich aufzunehmen. Aber die Suchoptionen funktionieren im Moment schon relativ gut, als Hilfsmittel bei der Durchforschung von großen Wissensbeständen, wie zum Beispiel zum Thema Holocaust. Kollektives Gedächtnis heißt für mich, dafür zu sorgen, daß solches Wissen außerhalb der Maschinen und Archive in die lebendigen Menschen und die gesellschaftlichen Rituale und Umgangsformen eingelagert wird. Dieses Gedächtnis könnte ständig reproduziert, lebendig gehalten werden, in immer neuen Standards, technischen wie sozialen. Warum benutzt du den Begriff 'Gedächtnismaschine' nicht im Bezug auf Archiv und Geschichte, sondern nur in einer Dialektik zwischen Individuum und Maschine als kognitiven Prozeß?

HARTMUT WINKLER: Die letzte Frage verstehe ich nicht, weil ich denke, meinen Text gerade nicht mit Blick auf das Individuum konstruiert zu haben, sondern mit Blick auf das kollektive Gedächtnis und den intersubjektiven Raum der Technik und der Diskurse.
Generell aber scheint es mir zwei Möglichkeiten zu geben. Entweder ich denke das Datennetz von den Leuten her, die es benutzen, dann bleibt im Grunde alles beim Alten. Es gibt ein neues Aufschreibesystem, 'eigentlich' aber geht es nach wie vor darum, was die Leute von diesem Aufschreibesystem lernen, ob sie also internalisieren, daß der Holocaust, den Du wahrscheinlich nicht zufällig als Beispiel wählst, etwas Schreckliches ist. Und wenn, verzeih mir den Zynismus, 100.000 Stunden Betacam-SP Video dazu nicht ausreichen, dann müssen es eben 1.000.000 Stunden Betacam sein. (Ich setze wenig Hoffnung in solche quantitativen Kraftakte).
Die zweite Möglichkeit ist die Meinung der Technikfraktion, daß es eigentlich darum geht, gerade die 'tote', die Schrift-und Technikseite der Medien zu denken. Verabsolutiert führt sie in jenen Technikfetischismus, der, wie ich gesagt habe, selbst Verdrängungscharakter hat. Irgendetwas aber ist dran an dieser Position. Die Medien sind keineswegs nur Mittel für feststehende Zwecke, sondern eine eigene Struktur, und zwar eine Struktur, welche die Einschreibung in die Köpfe nicht nur unterstützt, sondern mit ihr auch in Konkurrenz tritt.

Und dies ist ein weiterer Grund für mich, die Sache von der Sprache her zu denken. Im Fall der Sprache kann man relativ klar beschreiben, auf welche Weise Diskurs (das Sprechen) und System (das Archiv/die Sprache) zusammenhängen. Je technischer die Medien aber werden, desto komplizierter und indirekter wird diese Wechselbeziehung; die Beziehung zwischen dem kollektiven Gedächtnis und dem individuellen wird immer prekärer, das kollektive Gedächtnis (niedergelegt in den Aufschreibesystemen, in der Struktur der Technik und der Institutionen) wird immer klüger, das zweite, individuelle nicht im selben Maß. Was Günther Anders die 'prometheische Scham' nennt, ist die reale Erfahrung, daß diese Schere schmerzlich auseinanderklafft.
Wirklich auf dem Stand der Debatte ist der Einzelne nur in dem winzigen Teilgebiet, das die Arbeitsteilung ihm zugewiesen hat (und auch das nur im besten Fall); der Rest der Welt entzieht sich ihm, und er muß sich mit groben Vereinfachungen behelfen, wie sie die traditionellen Massenmedien unter die Leute bringen. Ich kann nun versuchen, bestimmte zentrale Wissensbestände zu definieren, die unbedingt in allen Köpfen vorhanden sein müssen (Beispiel Holocaust), an der eigentlichen Problematik aber ändert dies nichts. Das ist die strukturelle Frustration, die, nach meiner Auffassung, die Entwicklung der Medien vorantreibt. Die Sprache setzte auf die Allgemeinheit der Begriffe, die traditionellen Massenmedien nahmen den Anspruch auf Flächendeckung zurück und setzten darauf, bestimmte sehr reduzierte, aber zentrale Wissensbestände (Liebe, Moral, Verbrechen, 'Politik') in den Köpfen zu verankern; und die Computer schließlich setzen auf das Netz als ein extensives Textuniversum, das die arbeitsteilige, unendlich verzweigte Gesellschaft auf einem einheitlichen 'Tableau' repräsentieren soll. Jedem seine Homepage und dazwischen die einheitliche Architektur der Links...

Von dort aus, und nun treffen sich Dein und mein Argument wieder, kann man dann nach der Wechselbeziehung zwischen den Medien und den Köpfen fragen. Man kann fragen, ob die 100.000 Stunden Betacam ein Versuch sind, den Köpfen eine Erkenntnis tatsächlich aufzunötigen, oder ob sie eine Art Monument sind, eine Ersatzstruktur im Außenraum, die den Köpfen die Rezeption gerade erspart. Kein Mensch wird mehr als 100 Stunden solchen Interviewmaterials tatsächlich zur Kenntnis nehmen können. Die restlichen 99.900 Stunden wird er also als eine Art Ausrufezeichen hinter den 100 Stunden verstehen, als ein Zeichen, daß die Urheber des Projekts es wirklich und tatsächlich ernst meinen, oder als eine Fläche, aus der nach Kriterien ausgewählt werden kann. Aber kann es um Auswahl gehen? Und stell dir die furchtbare Schlagwortmaschine vor, die dieses Videomaterial erschließt.

Ein Teil des Buches, der mir gut gefällt, ist die Beschreibung von Leroi-Gourhan's 'Hand und Wort' und die 'Maschinen des kollektiven Gedächtnisses', ihre Verbindung zur Evolution, und zu einer Theorie der Technik, 'die die Technik in einem Dreieck zwischen Naturgeschichte, Praxen und Sprache neu lokalisiert.' Bei Leroi-Gourhan 'tritt das soziale Gedächtnis (eng verknüpft mit den Techniken und der Sprache) an die Stelle der Instinktbindung.' Siehst du dort Verbindungen mit der Theorie der 'Meme', die später von Richard Dawkins entwickelt wurde? Wie sieht für dich die 'Zukunft der Evolution' in dieser Hinsicht aus? Macht es Sinn, eine biologische Metapher wie 'Evolution' für die weitere Entwicklung der Technik und der Maschinen des kollektiven Gedächtnisses zu verwenden?

HARTMUT WINKLER: Du stößt in eine weitere meiner Wissenslücken: Dawkins kenne ich nicht. Die Schwierigkeit scheint mir zu sein, daß in der Rede von der Evolution, und mehr noch im Fall der allseits beliebten 'Emergenz', ein sehr richtiges und ein idiotisches Argument sich mischen. Sehr richtig scheint mir, den Blick auf die Tatsache zu lenken, daß die Technikentwicklung ein riesiger Makro-Vorgang ist, der sich - das ist die hauptsächliche Eigenschaft der Evolution - einer bewußten Lenkung weitgehend entzieht und alle menschlichen Zwecke überschreitet. Idiotisch erscheint mir, daraus den Schluß zu ziehen, daß damit jeder lenkende Eingriff sinnlos und jede noch so geringe Abstandnahme (durch Bewußtsein oder was auch immer) zum Scheitern verurteilt sei. Hier scheint mir ein ursprünglich skeptisches Argument -verabsolutiert- in ein affirmatives umzuschlagen, mit katastrophalen Konsequenzen für die Theorie.
Jede noch so naive ökologische Überlegung lehrt uns, daß man Batterien vielleicht nicht unbedingt aus Cadmium machen sollte, und aus der Landwirtschaft keine Unterabteilung der Chemieindustrie. Man stößt damit wieder auf jene komplizierten und unattraktiven Fragen der Politik, die man gerade verabschiedet zu haben glaubte. In jedem Fall scheint es mir wichtig, nicht von einer Technik, sondern von konkurrierenden Techniken (im Plural) auszugehen. Und dann wird es schwierig mit dem Begriff der Evolution.
Und hier kann man eben von Leroi-Gourhan lernen, was bei Teilhard de Chardin das Problem ist. Beide gehen vom Evolutionsbegriff aus, während der zweite aber in eine unifizierende und dann konsequenterweise: religiöse Apotheose steuern muß, orientiert Leroi-Gourhan auf das kollektive Gedächtnis, als eine plastische Struktur. Einerseits sedimentiert und von einem erheblichen Beharrungsvermögen, andererseits aber eben doch abhängig vom Verlauf der konkreten Praxen. Wieder also geht es um die Wechselbeziehung zwischen Diskurs und System.

Speichern als Begriff ist dir zu technisch, zu neutral und nicht komplex genug. Du bevorzugst das 'System der Sprache', in dem Verdichtung und Vergessen eine wichtige Rolle spielen. Diese Begriffe oder Vorgänge haben in der bisherigen deutschen Medientheorie keine so große Rolle gespielt. Ganz praktisch könnte die Umsetzung dieser Begriffe heißen, daß viel, was in den Netzen passiert und abgelegt wird, mit einem Verfallsdatum versehen werden sollte, und daß nicht 'content', sondern 'context' oder 'point of view' die wertvollsten Waren sein werden. Es geht dabei aber um eine Machtfrage: Wer bestimmt, was data trash ist und was nicht mit einem Verfallsdatum versehen werden darf, bzw. wer für mich die 'wesentlichen' Informationen herausfiltert. Du sagst, das Netz soll einsehen, daß es einen Diskurs produziert. Aber das geht doch nur mit einem Gewaltakt, die heutige Vielfalt zu eliminieren und die eindeutigen Filter zu installieren, die später den Diskurs ausmachen werden? Oder gab es das berühmt/befürchtete Chaos des 'many-to-many' im Internet nie?

HARTMUT WINKLER: Ohne Verfallsdaten wird es nicht gehen, aber das scheint mir gar nicht der zentrale Punkt zu sein. Meine Prognose ist, daß sich absolut naturwüchsig Hierarchisierungsprozeße durchsetzen werden, teils weil es einzelnen mächtigen Anbietern gelingen wird, wichtige Orte im Netz zu etablieren (völlig parallel zur Okkupation der Innenstädte), teils weil eine ständige Abstimmung mit den Füßen (bzw. mit der Maus) stattfindet, welche Regionen des Netzes zentral sind und welche peripher. Auch Informationen, die nicht gelöscht werden, können an den Rand geraten, wenn niemand sie mehr zur Kenntnis nimmt. Und entsprechend wird es zunehmend nicht mehr darum gehen, im Netz überhaupt repräsentiert - also 'da' - zu sein, sondern Nutzerbewegungen anzuziehen, und vor allem Links, die auf mein Angebot zeigen. Beide Prozesse laufen naturwüchsig ab, und das heißt naturwüchsig-machtgesteuert. Kein Mensch reflektiert gegenwärtig, welche Machtzusammenballung in den Search-Engines stattfindet. (Kein Mensch, außer der Börse, die Yahoo! sofort beim Einstieg unglaublich hoch bewertet hat). Und wenn Du oben sagst, die Suchoptionen funktionierten im Moment schon relativ gut, dann abstrahierst du von der Tatsache, daß kein Mensch weiß, welchen Teil des Netzes die Search-Engines auswerten und erschließen, und welche unendlich vielen Teile nicht, welche Strategien es gibt, um innerhalb der Engines möglichst gut repräsentiert zu sein und welche Planungen hier längerfristig laufen. Wir glauben, die Engines durchsuchen 'das Netz' als ganzes, das aber ist mit Sicherheit nicht der Fall.
Und - superspannend: - die Frage nach 'context' und 'point of view'. Meines Wissens gibt es, zumindest zur Zeit, keine Algorithmen, die context und point of view im Netz sinnvoll realisieren würden. Und dies scheint mir alles andere als ein Zufall zu sein. Der Kontextbegriff setzt zunächst relativ stabile Nachbarschafts- (Kontiguitäts-) Verhältnisse voraus; in linearen Texten die Anreihung, und in der 3-dimensionalen Realität das konkrete Nebeneinander im Raum. Auffällig ist nun, daß dieser Typus von Nachbarschaft der n-dimensionalen Netzlogik und dem Ideal sofortiger Veränderbarkeit diametral widerspricht. Nehme ich die Struktur der Links als Basis, so ist Kontext, was über Links direkt zugänglich ist. Werden die Links umgebaut, bricht der Kontext zusammen. Die zweite Möglichkeit ist, vom Begriff eines semantischen Kontextes auszugehen. Dann ist es letztlich das System der Sprache, z.B. in der Formulierung von Suchbegriffen, das einen bestimmten textuellen Umraum erschließt. Und für den point of view gilt das selbe: ein point of view scheint mir ebenfalls nur vermittelt über das semantische System der Sprache gegeben zu sein. Selbst sehr schlichte Äquivalente wie geographische oder regionale Eingrenzungen lassen die Search-Engines gegenwärtig nicht zu. Und täten sie es, wäre auch das nur ein relativ willkürliches Kriterium. Wie siehst Du die Möglichkeiten, Kontext und point of view im Netz stärker zu machen?

Hauptsache bleibt für mich vorerst die Access-Politik und die Demokratisierung dieser Medien, zweitens sollte es viel mehr Redakteure im Netz geben und erst an dritter Stelle kommt die am meisten wertvolle aller Kenntnisse innerhalb der Netze, den Kontext. Das hat etwas privates, fast intimes, sich ohne manipuliert zu werden trotzdem steuern zu lassen. Es kann da nicht nur um rationelle Kriterien gehen.

Du erwähnst die 'Sprachkrise um 1900' und sagst, daß inzwischen eine vergleichbare 'Krise der Bilder' eingetreten ist.. Ist es aber nicht vor allem das (deutsche?) autoritäre Bürgertum, das die Bilderflut nicht abkann und, wie du sagst, zutiefst irritiert ist, daß 'das' Fernsehen nicht mehr mit einer Stimme spricht; eine ältere Lehrerschicht, Die 'Zeit'-Leser, die auch schon das Zappen nicht genießen konnten und sich nach Ruhe, Ordnung und Übersicht in der Medienlandschaft sehnen. In Osteuropa sieht man das ja aus ganz anderer Sicht und nimmt das nichtssagende Pulp-Info-Entertainment der Privatsender gerne in Kauf. Nur nicht Die Eine Stimme der Partei! Begrüßt du nicht die Tatsache, daß die Macht der Bilder, durch ihre Verbreitung, tendenziell abnimmt? Das 'Grauen vor der Arbitrarität' hat mit der Verbreitung dieser Medien zu tun, mit ihrer 'dispersion'. Zurecht schreibst du: 'Alle Mediengeschichte ist ein Versuch, aus dieser mehr als unkomfortablen Situation zu entkommen', und dann beschreibst du den Zykluscharakter von der Euphorie über die Verbreitung zur Enttäuschung.

HARTMUT WINKLER: Nun sind wir also angekommen bei der Rolle der Bilder. Wenn man die gegenwärtige mediengeschichtliche Situation analysieren will, so muß man zunächst fragen, ob der Computer ein neues Bildmedium ist, das an die Tradition der technischen Bilder (Photographie, Film, TV) anschließt, oder ob er aufgrund seiner spezifischen Eigenschaften mit dieser Tradition bricht. Und meine Meinung ist sehr eindeutig, daß man mit Computern zwar auch Bilder produzieren kann, daß diese aber eher ein Kraftakt sind (das zeigt der exorbitante Ressourcenbedarf), und keineswegs ihre Stärke. Meine Programmierervergangenheit sagt mir, daß der Computer ein Medium der abstrakten Strukturen ist, der Programmarchitekturen und jener Algorithmen, die letztlich auch hinter den digitalen Bildern stehen. Dem Computer ist es völlig gleichgültig, ob es schließlich Bilder sind, die auf der Oberfläche des Ausgabeschirmes erscheinen. Er selbst kann mit dem Bildcharakter der Bilder nichts anfangen (so gibt es keine sinnvollen Algorithmen der Gestalterkennung oder der automatischen Verwaltung von Bildinhalten), die 2-dimensionale Ausgabe zielt nur auf die Sehgewohnheiten des Users ab.

Ich sage deshalb, daß der gegenwärtige Hype um digitale Bilder und Multimedia ein Übergangsphänomen ist, eine historische Kompromissbildung zwischen dem Bilderuniversum, das in die Krise geraten ist, und dem neuen abstrakten und strukturorientierten System der Rechner.
Und wenn das so ist, denke ich, muß man fragen, was den Bildern zugestoßen sein könnte. Die übliche Antwort ist, daß sie das Vertrauen des Publikums verloren haben, weil sie digital manipulierbar geworden sind. Das mag ein Faktor sein. Meine Meinung aber ist, daß sie das Vertrauen vor allem deshalb verloren haben, weil sie so viele geworden sind, daß sie sich aufschichten und zunehmend das Schema, das Muster, hervortritt. Damit verlieren die Bilder die Konkretion, die konstitutiv für ihr Funktionieren war.
Jeder, der zappt, kennt das Phänomen: Egal wie viele Kanäle es sind, das Fernsehen erscheint als eine einheitliche Fläche relativ weniger, sehr häufig wiederholter Schemata, und unter der konkretistischen Oberfläche tritt der Sprachcharakter der Bilder hervor.

Eine zweite Frage ist, wem diese Erfahrung gegenwärtig zugänglich ist. Die Kulturkonservativen, die du erwähnst, haben es schon immer gesagt, aber etwas anderes gemeint. Sie sind tatsächlich bei der linearen Schrift hängengeblieben - zumindest mit ihrem Ich-Ideal -, oder bei jener unappetitlichen Komplementärkonstruktion aus 'ernster Arbeit' (Schrift/Theorie) und Erholung (Oper/Kino/TV). Über die zweite Versuchsgruppe, die Leute in Osteuropa, kann ich mangels Erfahrung wenig sagen. Ich denke, daß es eine Weile braucht, bis man mit dem TV-Pulp 'durch' ist, und die Frage wäre einfach, was dann dort passiert. Das Phänomen hier im Westen jedenfalls ist, daß viele Leute sich auf die Computer stürzen. Und dafür haben sie nur exakt die Freizeit zur Verfügung, die sie bisher vor dem TV verbracht haben. Es findet also tatsächlich eine Ablösung statt, trotz der riesigen Unterschiede in der Struktur beider 'Medien' und der jeweiligen 'uses and gratifications'. Und diesen Wechsel gilt es zu erklären.

Plötzlich aber machst du eine dann eine für mich unerwartete Bewegung: statt Fortschritt oder Zyklus siehst du im Computer ein fast regressives Element. Du sagst: 'Der Bildcharakter ist den Rechner vollständig unzugänglich.' Die digitalen Bilder sind eher Tor, Zugang, Oberfläche, Illustration, und nicht Bild, wie Photo oder Film. Jetzt, wo alle Welt fieberhaft an der Synthese von Internet und Fernsehen arbeitet, sagst du, der Computer habe ganz andere Eigenschaften. Der Computer sei zwangsläufig isolationistisch, auf Sprache eingestellt, abstrakt und 'immer im Verdacht, das Wesentliche abzuschneiden', während die kontextuellen und mimetischen Medien wie Photographie und Film konkret und komplex seien. Kannst du vielleicht den Optionenhändlern der Medienbranche verraten, was Sache ist? Ist Multimedia eine Sackgasse? Warum irren sich denn so viele Millionen von Leuten? Das kann ja gut der Fall sein...
Ich halte von 'Multimedia' auch nicht sehr viel. Was ich aber mag, ist der Hobby- und Bastlercharakter des Computers. Filme produzieren ist etwas für die ganz, ganz wenigen. Beim Film ist man per Definition Zuschauer. Überhaupt erwähnst du nirgends die Video- und Camcorder-Revolution. Film ist für dich ein klassischer, geschlossener Diskurs der Theoretiker und Kritiker. Medien generell produzieren für dich immer nur 'Diskurs' und nie 'Öffentlichkeit' (an dem viele teilhaben). Es ist nach 100 Jahren Filmgeschichte ja sehr einfach zu behaupten, Film und die ganzen Bildmedien haben eben 'Kontext' und die Rechner dagegen sind 'isolationistisch', vor allem wenn man bei dir in den Netzen nur Daten vorfindet und keinen anderen User... Und wenn es dem Computer an Kontext fehlt, dann könnte man/frau den doch einfach erfinden und erstellen? Oder liegt es in der 'Natur' dieses Objektes? Warum z.B. sagt du, 'als Metamedium ist der Computer allein'? (Hartmut Winkler: das ist an der entsprechenden Stelle anders gemeint). Ich sehe nur mehr und mehr Randapparaturen kommen (wie Scanner und Mikrophone, kleine Kameraaugen usw.) und eine schrittweise Eingliederung (sprich: Vernetzung) in die Alltagswelt, ihre Medien, Archive und Verhaltensweisen, weg aus dem Labor (und dem Büro...).

HARTMUT WINKLER: Deine These hat einiges für sich. Trotzdem möchte ich (evangelisch-bilderfeindlich, wie du mich entlarvt hast) darauf beharren, daß die unterschiedlichen 'Anwendungen' (ein unglaubliches Wort! Das gibt's sonst nur im Medizin- und Bäderbereich!) unterschiedlich viel mit dem Medium selbst zu tun haben. Hart gesagt kann man mit einem Kofferradio auch Nägel in die Wand schlagen. Und wenn viele Leute zu basteln anfangen, so scheint mir das grundsätzliche Problem zu sein, in welchem Verhältnis das Basteln zu den strukturierenden Vorgaben z.B. der benutzten Software steht. Ähnlich wie beim Malbuch und bei der vorgedruckten Laubsäge-Vorlage, scheint mir die benutzte Software fünfzigmal intelligenter als jede User-Aktivität, die Hardware hundertmal intelligenter, und wenn diese Diskrepanz nicht zu Bewußtsein kommt, so nur deshalb, weil beide sich als universell gebärden, und die Kraft, mit der sie die Aktivitäten des Users vorstrukturieren, verleugnen.
Im übrigen ist auch der Kinozuschauer keineswegs passiv, nur weil er nicht herumrennt und (im besten Fall) nichts sagt. Die Kinotheorie hat gezeigt, daß er dem Gezeigten mit einem ständigen Strom von Phantasien begegnet, was den Unterschied zwischen interaktiven und nicht-interaktiven Medien zumindest irritiert. Windows und Word scheinen mir deshalb Massenmedien zu sein, weil sie Millionen von Nutzern die gleiche 'Welt' aufnötigen. Welche Texte die einzelnen Nutzer dann schreiben, ist demgegenüber fast peripher.

Aber ich will nicht nur widersprechen: Ich denke auch, daß die Rechner mit dem Alltag zunehmend verschmelzen und daß die Fülle von Peripheriegeräten eine Vernetzung mit den Praxen und Alltagsvollzügen bedeuten. Wie aber bringen wir dies in eine Medientheorie der Computer ein? Kann man diese Veränderung rein von den Leuten her denken, User statt Texte/Maschinen und Öffentlichkeit statt Diskurs? Verändert sich die Kontaktfläche zwischen beiden Sphären? Und bist Du der Meinung, daß die kalte Sphäre der Texte/Maschinen sich auf diesem Wege langsam erwärmt?

Nein, nicht über die Bildschiene. Die Computernetze im Moment haben wie nie zuvor die kollektive Einbildungskraft mobilisiert (trotz Hype und Geschäft). Die Erwärmung wird eben von den Menschen kommen, die man dort trifft, nicht von den Bildern und Produkten die dort zur Verkauf angeboten werden. Wetware sucht seine Artgenossen, trotz allen Thesen vom Ende des Subjektes, das Soziale ist nicht so leicht auszurotten, es ist alt und gemütlich, auch im Cyberspace. Man wird ja nicht die ganze Zeit allein durch diese ewiglangen Tunnels schweben wollen.

HARTMUT WINKLER: Das Problem 'Isolation' versus 'Kontext' ist wahrscheinlich zu kompliziert, um es hier in der kurzen Form noch mal ganz klarzukriegen. Aber die Idee war, die übliche Unterscheidung von analog und digital zu überschreiten und ein allgemeineres, wenn du so willst, semiotischeres Kriterium zu entwickeln. Isolation und Kontext sind die beiden notwendigen Bestimmungen des Zeichenprozesses, seine beiden Pole, denn Zeichen sind immer mehr oder minder abgrenzbar/verschiebbar und sie bilden in der Kombination immer Kontexte aus. Wenn ich den Film (in seinem analogen Gleiten) nun dem Pol 'Kontext' zuordne und den Computer dem Pol 'Isolation', dann erkenne ich, daß es sich jeweils um Spezialisierungen bzw. Vereinseitigungen handelt. Film, das ist die Vorstellung, die du zitierst, ist immer schon Kontext, weil ich ihn gar nicht in letzte Einheiten oder Elemente zerlegen kann. Das kann ich bei den Modellen im Rechner immer; und das scheint mir jeweils eine Pointe der beiden Medien zu sein.

Worin besteht deiner Meinung nach das historische Projekt des Computers? Film, sagst du, ist gegen die Krankheiten des Symbolischen gerichtet. Es ist klar, daß die Computer saubere Räume erstellen, Paranoia erzeugen, Abwehr und Verdrängung (der Anderen und der Gesellschaft sowieso) fördern, die klassischen Formen von Öffentlichkeit bedrohen usw. Dies alles sind für mich reale Einwände gegen die übertriebenen Erwartungen der Euphoriker. Aber meinst du wirklich, daß die alten Medien auf all diese Probleme eine Antwort haben? Film kann Geschichten erzählen (wie kein anderes Medium), aber doch nicht die Welt retten! Warum denkst du noch in solchen Kategorien der Polarität und Rivalität zwischen den unterschiedlichsten Plattformen? Klar, es führt zur Polemik, und das braucht die deutsche Medientheorie, da bin ich einverstanden.

HARTMUT WINKLER: Wenn Du der Sauberkeits- und Paranoia-These zustimmst, sind wir schon ziemlich einig; und tatsächlich ist es ja umgekehrt, weil es der Wetware-Text der Agentur Bilwet war, an dem mir überhaupt die Verbindung zu Theweleit und zu den feministischen Fragen klargeworden ist. Aber dann befinden wir uns in einer ziemlich übersichtlichen Minderheit. Die meisten der Involvierten können ihre Paranoia offensichtlich mehr genießen, oder sie haben sich für eine Zeit relativ komfortabel in ihr eingerichtet. Und selbstverständlich kann der Film die Welt nicht retten. (Vielleicht wüßten die Leute es sonst und würden ihn nicht so schlecht behandeln, ihn in lächerliche 540 Zeilen rastern und strampelnde Multimedia-Briefmarken für die Sache nehmen). Die Konkurrenz aber gibt es real und zwar auch außerhalb der deutschen Medientheorie: in der Konkurrenz um die Freizeit der Leute, um ihr Geld, ihre Aufmerksamkeit, ihre Zuwendung, und um gesellschaftliche Infrastrukturen. Paradigmenwechsel in der Mediengeschichte sind nur dann dramatisch, wenn es tatsächlich um Ablösungen geht. Ob ein solcher gegenwärtig stattfindet, ist umstritten und Teil der Diskussion. Ich denke aber, daß man von einem Wechsel sprechen kann. Soweit nehme ich den Hype ernst.

Männer denken isolationistisch, Frauen dagegen kontextuell, das ist auch meine Beobachtung. Nun ist das in der Kultur so festgelegt und gehört nicht zur Natur der Geschlechter (so die Genderdebatte...). Anders gesagt: Männer lieben MS-DOS und UNIX, Frauen Apple und Windows 95. Den Ansatz von Kittler und Theweleit finde ich da aber doch einleuchtender, wo sie über Mann-Frau-Paare schreiben, die über die Diskursmaschinen, produktive (und manchmal tödliche) Beziehungen miteinander eingehen. Das wiederholt sich am Beispiel Computer. Oder sind wir immer noch nicht klüger geworden? Was für eine Erziehungsdiktatur und Architektur der Maschinen brauchten wir, um uns endlich von diesen einfachen Trennungen und offensichtlichen Fakten zu befreien?

HARTMUT WINKLER: Der Wetware-Text, ich muß noch mal darauf kommen, hat ebenfalls eine deutliche Geschlechterkonnotation, mit der Pointe allerdings, daß er auch den männlichen User in eine weiblich-wässrige Position bringt. Die Maschinen überbieten ihn in seiner Männlichkeit und beschämen ihn ein weiteres Mal, nur diesmal nicht mehr prometheisch, sondern genital (oder gender-konstruiert-genital). Ansonsten aber bin ich unsicher. Bei Kittler hat mir die Komplementaritätsthese nie eingeleuchtet; wenn die Männer diktieren und die Frauen tippen, sehe ich nicht, was daran eine produktive Beziehung vermittelt über Diskursmaschinen wäre (es sei denn man faßt das 'produktiv' in einem zynisch-ökonomischen Sinn). In Theweleits Orpheus-Buch, von dem ich nur den ersten Band kenne, kommen die Frauen ohnehin nur als Hilfsmittel der männlichen Dichterproduktivität in Betracht. Vor allem aber sehe ich im Fall der Computer keine vergleichbare Verschränkung. Was ich sehe, ist eine Separation der Medien entlang der Geschlechtergrenze: eine Korrelation der Mentalitäten (Frauen: kontextuelles Denken/Bildmedien und Männer: isolationistisch-reifizierendes Denken/Computer). Und darüber wollte ich schreiben, weil mir die Korrelation auch über die Medien selbst einiges auszusagen schien. (Und über mich selbst als einen männlichen Computerbenutzer). Wo zeichnet sich für Dich eine produktiv-komplemetäre Beziehung im Fall der Computer ab?

Sowieso nie nur innerhalb des Computers, sondern immer in den eigenartigen Zusammenschlüssen von alten und neuen Medien, Piratenradio mit lokalem Fernsehen und überflüssigen Websites, einem Manifest, ein wenig Klatsch und schönen Bildern dazu, mit vielen Leuten, in einem realen Raum, also mit möglichst wenig monokausalen, selbstbezüglichen Maschinen. Aber eine Gender-Sache ist zu unseren Lebzeiten nie einfach vorgegeben, einfach da, das Thema muß immer auf den Tisch.

Eine Aufgabe der Netzkritik liegt, unserer Meinung nach, darin, die Faszination für die Netze zu verstehen, und, wie du sagst, das 'Reich der Wünsche' zu erforschen. 'Die' Medientheorie hat dies bisher noch nicht gemacht, hauptsächlich aus dem Grund, daß sie sich für die real existierenden Medien und deren Tücke nicht interessiert hat. Sie hat versucht, diese Medien erstmal historisch einzuordnen und uns einen tonnenschweren Apparat an Begriffen geschenkt, von denen nur die wenigsten auf der Erde etwas wissen. Die deutsche Medientheorie ist nicht Diskurs und war nie in der Mode, wenigsten nicht aus internationaler Sicht. Vielleicht gilt das nur für das westdeutsche Feuilleton.

HARTMUT WINKLER: Mein Traum ist es natürlich, nicht nur Mode zu werden sondern Kult, mit oder ohne die deutsche Medientheorie, und zwar zuerst im deutschen Feuilleton (das bislang tatsächlich nur todtraurige Dinge zum Computer produziert), und sofort danach international. Und ich finde es einen Skandal, daß auf dieser Erde immer noch Leute ohne die Segnung meiner Erkenntnisse auskommen müssen. Ich will die Welt beglücken, und zwar richtig. Spaß (?) beiseite. Ich würde an dem tonnenschweren Begriffsapparat nicht mitbauen, wenn ich eine sehr grundsätzliche Klärung nicht für notwendig hielte. Und dir selbst, denke ich, geht es nicht anders. Die Sprache, in der du Theorie betreibst, mag beweglicher und leichtfüßiger sein, sie greift aber mindestens genauso radikal und genauso tief ein in das, was für 99% der User Gewißheit ist, und muß genauso mit dem Talk konkurrieren, den Sony und Wired in die Welt streuen. Sei ehrlich, ist es nicht so? Sitzen wir nicht letztlich im gleichen Boot, obwohl Du viel mehr reist und viel mehr Leute kennst?

Unbedingt. Aber ich glaube, daß hat vor allem mit der zunehmenden Isolation der Intellektuellen zu tun. Zum Glück hat diese soziologische Kategorie immer weniger Einfluß. Immer mehr Leute kommen ohne Text und Diskurs und... ohne säkularisierte Predigt und Moral aus. Gefragt sind Lebenshilfe und Visionen, keinen Tugenden fürs Bürgertum. Und das gilt auch für die Medientheorie, egal autonom oder akademisch.

Am Ende des Buches forderst du eine 'realistische Untersuchung' des Netzes und seiner Funktionsweisen. Kannst du vielleicht einige konkreten Beispiele geben, was ansteht und woran in den nächsten Jahren, deiner Meinung nach, gearbeitet werden sollte?

HARTMUT WINKLER: Ein paar Sachen, die ich interessant fände, habe ich schon genannt. Da sind z.B. die Search-Engines, deren Rolle ich vollständig ungeklärt sehe. Da sie die mit Abstand höchsten Zugriffszahlen im Netz überhaupt haben, sind alle Links, die sie verwalten und ihren Nutzern vorschlagen, von einer zentralen Bedeutung für die Grundarchitektur des Netzes. Wie man solche Strukturen nachzeichenen kann, weiß ich nicht, aber ich würde zunächst versuchen, die expliziten oder impliziten Relevanzkriterien nachzuzeichnen, mit denen diese Institutionen ihre Verzeichnisse updaten. Eine zweite Aufgabe wäre, reale Bewegungen realer Nutzer im Netz zu protokollieren. 'Surfen' scheint mir ein krasser Euphemismus, gemessen an dem tatsächlichen Herumstolpern, am Auseinanderklaffen zwischen der erwarteten Information und dem, was die Recherchen konkret ergeben. Ich kenne nur wenige Leute, die mir gesagt hätten: das und das habe ich im Netz, und zwar nur dort, gefunden. Ich selbst allerdings habe auch diese Erfahrung gemacht. Sehr interessant wäre, welche Sprünge als Fehlversuch und welche Search-Ergebnisse als definitiver Müll eingestuft werden. Gegenwärtig ist es die Flut kommerzieller Einträge, welche die Ergebnislisten insignifikant zu machen droht; ähnlich wie in Illustrierten, nur daß dort meist zu unterscheiden ist, wo der redaktionelle Teil aufhört und wo die Anzeigen anfangen. Zapping wäre ein alternatives Verständnismodell, weil es da von vornherein nicht um Information geht, sondern um eine Art Tagtraum, der das Material auf dem Schirm nur als einen Auslöser benutzt.

Und als drittes schließlich würde es mich interessieren, über die Entwicklungsdimension des Netzes nachzudenken. Gegenwärtig scheint mir diese sich in Schüben zu vollziehen:die WWW-Logik hat die Gopher-Einträge entwertet, und es wird sicher eine WWW-Generation kommen, die nicht mehr abwärtskompatibel ist. Und daneben läuft der naturwüchsige Verfall der Links, wenn diejenigen Pages geändert werden, auf welche die Links zeigen. Wenn diese Entwicklungsschübe immer die Entwertung ganzer Datenbestände bedeuten, so ist dies eine bestimmte (und zwar sehr aufwendige) Dialektik zwischen Bewahren und Vergessen. Und mich interessiert, wie die Leute mit dieser Sache umgehen werden. Dies betrifft die gesamte Grundlogik, nach der sich das Netz als ein geschichtlicher Diskurs organisiert. Und hier relativ früh empirische Indizien zu sammeln, wäre wirklich eine Aufgabe.

Hartmut Winkler, Docuverse, Zur Medientheorie der Computer
Klaus Boer Verlag, München 1997

Für mehr Information: winkler@tfm.uni-frankfurt.de

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Anzeige
Anzeige
Weit weg mit Telepolis
Anzeige
Auf nach Brasilien
Leben im Regenwald, Nationalpark Iguacu, Rio de Janeiro
Cover

Leben im Gehäuse

Wohnen als Prozess der Zivilisation

Anzeige
Cover

Die Moral in der Maschine

Beiträge zu Roboter- und Maschinenethik

bilder

seen.by

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

Tastenkürzel:

ctrl-Taste:
Zum Wechseln zwischen Heise- und Google-Suche

esc-Taste:
Verlassen und Zurücksetzen des Eingabe-Felds

Buchstaben-Taste F
Direkt zur Suche springen

SUCHEN

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

SUCHEN

.
.