Aus alt
mach neu?
Über Innovationen und Recycling im
„Social Web“
Text:
Astrid Lamm
Illustration:
Björn Brückerhoff
Warner
und Mahner: das neue Web als Gefahr
In seiner Ausgabe vom 11. August 2008 titelt das Nachrichtenmagazin „Der
Spiegel“ mit der Frage „Macht das Internet doof?“ Das Layout des Titelblatts
ist eine Persiflage auf die Startseite des Suchmaschinen-Riesen Google. Der
Artikel selbst enthält wenig Neues für erfahrene Internet-Nutzer, zeigt aber
an, dass der deutsche Journalismus das Web für wichtig genug hält, der
breiten Öffentlichkeit wieder einmal den Stand der Dinge warnend und mahnend
vor Augen zu führen.
Die Diagnose fällt nicht positiv aus, aber die Gründe dafür wird man kaum
lediglich in der wachsenden Animosität zwischen traditionellem Journalismus
und dem „Read-Write Web“ ausmachen können, das sich immer mehr zur echten
Konkurrenz der Print-Medien mit ihrer 350jährigen Geschichte mausert. So
stimmt auch Josef Joffe in der „Die Zeit“-Ausgabe der gleichen Woche (Nr. 34
vom 14. August) auf dem Titelblatt kulturpessimistische Töne an: „Ein
erfolgreiches Internetangebot aus Amerika bedroht die Zukunft des gedruckten
Wortes.“
Die Opposition steht klar vor Augen: hier das Zeitungs- und Buch-Gewerbe,
Hüter von Kultur, Weisheit und Aufklärung, dort das alles verschlingende
neue Internet, das im großen und ganzen auf dem Pfusch von Amateuren beruht.
Die zehren von der Arbeit anderer, ohne dafür zu bezahlen, und ziehen auch
noch die für alle existentiellen Werbeeinnahmen von den klassischen Medien
ab hinein ins Netz, weil sich die Aufmerksamkeit der folglich verdummenden
Mediennutzer in eben dieser Richtung fokussiert. Joffe nennt beispielhaft
die Entwicklung der New York Times – wohl
noch immer die wichtigste Zeitung der Welt
–
deren Börsenwert 2002, also nach dem Dot.com-Crash der Internet-Start-Ups am
Neuen Markt und vor dem Siegeszug des so genannten Web 2.0, das Dreifache
ihres heutigen Wertes betrug.
Die jährlichen Verlust-Raten des gesamten amerikanischen Zeitungsmarktes
hochrechnend und auf Europa übertragend, „da fast alles, was dort entsteht,
irgendwann über den Atlantik kommt“, rechnet Joffe vor, dass „etwa 2048 die
letzte Zeitung im Briefkasten liegen wird“. Das an sich müsste kein Schaden
sein, könnte man meinen
– wenn, ja wenn das Internet nicht gleichzeitig
„doof machen“ würde, so das Argument beider Leitmedien des deutschen
Journalismus: doof durch das riesige unterschiedslose Nebeneinander von
Inhalten, die einzuschätzen die Erben von „Descartes, Kant und Humboldt“
über keine Mittel mehr verfügen, so dass ganze Generationen im Strom der
Datenfluten ahnungslos unterzugehen drohen und es nicht einmal bemerken
(vgl. „Die Daten-Sucht“, Der Spiegel Nr. 33, 11.08.08, S. 90).
Was bisher geschah
Was hat sich im vergangenen Jahrzehnt so dramatisch verändert, dass das
zwischenzeitlich schon abgeschriebene World Wide Web sich quasi im zweiten
Anlauf anschickt, doch noch die klassische Herausforderer-Rolle, die bislang
noch jedes historisch neue Medium inne hatte, einzunehmen und die
Platzhirsche derart zu beunruhigen? Denn bei einem Vergleich ist rasch
erkennen: so grundlegend Neues enthält das von Tim O’Reilly 2003 auf den
markigen Begriff gebrachte Web 2.0 nicht gegenüber dem, was das erste
Jahrzehnt Internet geprägt hatte
(vgl. im
folgenden z. B.
Jürgen
Schiller García sowie
Heiko
Idensen: Hypertext als Utopie).
Schon Mitte der 90er-Jahre verhieß die Euphorie, die das 1993
kommerzialisierte und somit als Massenmedium freigegebene World Wide Web
ausgelöst hatte, den demokratischen Zugang aller zu Information und Wissen,
zu Aktivität, Kollaboration und Partizipation. Sogar die Autorschaft der
Massen, die sich befreien könnten aus Jahrzehnte langer passiver Rezeption
der Massenmedien, wurde antizipiert. Deren eindimensionale
Sender-Empfänger-Struktur hatte schon Bert Brecht am Beispiel des Radios als
Crux der Medien des 20. Jahrhunderts identifiziert. So wurde vor rund einem
Jahrzehnt das emanzipatorische Potenzial des Internets heraufbeschworen und
auch zu realisieren versucht: In den 90er-Jahren wurden Online-Communities
gegründet, deren Idee sich von den heutigen Möglichkeiten der
Online-Zusammenarbeit nicht prinzipiell unterschied. Es gab Chats, Foren und
Instant Messaging, mittels derer sich simultan oder auch zeitversetzt über
das Netz ausgetauscht wurde. Multimedia war damals das meistbenutzte
Schlagwort, obwohl es erst heute zum Massensport geworden ist, Bilder, Ton-
und Videodokumente zu erzeugen und online bereit zu stellen. Die ersten
Wikis und Weblogs kamen Mitte der 90er-Jahre auf, ebenso wie Content
Management-Systeme, die heute den Großteil aller Webseiten im Hintergrund am
Laufen halten.
Allerdings waren Content Management-Systeme damals noch ein teures und
umständliches Vergnügen, das vor allem kommerzielle Betreiber einkauften,
während Amateure ohne Programmierkenntnisse nur geringe Chancen hatten, die
Technik zu nutzen. Ohne eine gewisse technische Einarbeitung war die
Betreibung eigener Webseiten so oft nur auf dem ästhetisch eher
schauerlichen Niveau sogenannter Web-Baukästen möglich, die
Internet-Provider anboten. Wikis und Blogs mit ihren einfachen
redaktionellen Werkzeugen konnten sich noch nicht massenhaft durchsetzen.
Die Kultur des Selber- und Mitmachens war noch nicht geboren. Die noch
begrenzten Möglichkeiten der Übertragungstechnologie ebenso wie die
Strategie damaliger Marktteilnehmer verhinderten, dass die Grenze zwischen
Content-Erzeugern und -Konsumenten in der Weise aufweichte wie dies in den
vergangenen fünf Jahren geschehen ist, obwohl die Ideen und Techniken da
waren.
Auch das Schlagwort vom „Web als Plattform“ stammt aus den 90er-Jahren: Der
Begriff des Web als riesiges, den Desktop ersetzendes Archiv für jedermann,
in dem sogar die Programme ablaufen, mit denen man die Daten bearbeitet.
Microsoft hatte bereits vor zehn Jahren mit Windows-98 ein Betriebssystem
vorgelegt, das die Schwelle zwischen lokalem Desktop und Internet zu
minimieren, das eine durchlässig für das andere machen wollte. Java
scheiterte damals bei dem Versuch, im Web laufende Programme zu verkaufen,
weil es seiner Zeit voraus war. Der Browser Netscape Navigator stellte Ende
der 90er mehr Funktionen bereit als je zuvor. Damals entschied der
einfachere, reduzierte und stabilere Internet Explorer die Konkurrenz noch
für sich. Heute übertrifft der beliebte Firefox-Browser mit seinen Hunderten
von Add-Ons den Umfang des damaligen Navigators auf Wunsch bei weitem, was
ein Teil seiner Beliebtheit ausmachen dürfte.
Während die heutigen Web 2.0-Webseiten mit ihrer Simplizität die
Mitmach-Schwelle auf ein Minimum reduzieren und so von den Daten, dem
„User-generated-Content“ ihrer Besucher profitieren, wurden die Websites
Ende der 90er-Jahre immer professioneller, komplizierter und technisierter.
Damit wurde der Graben zwischen Internet-Machern, die den Content bereit
stellten, und Nutzern, die diesen konsumierten, immer größer. Die
Internet-Utopien der frühen 90er Jahre bewahrheiteten sich in der Folge
trotz der Verbreitung des Webs immer weniger
(vgl.
dazu
Dion
Hinchcliffs über die Entwicklung 1996 bis 2006).
Mit besagtem Massen-Börsen-Crash der Internet-Unternehmen der ersten
Generation um die Jahrtausendwende war dann das Feld bereinigt und der Weg
frei für das Web 2.0.
Nicht die Technik oder die Programme sind das Innovative am Web 2.0, in dem
zwei Technologien dominieren: RSS und Ajax („Asynchronous Javascript and XML“),
letzteres bestehend aus Javascript und XML. Deren Grundlagen standen bereits
in der zweiten Hälfte der 90er-Jahre zur Verfügung: “Basically, what Ajax means is ‚Javascript now works’. And that in turn means that web-based
applications can now be made to work much more like desktop ones“ (Paul
Graham: Web 2.0). Neben der Weiterentwicklung der Breitband- und
Wireless-Technologie, welche die schnelle, billige und mobile
Datenübertragung so einfach machte wie Telefonieren, waren es neue
Unternehmer, die das Wesen des Mediums besser verstanden und ihm zum Erfolg
verhalfen
(vgl.
zu dieser Deutung der Entwicklung
Tim
O’Reillys Artikel „What is Web 2.0?“).
Dazu gehören auch die zahlreichen Open-Bewegungen, die Content, besonders
aber Programm-Code offen legten, wodurch Standards jenseits von proprietärer
Software möglich wurden. Schnell setzte sich Google an die Spitze dieser
Entwicklung. Ein Beispiel dafür ist die Anwendung Google Maps. „The hackers
dominate Google, and that’s why Google wins.“ (Paul
Graham: Interview About Web 2.0)-
Bill Gates‘ Microsoft hingegen, das 1998 klar via PC-Markt auch das Internet
kontrollierte, sucht seit Jahren nach Wegen, die alte Dominanz zurück zu
gewinnen (zuletzt scheiterte die Übernahme von Yahoo). Paul Graham, der
Programmierer, der 1995 die erste webbasierte Anwendung schrieb und zu den
Entwicklern der populären 2.0-News-Seite „reddit“ gehört (über deren Top-Storys eine globale Leser-Redaktion interaktiv entscheidet), bilanziert
die Veränderung der Kräfteverhältnisse nach zehn Jahren: „There hasn’t been
such a wave of new applications since microcomputers first appeared. Even
Microsoft sees it, but it’s too late for them (...)“ (Paul
Graham: Web 2.0).
Die neue Revolution im Netz zeigt sich in diesem Licht als frei gelegter
Kern früherer Verpuppungen. Insbesondere die millionenfach beliebten Social
Sites befriedigen endlich das Zugehörigkeits-Bedürfnis ihrer Nutzer und
bieten so einen Mehrwert gegenüber dem bloßen Absurfen von Informationen.
Das Netz feiert seinen endgültigen Durchbruch dank der Möglichkeiten, in
Blogs, Wikis und Repositories aller Art Bilder, Videos, Musik, Podcasts,
Bookmarks, Folien oder Texte zu deponieren und durch voting,
sharing und clipping, durch kommentieren und verlinken zu
verändern und bekannt zu machen, ohne dass Profis ihre Finger im Spiel
hätten. Deren Geschäft hat sich auf die im Hintergrund laufenden Datenbanken
reduziert (und angesichts der zu verwaltenden Mengen gleichzeitig
erweitert).
Wie alles weiter geht
Hat diese Entwicklung nun zur erhofften Demokratisierung von Wissen, zur
freien medialen Entfaltung für jedermann geführt? Nicht nur „Der Spiegel“
und „Die Zeit“ hegen Zweifel. Seit Jahren forschen Entwickler nach Wegen,
das Netz in Richtung Semantic Web weiter zu entwickeln, um der nach und nach
zum Fluch werdenden neuen All-Verfügbarkeit von Inhalt dringend benötigte
Ordnungs-Prinzipien entgegenzusetzen (vgl. z. B.
Alex
Iskold:
Web 3.0: When Web Sites Become Web Services).
Noch immer werfen Suchmaschinen ihre Ergebnisse nach Häufigkeit der
Verlinkung im Netz aus, nicht nach qualitativen oder gar individuellen
Kriterien, die dem Suchenden die Gewichtung und Bewertung seiner
Such-Ergebnisse erleichtern würden. Wo die Weiten des Netzes immer
unendlicher werden, stehen sich zwei Tendenzen nur scheinbar widersprüchlich
gegenüber: An Inhalten und Kontakten jeglicher Art, für jeden beliebigen
beruflichen wie privaten Zusammenhang, ist im Netz kein Mangel, und täglich
werden es mehr. Woran es hakt, sind die Werkzeuge zur Begrenzung, zur
Reduktion auf das Wesentliche. So einfach und schnell es geworden ist, sich
Inhalte zu beschaffen, so viel Zeit verschwenden wir darauf, Nebensächliches
zu durchforsten und von wirklich Relevantem mühsam zu scheiden. Weil dieses
Sortieren so anstrengend ist und immer weniger gelingt, halten sich
nachfolgende Generationen erst gar nicht mehr weiter dabei auf. Sie müssen
erst erlernen, was die Nutzer in den 90er-Jahren noch als
selbstverständliche, an anderen Medien entwickelte Kulturtechnik mitbrachten.
Beispielsweise tritt die Tag Cloud als Resultat allgemeiner Verschlagwortung
im Web 2.0 an, die ältere Taxonomie der Kategorisierung abzulösen, mit der
Suchmaschinen in den 90ern das Web-Wissen sammelten. Aber was für den einen
wichtig erscheint, ist für den anderen wertlos, erst recht da, wo Amateure
zuhauf am Werk sind, die sich keinen gemeinsamen Bewertungs-Richtlinien
verschreiben. Zu anonym und weit gefasst sind die Nutzerkreise im Web. So
dreht sich beim Thema Verschlagwortung den Profis der Magen um: Schlagworte
werden nicht sauber voneinander getrennt, da keinem System unterworfen, und
Gewichtungen entsprechen mehr dem Massen-Geschmack als professionellen
Erwartungen.
Mit der viel beschworenen „Wisdom of Crowds“ ist es nur dann weit her, wenn
die Zeit, die vorhandenen Perlen zu finden, noch in einiger Relation zum
Recherche-Aufwand steht. Vor lauter überbordender Informationsverarbeitung,
allem voran die tägliche Email-Flut, finden wir kaum mehr die Zeit, die
Informationen auch wirklich zu lesen oder gar zu verarbeiten. Wozu auch,
erscheint doch jeder Text relativ, da Hunderte weitere zum gleichen Thema
per Knopfdruck verfügbar sind. Wer garantiert, dass gerade dieses und jenes
Recherche-Ergebnis die Lektüre
wert ist? Um sich abzusichern, könnte man beginnen, etwa Bewertungen anderer
Nutzer zu lesen. Die wiederum zu ähnlichen und ebenso interessanten anderen
Quellen weiter führen. Den eigentlichen Text, der ursprünglich der
Arbeits-Ausgangspunkt war, haben wir am Ende des Tages längst vergessen – ohne auch nur seine erste Zeile gelesen
zu haben. |
|
Ausgabe
56
Die Weltmaschine
Startseite
Editorial: Das Wunder von
Genf
„Alles
ist eine Frage der Konsumgewohnheiten“.
Interview mit Karlheinz Brandenburg
Was von der Zukunft
geblieben ist
Wie soziale Kontakte im StudiVZ
geknüpft und gepflegt werden
Aus alt mach neu? Über
Innovationen
und Recycling im Social Web
Raus aus der
Selbstbeobachtungsfalle!
Leben nach dem
Digitaltod
Die Entwicklung des
Internetrechts
Die Vordenker. Gesammelte
Vorträge von Denkern und Machern, die das Web prägen
Autoren dieser Ausgabe |