Wer hat Angst vor Web 2.0?
Text: Sascha Kösch aus De:Bug 98

Web 2.0

Es gab schon ewig keine ernst zu nehmenden generellen theoretischen Diskussionen über das Web mehr. Das Netz ist Alltag. Business. Bis zur großen letzten Blase 2001 rankten sich rings um das noch frische WWW nahezu alle paar Monate neue Ideologien und ein Geldfluss, der einen bei aller Absurdität schwindeln lassen musste. Das war spannend, manchen lästig, ging anderen viel zu schnell, aber brachte eben auch diesen Bruch mit sich, der sich in einem experimentellen Umgang mit dem Web entlud, der den Brocken HTML etc. für so verschiedene Projekte wie Webstalker oder Jodi als programmierte Kunst öffnete, gleichzeitig aber auch mediale und Kommunikations-Konzepte von Generationen über den Haufen warf und sich blendend als postmoderne Verwirklichung von allem verkaufen ließ. Von Wired bis Netttime über den neusten IPO gab es eine ungebrochene Line der Netzkritik und -verherrlichung, die bei allen Fronten zumindest ein Zentrum hatte, die aber spätestens 2001 jäh abbrach, als man nicht mehr sein gutes altes Netz gegen die Kommerzialisierung verteidigen wollte. Das Netz als Thema war verbrannt wie die Aktien dazu.

Das große Raunen

Und jetzt? Web 2.0 und alles ist neu? Kaum. Denn viele der Technologien und Ideen, die sich jetzt um das von O’Reilly als Web 2.0 Hypermeme in die Welt entlassene Konglomerat ranken, sind schon damals entstanden, hatten aber in diesem theoretischen Vakuum so viel Zeit, sich so weit zu entwickeln, dass sie erst dieses Jahr wirklich ein Gesicht bekamen und plötzlich zum Zentrum nicht nur einer erhitzten Diskussion, sondern einer endlosen Galerie neuer Entwicklungen im Netz wurden. Ich habe schon ewig nicht mehr so viel Enthusiasmus gesehen, so viele neue Web-Applikationen jede Woche, und auf den Treffen der Web-2.0-Afficionados scheinen sich auch wieder die von vielen nicht grade in guter Erinnerung behaltenen Venture-Kapitalisten zu tummeln wie bei den ersten beiden Internet-Booms. Und dabei geht es vielen nicht einfach nur um Anwendungen, sondern wie damals schwingt ein Bruch mit. Das Web 2.0 ist, wenn auch nicht mit Fanfaren der naiven technogläubigen Welteroberung, in einer Tiefe neu, die nicht wenige schon jetzt dazu veranlasst hat, das Ganze einfach für die nächste Blase zu halten. Denn nahezu alles nennt sich zur Zeit Web 2.0 und von “The Long Tail” über “Perpetual Beta”, von Ajax über RSS, von offenen APIs bis “Web als Plattform und Service” gibt es kaum ein Buzzword, das es nicht ins Web-2.0-Konzept geschafft hat. Sogar Microsoft ist auf einmal umgetauft zu Live – einer Firma, in deren Mittelpunkt Web 2.0 steht.

Der Schwanz wedelt mit der Kuh

OK, Breakdown, was zum Teufel ist Web 2.0? Fangen wir mal bei 1.0 an. Zuerst waren Hyperlinks noch ein Grund, sich eine Netz-Demokratie zusammenzuträumen (Kinder, das Rhizom ist da!). Jeder konnte, jeder durfte, das Netz war für alle. Als sich die Großen dazugesellten (und man sollte eingestehen, dass mit den ersten Browservoreinstellungen die Großen immer schon da waren), waren die Konzepte von Many-To-Many und dem Netz als klassischem Massenmedium plötzlich ein Fundamentalstreit geworden, für den es keine Lösung zu geben schien. Es gab harsch formuliert das Gebastel, das DIY-Netz und das Corporate-WWW, das Einzige, was die beiden irgendwie zusammenhielt, waren die Search-Engines. Es gab die Masse der vielen Einzelnen und das als “Massenmedium” fehlverstandene Internet, die Milchkuh, die es zu melken galt. Erst später entdeckte man, dass die Kuh einen langen Schwanz hat, und der wurde zu einem der zentralen Web-2.0-Businessmodelle.

Langsam aber entwickelten sich aus den mit Hyperlinks nur lose zu vernetzenden Einzelseiten des unkommerziellen Netzes Dinge wie Filesharing, Blogs, Wikis, Real Simple Syndication, und während die kommerziellen Seiten fast nichts an Neuerungen brachten, sich stellenweise sogar so verhielten wie das Porn-Empire (aus dem es bekanntlich keinen Ausweg gibt, keine externen Hyperlinks) und auf ihren Walled-Garden-Monster-Portalen sitzen blieben, waren die einfachen User immer ein paar technologische Schritte voraus. Es gab allerdings Ausnahmen, wichtige. Google, das man lange Zeit für eine Suchmaschine gehalten hatte, wurde zum Zentrum des Netzes. Zwar gab es vorher schon Suchmaschinen, aber keine hatte begriffen, dass das nicht darauf ankommt, User zu kanalisieren oder über eine stark frequentierte Webseite eigene Software zu verkaufen, sondern einfach so weit wie möglich in die Tiefen des Netzes und darüber hinaus vorzudringen und daraus einfach Bewegung und Vernetzung zu erzeugen. Kontrolle der User, geschlossene Netzwerke ist das Gegenteil von Web 2.0. Diese Idee, User mit den Daten, die man ihnen zur Verfügung stellt, so viel machen zu lassen wie möglich, ist es auch, die heutige Firmen, die sich nahezu alle (bis auf ein paar alte Medien im Netz, die immer noch denken, Zugriffe via Micropayment regulieren zu müssen) auf das Konzept Webservices geeinigt haben, in 1.0 und 2.0 trennt. Je offener die APIs, desto 2.0.

Das Netz als Remix

Und was geschah dann? Die DIY-User waren Netzwerk-Experten, ein paar Firmen spielten mit und gaben ihnen neue Tools zur Vernetzung, von AdSense über eigene SearchButtons, von Maps bis hin zu RSS, der User wurde zum Content, wie bei Amazon oder Ebay, die Trennung zwischen User und kommerziellem Netz schien immer verwaschener, in Wirklichkeit aber hatten sich die Paradigmen beider verändert. Ein neuer Service im Netz war früher an der Idee der Software orientiert, eine halbwegs stabile Versionsnummer rauszubringen. Heutzutage ist alles, gerne auch beliebig lange, Beta. Der User wird nicht vor vollendete Tatsachen einer Software gestellt, sondern wirkt im Entstehungsprozess mit. Web 2.0 hat die Grenze zwischen Open Source und proprietärer Software extrem ausgedünnt. Das Netz ist ein konstanter Remix geworden. Man hört dieses Wort oft, Seiten wie Programmableweb.com erstellen sogar eine Mashup-Matrix des Web 2.0. Wo wird welcher Service mit welchem auf eine neue Art verbunden und so zu einem dritten Service? Informationsflüsse kombinieren, kollidieren zu lassen und zu einem neuen Informationsfluss zu machen, ist eine der Hauptbeschäftigungen in Web 2.0. Wir alle arbeiten an einer unglaublich komplexen Maschinerie des Netzes, nicht mehr nur an seiner konstanten komplexeren Vernetzung. Oft, wie z.B. beim harmlosen Einsteiger-Blogger, brauchen wir das noch nicht mal zu wissen. Wer blogt, setzt eine ganze Remix-Mashup-Maschinerie in Gang. Blogs sind eben keine HTML-Tagebücher mit Links, sondern komplexe Datenbanken und Webservices, angeschlossen an (vielleicht ist es jetzt wieder Zeit, den ersten Teil von Kapitalismus und Schizophrenie zu lesen) andere symbiotische Maschinen.

Wir verdeutlichen das. Wer etwas Neues auf seine HTML-Seite geschrieben hat, konnte entweder seine Freunde davon in Kenntnis setzen oder hoffen, dass irgendwann eine SearchEngine oder ein User vorbeischaut, um die Seite zu indizieren. Ende der Geschichte. Wer heute etwas auf ein Blog posted, zitiert in der Regel schon mal jemand anderen und linkt automatisch (1. Anschluss). Hat er ein Trackbacklink benutzt, dann landet sein Posting als Kommentar in dem zitierten Blog (2.), normalerweise mit Link zurück, sein RSS Feed informiert Subcriber automatisch, meist in einem ganzen Pool aus Feeds, dass es etwas Neues gibt (3.), die Blogsoftware informiert via Ping “Blogsearchengines” darüber, gerne auch mehrere auf einmal. (4.5.6.). Google ist spätestens jetzt auch dabei. (7.) Und wenn das Posting ein Tag hatte, gehört es gleich auch zu einer Kategorie von Information, die neue Links schafft. Tags sind so zentral für Web 2.0, weil sie aus dem eh schon komplex verzahnten Gefüge von Blogs auch noch eine flache Hierarchie von Kategorien macht, die Blogs darüberhinaus mit anderen Webseiten (via Del.ici.ous) oder Bildern (via Flickr) verzahnt (mehr darüber in Jankos Artikel). Fügt man dann noch diverse RSS Feeds in das eigene Blog, dann gibt es kaum noch Grenzen für die Komplexität der ad hoc vernetzten Information (und wir haben diverse Einzelheiten noch verschwiegen). Es sei denn, keiner sieht hin.

Weshalb eins der Buzzwords in Web 2.0 auch “Rich User Experience” ist. Denn je komplexer die Daten werden, desto übersichtlicher und userfreundlicher müssen die organisiert werden. Aus der statischen Webseite von damals wurde auf visueller Ebene folglich eine ständig explodierende Entwicklung von Webseiten, die sich immer mehr verhalten wie Programme. Das prominenteste früheste Beispiel dafür dürfte wohl GoogleMail gewesen sein. Und wer sich heute GoogleMaps auf dem Handy ansieht, das von Navigationssystemen mittlerweile kaum zu unterscheiden ist, obwohl es einfach eine Webseite ist, versteht, wohin sich das bewegt. Obwohl losgetreten von Macromedias “Rich Internet Applications”, die Webseiten via Flash aussehen ließ, als wären es skurrile Designerträume von Programinterfaces, ist heutzutage fast alles Ajax (siehe Fabians Artikel). Und bald schon, mag man denken, ist der gute alte Traum des Netzwerkcomputers wieder zurück und der Desktop wird wieder einmal zum Webtop. Das Office wandert ins Netz (siehe Claras Artikel). Und der Browser wird zum Handwerkszeug (siehe Johnnys Artikel).

War der User oder “Websurfer” früher dazu da, vielleicht ein wenig persönlichen Spaß im Netz zu haben, der immer belächelt wurde, bestenfalls aber als Traffic-Generator und zukünftiger Kunde zu funktionieren, dann ist der User jetzt nicht nur Datenbank, Filter und Vernetzungsmaschine, sondern wird zum gleichwertigen Partner eines jeden Web-2.0-Businessmodels. Nach einer neusten Studie sind über 50% der Amerikaner an dem Netz nicht mehr nur als Surfer beteiligt, sondern als Produzenten, und da sind Filesharer noch nicht mal mitgerechnet. Die Generation Web 2.0 ist da.

Jedem ist klar, ohne Open Source würde es kein Internet geben. Ohne Modelle wie Creative Commons hat Web 2.0 keine Zukunft. Denn hinter all diesem Mashup von Daten lauert immer wieder eine Struktur von Gesetzen, die entscheiden muss, wem diese Daten eigentlich gehören und wer was damit überhaupt tun darf. Es gibt zwar schon jetzt genügend Rechtsstreits rings um den Komplex Web 2.0, aber ich bin überzeugt, solange sich das Ganze noch im Netz abspielt, hält sich das alles in Grenzen. Wird das Web 2.0 aber erst mal komplett in die Welt entlassen, sind wie immer unsichtbare Webservices auch noch auf dem kleinsten elektronischen Gadget da draußen und kollidieren erst mal nicht mehr nur Urheberrechtsinteressen, sondern reale Dinge aufgrund von eigenwilliger Information aus dem Netz, dann werden sich auch bald über 50% der Rechtsstreite irgendwie um Web 2.0 drehen. Oder vielleicht wird es spätestens dann Zeit, zur nächsten Versionsnummer überzugehen, aber vielleicht wird es auch gar kein Web 3.0 geben, weil 2.0 so lange reicht, bis 3.0 einfach nicht mehr als Web erkennbar ist.

About The Author

Elektronische Lebensaspekte.