Sie sind auf Seite 1von 17

Social Commerce im Web 2.

1. Einleitung
Das Zerplatzen der Dot-Com-Blase im Herbst 2001 stellte einen Wendepunkt für das
World Wide Web dar. Viele Leute hielten das Web damals für überbewertet, aber
Seifenblasen und konsequente Marktbereinigung gehören im Allgemeinen zu jeder
technologischen Revolution. Üblicherweise signalisiert eine Marktbereinigung, dass
eine aufstrebende Technologie bereit ist, ihren Platz auf der großen Bühne der
Wirtschaftlichkeit einzunehmen. Die Blender und Angeber werden vor die Tür
gesetzt, die wirklichen Erfolgsstories zeigen ihre Stärken und es bildet sich bei vielen
ein Verständnis dafür, was die Einen vom Anderen unterscheidet.

Abbildung 1 Kursverfall des NASDAQ IXIC in den USA – Das Zerplatzen der „Dot-com-Blase“

2. Web 2.0 Entstehung


Das Konzept "Web 2.0" begann mit einem Brainstorming zwischen O'Reilly und
MediaLive International, dem Begründern der Web 2.0 Idee. Dale Dougherty, Web-
Pionier und Vizepräsident von O'Reilly, merkte an, dass das Web nicht etwa
zusammengebrochen, sondern wichtiger als jemals zuvor sei. Interessante neue
Anwendungsmöglichkeiten und Seiten tauchten mit erstaunlicher Regelmäßigkeit auf
und die überlebenden Firmen schienen einige wichtige Dinge gemeinsam zu haben.
Könnte es sein, dass der Dot-Com-Kollaps einen derartigen Wendepunkt markiert
hatte, dass man diese Dinge nun mit einem Schlagwort wie "Web 2.0" bezeichnen
durfte?

1
Man einigte sich darauf und damit war die "Web 2.0 Konferenz" geboren.

Eineinhalb Jahre später hat sich der Begriff "Web 2.0" in der Tat durchgesetzt,
Google findet hierzu inzwischen 9,5 Millionen Treffer. Aber es existiert immer noch
große Uneinigkeit darüber, was "Web 2.0" nun genau bedeutet. Einige halten es für
ein bedeutungsloses Schlagwort aus dem Marketing, Andere akzeptieren es als neue
allgemeingültige Einstellung.

3. Das Prinzip Web 2.0


Aber nach welchen Kriterien klassifizierten wir die einzelnen Anwendungen und
Ansätze als "Web 1.0" oder "Web 2.0"? Diese Frage ist besonders zwingend, da sich
die Erscheinung Web 2.0 inzwischen so verbreitet hat, dass einige Firmen es überall
als Marketing-Schlagwort verwenden, ohne seine tatsächliche Bedeutung zu kennen.
Diese Frage ist aber auch besonders schwierig, da viele dieser
schlagwortabhängigen Startups definitiv nicht zum Bereich Web 2.0 gehören.

Abbildung 2 zeigt eine "Karte" von Web 2.0, die in einer Brainstorming-Sitzung
während des FOO Camps entwickelt wurde, einer Konferenz bei O'Reilly Media. Die
Karte ist in ständiger Überarbeitung, aber sie zeigt bereits die Vielzahl von Ideen, die
vom Web 2.0 Kern ausgehen.

Abbildung 2 Web 2.0 Memo Map engl.

2
3.1 Kollektive Intelligenz nutzen
Das zentrale Prinzip hinter dem Erfolg der Giganten aus der Web 1.0 Ära, die
überlebt haben um nun die Web 2.0 Ära anzuführen, scheint zu sein, dass sie sich
die Stärke des Web zu Eigen gemacht haben, die kollektive Intelligenz zu nutzen:
Hyperlinks bilden die Grundlage des Web. Wenn Nutzer neue Inhalte und Seiten
online stellen, werden sie durch die Verlinkung von anderen Nutzern in die Struktur
des Web einbezogen. Ähnlich den Synapsen im Gehirn, deren Assoziation durch
Wiederholung und Intensität stärker wird, wächst das Netz der Verbindungen auf
natürliche Weise als Output der kollektiven Aktivitäten aller Web-User.

Abbildung 3 Adresszeile mit Maus

3.2 Yahoo und der Durchbruch Googles

Abbildung 4 Logo Yahoo Abbildung 5 Logo Google

Yahoo, die erste große Internet-Erfolgsstory, begann als Katalog oder Verzeichnis
von Links, eine Ansammlung der besten Ideen von abertausenden Web-Nutzern.
Obwohl Yahoo inzwischen viele Arten von Inhalten bereitstellt, bleibt sein Kern
dennoch die Rolle eines Portals zu den gesammelten Werken der Internet-
Gemeinde.

Der Durchbruch für Google, der das Unternehmen schnell zum unumstrittenen
Marktführer bei den Suchmaschinen werden ließ, war PageRank, eine Methode, die

3
die Linkstruktur des WWW (World Wide Web) mehr als die Eigenschaften der
Dokumente selbst nutzte, um bessere Suchergebnisse zu liefern.

3.3 Der Erfolg durch Bewertungen der User bei ebay und Amazon

Abbildung 8 Logo ebay Abbildung 9 Logo Amazon

eBay's Produkt ist die gemeinschaftliche Aktivität aller Beteiligten. Wie das Web
selbst wächst eBay auf natürliche Weise durch intensive Nutzung, und die Rolle des
Unternehmens beschränkt sich dabei auf die Bereitstellung des Rahmens, in dem die
Nutzung stattfinden kann. Darüber hinaus liegen eBay's Vorteile gegenüber der
Konkurrenz vor allem in der kritischen Masse von Käufern und Verkäufern begründet,
die jeden neuen Markteinsteiger weniger attraktiv erscheinen lässt.

Amazon verkauft die gleichen Produkte wie seine Konkurrenten und erhält dieselben
Produktbeschreibungen, Coverbilder und redaktionellen Inhalte von seinen
Lieferanten. Jedoch hat Amazon aus dem Engagement seiner User eine
Wissenschaft gemacht und besitzt um Größenordnungen mehr Nutzerbewertungen,
bietet Möglichkeiten zur Teilnahme in verschiedenster Weise auf nahezu allen Seiten
an, und, vermutlich am bedeutendsten, nutzt die Useraktivität zur Produktion
besserer Suchresultate. Während die Suche von barnesandnoble.com ( ein weiterer
großer online Buchhandel) häufig mit firmeneigenen oder gesponserten Resultaten
beginnt, starten die Ergebnisse bei Amazon mit den "beliebtesten" Produkten, einem
in Echtzeit berechneten Maßstab, der nicht nur die Verkaufsmenge, sondern auch
auf andere Faktoren berücksichtigt, was in Amazon-internen Kreisen als "Flow" der
Produkte bekannt ist.
Aufgrund der wesentlich höheren Nutzerbeteiligung ist es kaum verwunderlich, dass
auch die Verkaufszahlen die der Konkurrenten deutlich übertreffen.

4
3.4 Vorteile aktiv nutzen
Inzwischen hinterlassen immer häufiger Firmen, die diese Erkenntnisse
aufgenommen und z.T. ausgebaut haben, ihre Zeichen im Web.

Wikipedia, eine Online-Enzyklopädie basierend auf der ungewöhnlichen Idee, dass


jeder Eintrag von jedem Internet-User bearbeitet werden kann, stellt ein radikales
Experiment mit Vertrauen dar, welches eine Maxime anwendet die ursprünglich im
Kontext von Open Source Software aufgestellt wurde: "Mit genügend wachsamen
Augen werden alle Bugs sichtbar." Die Wikipedia wird bereits unter den Top-100-
Webseiten geführt und viele glauben, dass sie in Kürze unter den Top 10 zu finden
sein wird. Dies stellt eine tiefgreifende Veränderung in der Dynamik der
Inhaltsgenerierung dar.

Abbildung 6 Logo Wikipedia

Seiten wie del.icio.us und Flickr, zwei Firmen die seit kurzem große Aufmerksamkeit
genießen, haben ein Konzept vorangetrieben, dass im Allgemeinen als "Folksonomy"
(im Gegensatz zur Taxonomy) bezeichnet wird, einer Art kollaborativer
Kategorisierung von Seiten mit frei wählbaren Keywords, oft auch als "Tags"
bezeichnet. Taggen erlaubt vielseitige, häufig überlappende Assoziierung, die der
Arbeitsweise des Gehirns viel näher kommt als sture Kategorisierung. So kann ein
Foto einer Puppe bei Flickr sowohl mit "Puppe" als auch mit "hübsch" getagged sein
und erlaubt somit durch User-Aktivitäten die Wiederauffindung entlang logischer
Wege.

5
Spam-Filter-Produkte wie Cloudmark sammeln die individuellen Einstufungen in
Spam und Ham von E-Mail-Nutzern und bieten so ein System, das auf der Analyse
der Nachrichten selbst beruht.

Es ist eine Binsenweisheit, dass die großen Erfolgsstories des Internet ihre Produkte
nicht bewerben. Ihre Anziehungskraft beziehen sie nur aus der Mundpropaganda.
Man könnte daraus fast den Schluss ziehen, dass ein Produkt, welches auf sonstige
Werbung angewiesen ist, nicht zu Web 2.0 gezählt werden kann.

4. Open Source

Abbildung 10 Logo Open Source

4.1 Warum Open Source?


Die Neuschöpfung eines Namens für ein Phänomen, das fast so alt ist wie die
Computerindustrie, ist im Falle Open Source kein Marketinggag, sondern der
Versuch, einen Begriff zu etablieren, der die Entwickler und Verfechter freier Software
der Notwendigkeit enthebt, ständig sowohl zwischen kostenloser Software und freier
Software als auch zwischen den verschiedenen Lizenzen freier Software
differenzieren zu müssen.

Lizenzbedingungen gibt es sowohl bei kommerzieller Software als auch im Bereich


der freien Software fast so viele verschiedene, wie es Programme gibt. Der Begriff
Open Source wurde geprägt, um einen gemeinsamen Namen für die Lizenzen
benutzen zu können, die Freiheit im Sinne der Wissenschaft verkörpern.

Der Begriff Software kann nahezu alles bezeichnen, was auf einem Computer
ausgeführt wird, sowohl das fertige, nur auf einer Architektur ausführbare Programm

6
(Binary) als auch den vom Programmierer geschriebenen, menschenlesbaren
Programmtext (Source).

Die Verteilung von Software in Form von ausführbaren Programmen ist sicher die
häufigste Distributionsweise. Da diese Form jedoch keine Veränderungen an einem
Programm oder die Portierung auf andere Hardwareplattformen ermöglicht, erfordert
die Entwicklung freier Software die Verteilung des Sourcecodes.

Frei wurde durch open ersetzt, um zu erreichen, dass nicht mehr umsonst sondern
offen für alles assoziiert wird.

4.2 Die Vorzüge des Open Source-Modells


Das größte Gewicht liegt bei den unter dem Namen Open Source
zusammengefaßten Lizenzen auf dem Recht, den Quellcode nicht nur zu lesen,
sondern auch zu verändern, und diese Veränderungen zusammen mit dem
originalen oder dem veränderten Quellcode wiederum Dritten zugänglich machen zu
dürfen.

Erst diese Bedingung kann die synergetischen Effekte hervorbringen, die Eric S.
Raymond in seinem Essay The Cathedral and the Bazaar
(http://www.earthspace.net/~esr/writings/cathedral-bazaar/) als charakteristisch für
die Entwicklung freier Software beschreibt.

Das von Raymond beschriebene Modell beruht vornehmlich darauf, die Nutzer eines
Programms zu Mitentwicklern zu machen, indem von ihnen vorgeschlagene
Änderungen und Korrekturen wiederum in das Programm integriert werden. Diese
Idee an sich ist nicht neu. Neu ist allerdings, daß die Nutzer (die laut Raymond zum
großen Teil nicht so dumm sind, wie gemeinhin angenommen) diese Korrekturen
selbst am Programm durchführen und testen, bevor sie sie an den Entwickler des
Programms zurückschicken.
Im Gegensatz dazu steht die althergebrachte Methode, die Fehlerbeschreibungen
der Nutzer nachzuvollziehen, den Fehler zu suchen, und die Korrektur wiederum
vom Nutzer testen zu lassen. Schon aus dieser kurzen Beschreibung wird ersichtlich,
welche der beiden Methoden die effizientere ist.

7
Der so beschleunigte Entwicklungsprozeß führt zu einer schnelleren Fehlerbehebung
und damit zu besseren und stabileren Programmen. Ein solcher Prozeß kann aber
nur stattfinden, wenn die Nutzer auch Zugang zum Sourcecode des Programms
haben und es ihnen erlaubt ist, diesen zu ändern.

Sehr viele Bestandteile der Internet-Infrastruktur, z.B. Linux, Apache, MySQL, Perl,
PHP und Python, basieren auf der Produktionsmethodik von Open Source (Der
Ausdruck Open Source (engl.) bzw. Quelloffenheit wird auf Computer-Software
angewendet und meint im Sinne der Open Source Definition, dass es jedem
ermöglicht wird, Einblick in den Quelltext eines Programms zu haben, sowie die
Erlaubnis zu haben, diesen Quellcode auch beliebig weiterzugeben oder zu
verändern.), und sind somit selbst Ausprägungen von durch das Netz ermöglichter
kollektiver Intelligenz. SourceForge (Open Source Software Archiv) beinhaltet zurzeit
über 100.000 Open Source Projekte. Jeder kann ein Projekt hinzufügen, jeder kann
Code herunterladen und benutzen, und neue Projekte rücken ins Zentrum der
Aufmerksamkeit durch User, die sie zum Laufen bringen. Es ist ein biologischer
Übernahmeprozess, nahezu ausschließlich basierend auf Mundpropaganda.

5. Fazit Web 2.0


Das Fazit für Web 2.0: Netzwerk-Effekte durch Nutzerbeteiligung sind der Schlüssel
zur Marktdominanz in der Web 2.0 Ära.

6. Bloggen und die Weisheit des Volkes


Eines der meistgenannten Features der Web 2.0 Ära ist die Erscheinung des
Blogging. Persönliche Homepages gibt es bereits seit den Anfangstagen des Web,
persönliche Tagebücher und tägliche Meinungskolumnen sogar noch länger, warum
also wird um das Bloggen so viel Aufheben gemacht?
Im Grunde ist ein Blog nur eine persönliche Homepage in der Form eines Tagebuchs.
Eines der Dinge, die den feinen Unterschied ausmachen, ist eine Technologie
namens RSS.

6.1 RSS

8
RSS (Really Simple Syndication, deutsch „wirklich einfache Verbreitung“) ist der
bemerkenswerteste Fortschritt in der grundlegenden Architektur des Web seit ein
paar Hacker erkannten, dass CGI zur Erstellung datenbank-basierender Webseiten
genutzt werden kann. RSS erlaubt es, eine Seite nicht nur zu verlinken, sondern sie
zu abonnieren und bei jeder Änderung informiert zu werden. Auch "inkrementelle
Web" oder das "Live Web".

Abbildung 7 Logo RSS

RSS wird verwendet, um Artikel einer Webpräsenz oder deren Kurzbeschreibungen


(insbesondere Nachrichtenmeldungen) zu speichern und in maschinenlesbarer Form
bereitzustellen. Ein sogenannter RSS-Feed oder Newsfeed (engl. etwa
Nachrichteneinspeisung) besteht aus einer XML-Datei, welche den reinen
strukturierten Inhalt – beispielsweise einer Nachrichtenseite – bereithält, aber
keinerlei Layout, keine Navigation oder sonstige Zusatzinformationen beinhaltet.
Zahlreiche Webangebote, die regelmäßig Artikel publizieren, stellen eine automatisch
generierte RSS-Datei mit den neuesten Artikeln zur Verfügung.

Ursprünglich wurden RSS-Feeds von Nachrichtenseiten verwendet. Das Format


erlangte seine heutige Popularität vor allem durch den Einsatz in Weblogs.
Mittlerweile haben auch MP3-Download-Portale begonnen, RSS-Feeds zusammen
mit Podcasting-Funktionalität einzusetzen.

Ein Benutzer kann nun ein so genanntes Aggregatorprogramm bzw. einen so


genannten Feedreader benutzen, um die für ihn wichtigsten Schlagzeilen und
Kurzbeschreibungen automatisch herunterzuladen und die gesammelten Artikel
geordnet anzeigen zu lassen. Hierfür benötigt der Aggregator lediglich einen Link auf
den RSS-Feed.

RSS-Feeds eignen sich auch zur Verarbeitung durch spezialisierte Suchmaschinen


und Alert-Dienste. Beispielsweise können die Artikel innerhalb eines RSS-Feeds

9
durch einschlägige Dienste nach Quellen oder Stichworten gefiltert und zu einem
neuen RSS-Feed zusammengesetzt werden.

Darüber hinaus kann man fremde RSS-Feeds auch in seine Webseite integrieren.
Viele Content-Management-Systeme bieten derartige Funktionalitäten. Damit kann
man mehrere Informationsströme auf einer einzigen Seite zusammenführen.

Somit muss der Benutzer nicht mehr alle ihn interessierenden Webpräsenzen
separat aufrufen, um sich auf dem Laufenden zu halten und kann stattdessen alle
Neuigkeiten und Nachrichten zentral abrufen, sortieren und archivieren. Er braucht
die entsprechenden Seiten dann nur aufzurufen, wenn ihn die Nachrichtenmeldung
oder der Artikel tatsächlich anspricht.

7. E-Commerce im Web 2.0


Darüber, wie der E-Commerce im Web 2.0 aussehen wird, gehen die Vorstellungen
extrem weit auseinander.
Die E-Commerce 2.0 Vertreter, also diejenigen, die im Internet in erster Linie ein
technologisches Phänomen sehen, gehen davon aus, dass die Herausforderung
darin besteht, heutige Shopsysteme mit Web 2.0 Features aufzurüsten. Am Ende
steht dann so etwas wie die Web 2.0 Stores oder entsprechend aufgepeppte
Intershops.
Auf der anderen Seite stehen die Social Commerce Vertreter, die im Web 2.0
weniger die technologische, sondern die konzeptionelle Weiterentwicklung (im Sinne
von Vernetzung, Dezentralisierung, etc.) sehen. Diese gehen davon aus, dass im
(Social) Web 2.0 die Masse der Händler keine klassische Shoplösung mehr braucht.

8. Social Commerce Einleitung


Die Zeit der Monotonie im Electronic Commerce, als wenige große Anbieter wie
Ebay, Amazon oder Otto den Handel im Netz beherrschten, ist vorbei. Denn jetzt
drängt eine neue Generation von Online-Händlern auf den Markt, die auf die
Mechanismen des Web 2.0 setzen: Nicht mehr die Shoppingseite des Händlers ist
die zentrale Anlaufstelle, sondern die Produktangebote verteilen sich auf viele kleine
Internetseiten und Blogs, die eine persönliche Beziehung zu ihren Nutzern aufgebaut
haben. Alle Nutzer können dann eigene Shops eröffnen und sich die Umsätze mit

10
dem eigentlichen Shopbetreiber teilen. Händler wie Etsy.com in Amerika oder
Spreadshirt.net in Deutschland führen diese Welle an, die unter dem Schlagwort des
„Social Commerce“ diskutiert wird und gerade aus Amerika auf den deutschen Markt
schwappt.

Wieviel Aufklärungsarbeit unter den Internet-Händlern allerdings nötig ist, zeigt die
Studie der INTERNET WORLD Business. Trotz aller Aufgeschlossenheit der
befragten Top-Händler gegenüber der Nutzerbeteiligung, Vernetzung, oder dem Live-
Shopping, wissen 90 Prozent nicht, welche Bedeutung Social Commerce für ihr
Unternehmen haben kann.

8.1 Der persönliche Kontakt


Maßgebend ist dabei der persönliche Kontakt zum Händler. Die Kunden betreiben
eigene Shops auf ihrer Website oder in Blogs. In Deutschland ist beispielsweise der
mehrfach ausgezeichnete Fan Shop-Betreiber Spreadshirt.net Vorreiter. Das
Konzept des Online-Merchandisers verbindet private und kommerzielle Inhalte auf
der Website oder dem Blog des Kunden. Jeder Online-Betreiber erhält die
Möglichkeit, kostenlos einen eigenen Shop einzurichten. Bei den derzeit fast 120.000
Shop-Partner waren gerade dieses Jahr Anti-WM T-Shirts der Hit.

8.2 Yahoos Idee "Shophoshere"


Die Idee der sogenannten "Shophoshere" setzte Yahoo bereits vor einigen Monaten
um. Die User können dort eigene Einkaufslisten mit den gewünschten Produkten in
ihren Blogs übernehmen. Durch das Affiliate-Programm im Web 2.0. erhalten die
User, ebenso wie bei Amazon, eine Gewinnbeteiligung.
Die großen Internetunternehmen sind schon auf die Welle aufgesprungen. Einer der
Vorreiter ist das Portal Yahoo, das seine „Shoposphere“ schon im vergangenen
November ins Netz gestellt hat. Shoposphere ist eine Wortkreation aus Shop und
Blogosphere. Dort können Einkaufslisten mit Lieblingsprodukten angelegt werden.
Diese Listen können die Nutzer dann leicht in ihre Blogs übernehmen. Kauft ein
Nutzer das Produkt, erhält der Blogger einen Bonus oder einen Erlösanteil. Eine
Gefahr für die großen Händler ist diese Entwicklung nicht, eher eine Chance. Die
großen Shopping-Seiten im Internet wird es lange geben. Aber der Traffic wird künftig
an anderen Stellen im Netz besorgt. Der Erfolg der Shoposphere, die bisher nur in

11
Amerika eingeführt ist, hätte selbst Yahoo überrascht. Eine Einführung in
Deutschland sei durchaus möglich.

8.3 Amazons Idee „Amazon Connect“


Der Internethändler Amazon läßt derweil seine Autoren bloggen. Unter dem Titel
„Amazon Connect“ treten die Autoren der Bücher, die bei Amazon verkauft werden, in
Interaktion mit ihren Lesern. Davon profitieren beide Seiten: Amazon bekommt
interessante Inhalte, die Autoren erhalten eine hochwertige Werbeplattform in
eigener Sache. Dort können die Autoren über ihre neuen Bücher erzählen und die
Leser an der Entstehung der Geschichte teilhaben lassen. Mit diesen Instrumenten
läßt sich die Wahrscheinlichkeit, daß die Leser das Buch später auch kaufen,
erhöhen. Zusätzlich ist Amazon mit seinem Affiliate-Programm im Web 2.0 vernetzt;
wer über ein Blog ein Buch bei Amazon bestellt, beteiligt auch den Blogger an den
Erlösen.

8.4 Etsy.com Querbeet Erfolg


Zur neuen Generation der Online-Händler gehört auch Etsy.com, wo handgefertigte
Produkte aller Art verkauft werden. Die vier Gründer haben alles an moderner Web
2.0-Technik, was es gibt. Ihr Lohn: Nach wenigen Monaten hat Etsy 50.000 Produkte
verkauft, mehr als eine Viertel Million Dollar Umsatz erzielt und mehr als 20000
Mitglieder in der Community.

8.5 Spreadshirt.net neue Idee und Vorreiter


Aus Leipzig kommt das deutsche Vorzeigeprojekt des Social Commerce, der T-Shirt-
Händler Spreadshirt.net. Die Strategie: Die Mitglieder der Community werden in alle
Aspekte des Unternehmens einbezogen, dürfen zum Beispiel das neue Logo selbst
bestimmen. Zudem können die Nutzer eigene Spreadshops eröffnen und im ganzen
Web verteilen. Als Lohn werden sie dafür am Verkaufserlös beteiligt. 60.000 T-Shirts
hat das Unternehmen im vergangenen Jahr verkauft und expandiert nun ins Ausland.
Binnen weniger Monate soll aus einer langsamen, eher unansehnlichen Web-1.0-
Raupe ein flotter Web- 2.0-Schmetterling werden. Spreadshirt geht geradezu
lehrbuchmäßig vor.

12
Dagegen tun sich viele deutsche Händler noch schwer mit dem Web 2.0, da die
Interaktion mit den Kunden oft als lästig oder gar gefährlich empfunden wird, da auch
negative Kommentare zu den Produkten abgegeben werden. In einer Umfrage der
Fachmagazine Internethandel und Internet World Business bieten zwei Drittel der
befragten Händler ihren Kunden zwar die Möglichkeit, Produkte weiterzuempfehlen,
aber nur 12 Prozent erlauben Produktrezensionen und gar nur 1 Prozent haben eine
Community für den Austausch der Kunden untereinander eingerichtet.

8.6 Meinungshoheit
Mit ihrer Ablehnung übersehen viele Unternehmen, dass sie die Meinungshoheit über
ihre Produkte im Internet längst verloren haben. „Die Menschen in vernetzten
Märkten haben herausgefunden, dass sie sich weit bessere Information und
Unterstützung gegenseitig bieten können, als sie von ihren Verkäufern erhalten“,
lautet These 11 des Cluetrain-Manifestes, einer Art Internet-Bibel der amerikanischen
Autoren Rick Levine, Christopher Locke, Doc Searls und David Weinberger. Die vier
Autoren geben den Unternehmen gleich einen Rat mit auf den Weg: „Unternehmen
können direkt mit ihren Märkten kommunizieren. Wenn Sie das verpatzen, könnte es
ihre letzte Chance gewesen sein“, lautet These 19 des Cluetrain-Manifestes.

8.7 Social Commerce noch ausbaufähig


Bei der ganzen Euphorie darf man eines nicht vergessen: In Deutschland schaut es
noch mau aus mit web 2.0. Die meisten Angebote entstehen in den USA und sind
dementsprechend auf den amerikanischen beziehungsweise englischsprachigen
Markt ausgerichtet. In Deutschland werden innovative Internet-Entrepreneure
dagegen, wenn es sie überhaupt gibt, von den Kapitalgebern kurz gehalten. Doch die
Anwender wollen die neuen Angebote haben. Man sieht das an den vielen deutschen
Teilnehmern gerade bei den oben genannten Diensten. Es wird Zeit, dass
Deutschlands Internet-Industrie die Zeichen der Zeit erkennt!

Schon haben die die großen Internetkonzerne das Potential des neuen Webs
entdeckt und greifen zu. Flickr beispielsweise wurde schon vor geraumer Zeit von
Yahoo! gekauft, der führende Blog-Anbieter Blogger gehört zu Google und eBay hat
sich den innovativen Internet-Telefonie- und Messaging-Dienst Skype. einverleibt.

13
Alles international operierende Konzerne, die ihre Dienste schon beziehungsweise
bald auch in Deutschland anbieten.

Noch stehen wir am Anfang der Entwicklung. Was am Ende entstehen wird, ist
sicherlich etwas Tolles und revolutionäres. Aber es gilt auch, nicht die Augen zu
verschließen vor den Konsequenzen und Gefahren. Denn noch mehr als schon jetzt
werden Informationen, auch und besonders über einen selbst, von jedem immer und
überall recherchierbar und abrufbar sein. Wer es darauf anlegt, kann Bewegungs-,
Konsum- und Vorlieben-Profile aus den im Netz verfügbaren Daten in Zukunft noch
detaillierter zusammenstellen. Immer mehr Wissen, bis in die Intimsphäre der Nutzer
hinein, wird auf Servern rund um die Welt gelagert sein. Die Gefahren sind
offensichtlich.

Ein anderer Aspekt ist, dass die meisten der web-2.0-Sites darauf basieren den
Content der User auszuschlachten. Das ist grundsätzlich in Ordnung, wenn der User
wiederum dafür etwas bekommt und sei es nur ein wenig Spaß und Unterhaltung.
Kritisch wird die Sache, wenn plötzlich riesige, international operierende
Kommunikationskonzerne einsteigen und die Content-Verwertung auf die Spitze
treiben. So darf man durchaus hinterfragen, ob es richtig ist, dass
Suchmaschinenbetreiber über ihre web-2.0-Angebote an detaillierte Nutzer-Daten
und Konsum-Profile gelangen, die sie wiederum an anderer Stelle für die
Gewinnoptimierung nutzen.

Nur wenige Unternehmen der „Old Economy“ gehen bisher in Richtung Web 2.0. Die
Lufthansa hat zwar einen Blog für ihre Kunden eingerichtet, beteiligt sich aber nicht
daran und vergibt damit eine Chance der Kundenbindung. Der amerikanische
Konsumgüterkonzern Procter & Gamble fordert seine Kunden ausdrücklich auf, ihre
Erfahrungen mit den Produkten des Unternehmens auf der Internetseite mitzuteilen.
Nestle versucht mit seinem Ernährungsstudio, die Nutzer zur Diskussion mit dem
Unternehmen zu bewegen.

9. Ajax, alte Technologien neu nutzen


Ajax ist ein Apronym für die Wortfolge Asynchronous JavaScript and XML. Es
bezeichnet ein Konzept der asynchronen Datenübertragung zwischen einem Server

14
und dem Browser, welches es ermöglicht, innerhalb einer HTML-Seite eine HTTP-
Anfrage durchzuführen, ohne die Seite komplett neu laden zu müssen. Das
eigentliche Novum besteht in der Tatsache, dass nur gewisse Teile einer HTML-Seite
oder auch reine Nutzdaten sukzessiv bei Bedarf nachgeladen werden.

Mittlerweile halten immer mehr Ajax-Anwendungen Einzug in das tägliche Surfen und
manchmal bemerkt man erst auf den zweiten Blick, dass das Surfen gerade einen
Tick einfacher war. Wenn man z.B. nach dem Ausfüllen eines Textfeldes auf den
Senden-Button gedrückt hat und das eben Getippte sofort auf der Seite lesbar ist,
ohne dass sich die Webseite neu geladen hätte. Das ist ein Beispiel für Ajax.
Wunderbar zu fühlen in den Webapplikationen Flickr, Basecamp oder Backpackit.
Ajax ist keine neue Technologie sondern eher das perfekte Zusammenspiel von
Javascript, CSS und XHTML mit einem Server durch XMLHttpRequest. Verkürzt wird
die Warte- bzw. Ladezeit für den Besucher.

Ein sehr schön anschauliches Beispiel ist der XMLHttpRequest Business Card
Creator von Thomas Baekdal. Bei Eingabe einer ungültigen E-Mail-Adresse wird der
Benutzer sofort auf den Fehler hingewiesen. Ganz ohne Absenden und Laden.
Der größte Vorteil der Ajax-Technologie ist die Tatsache, dass Daten verändert
werden können, ohne dass die komplette Webseite vom Webbrowser neu geladen
werden muss. Dies erlaubt es Webanwendungen, auf Benutzereingaben schneller zu
reagieren. Zudem wird vermieden, dass statische Daten, die sich unter Umständen
nicht geändert haben, fortwährend über das Internet übertragen werden müssen. Da
die Ajax-Technologien frei zugänglich sind, werden sie unabhängig vom
Betriebssystem von den Webbrowsern unterstützt, die auch JavaScript unterstützen.
Ein Browser-Plugin wird nicht benötigt. Dies setzt voraus, dass die JavaScript-
Unterstützung nicht deaktiviert wurde – genau das stellt den größten Kritikpunkt und
die größten Probleme beim Einsatz dar. Vergleichbare Techniken, wie etwa Adobes
Shockwave oder Flash, sind jedoch immer noch mit dem Nachteil behaftet, dass sie
ein Browser-Plugin benötigen und nicht immer für alle Plattformen verfügbar sind.

15
10. Anhang

10.1 Abbildungsverzeichnis Seite


Abbildung 1: http://www.jenskleemann.de 1
Kursverfall des NASDAQ IXIC in den USA
Abbildung 2: http://www.sannier.net 2
Web 2.0 Memo Map engl.
Abbildung 3: http://www.solent.ac.uk 3
Adresszeile mit Maus
Abbildung 4: http://www.gadgetreview.com 3
Logo Yahoo
Abbildung 5: http://fgiasson.com 3
Logo Goggle
Abbildung 6: http://www.comoutos.gr 5
Logo Wikipedia
Abbildung 7: http://static.sky.com/ 9
Logo RSS
Abbildung 8: http://www.aspkin.com 4
Logo ebay
Abbildung 9: http://www.crbd.eu/ 4
Logo amazon
Abbildung 10: http://www.opensource.org 6
Logo Open Source

16
10.2 Literaturverzeichnis
FAZ - Frankfuter Allgemeine Zeitung Online Archiv
Universität Köln Erläuterungen zum Web 2.0 online
www.itfrontal.de Archiv Erläuterungen zum e-Commerce
Cluetrain-Manifestes ("Internet Biebel")
www.web-zweinull.de
www.oreilly.de zum Thema Open Source
wikipedia.de für Definition RSS und Ajax

17

Das könnte Ihnen auch gefallen