Das Ende der Homepage


Visitenkarten-Fetischismus

Es gibt Firmen, die legen sehr großen Wert auf ihre Visitenkarten. Sehr, sehr großen Wert. Dafür werden gerne seltsam aufwändige Rituale getrieben. Welcher Mitarbeiter bekommt welches Design? Marke und Konzern werden sorgsam in der Logogestaltung getrennt. Und am wichtigsten ist natürlich, welchen Titel bekommt der jeweilige Mitarbeiter? Da wird auch keine Rücksicht darauf genommen, ob der Titel nicht etwa beim Kunden, wo die Visitenkarte (nomen est omen!) ja letztlich ankommen soll, eher abschreckt als Eindruck macht. Visitenkarten sind nach der Höhe des Honorars der zweite große Fetisch einer (konventionellen) Karriere.

Ein ähnliches Schicksal erahne ich für die klassische Website, die Firmen heutzutage ins Web stellen. Nachdem heute auch der letzte Firmenchef oder Manager kapiert hat, dass ein Unternehmen im Internet stattfinden muss, will es überhaupt wahrgenommen – und respektiert – werden, wird etliche Mühe in die Gestaltung von „Homepages“ von Firmen gesteckt. Dabei wird oft gar nicht mal wenig Geld in die Hand genommen. Zum einen, weil noch zu oft der Irrtum vorherrscht, je aufwändiger ein Relaunch ist, desto länger brauche man nichts mehr an der Website zu tun. Zum anderen, weil man die Website als eine Art elektronische Visitenkarte der Firma (miss-)versteht (siehe oben).

Interaktion und Kommunikation

Das zentrale Problem der meisten Firmen-Websites ist, dass nicht wirklich verstanden wird, dass das Internet eine Kommunikations- und Interaktionsplattform ist. Und Firmen, die ihre Produkte nicht online verkaufen, realisieren oft nicht, dass sie beginnen müssen, auch ohne ein Shopangebot, aktiv zu kommunizieren und zu interagieren, wollen sie in Zukunft noch wahrgenommen werden. Und das in einer Weise, die von ihnen bestimmt ist und nicht von außen via Social Media etc. Es mag stimmen, dass bei einem Blick von oben auf das Gewimmel eines belebten Platzes derjenige, der starr und stumm verharrt, relativ bald auffällt. Aber nur weil man sich Gedanken macht, ob er nichts Besseres zu tun hat oder ob er etwas im Schilde führt.

Wer aber interagiert und lebhaft (und bitte authentisch) kommunizieren will, wird meist schnell feststellen, dass die klassische Homepage dazu oft zu sperrig, zu langsam (egal welches CMS genutzt wird) und zu wenig effektiv ist. Und je mehr die Website visitenkarten-mäßig angelegt sind, um so mehr. Denn Interaktion und Kommunikation machen schnell die schönste Website (optisch) kaputt, weil sie so aufdringlich und unruhig ist. Aber beides macht sie lebendig – so wie die vielen Menschen auf dem oben beschriebenen belebten Platz, die herumwuseln, die gestikulierend miteinander reden oder irgendetwas zum Besten geben.

Die mobile Evolution

Diese Menschen, die da auf Plätzen stehen, in Zügen fahren, auf Flugplätzen warten – oder in Meetings sitzen, sie alle sind heute längst kontunuierlich online. Das Smartphone ist stets angeschaltet – und wird unablässig genutzt, es versorgt unaufhörlich mit Online-Informationen. Vorrangig über Apps, nur ganz selten über (mobile) Homepages. Wie Hubertus von Lobenstein gerade in seinem Blogpost „Die letzten Tage des Internets“ ausführte, verbringen heute Menschen im Schnitt mehr Zeit mit mobilen Apps als im Internet. Über die Hälfte aller „Computer“, sind heute mobile Geräte (Smartphones, Tablets & Co.). Und das Verhältnis ändert sich rapide: Die Zahl mobiler Endgeräte wächst doppelt so schnell wie die der PCs.

Oder anders herum betrachtet. Mehr als die Hälfte des Traffics einer normal vernetzten Website kommt heute nicht mehr über die Homepage, sondern über die verschiedensten anderen Kanäle wie Google, Facebook, Twitter, über mobile Zugriffe und natürlich (Online-)Marketingmaßnahmen. Auf High-Traffic-Sites sind es manchmal nur mehr ca. 30 Prozent der Zugriffe, die die Homepage anlaufen (Pareto rules!). Die große Überzahl der User steuern die Inhalte direkt an und strafen die Homepage konsequent mit Nichtbeachtung.

Big Data Web

Und das ist erst der Anfang. Absehbar ist längst eine Entwicklung, die statische und „schicke“ Websites, wie sie heute üblich sind, vollkommen obsolet machen wird. Absehbar ist, dass Rechnerkraft  sich weiter alle 15 Monate verdoppeln wird (Moores Law). Und das heute auf  sehr hohem Niveau. Zugleich werden die Bandbreiten weiter wachsen, jährlich um ca. 50 Prozent (Nielsen’s Law). Und die Netzwerk-Effekte explodieren zugleich in bisher noch nie gekannter Weise (Metcalfe’s Law, Reed’s Law). Noch nie kannte die Menschheit jenseits biologischer Systeme Netzwerke von über einer Milliarde Teilhabern. (Diese Zahl wird Facebook wohl dieses Jahr erreichen.) Und von ihnen werden Datenmengen in ungeheuren Größen produziert.

In solch einer voll-digitalen Welt mit monströsen Rechnerleistungen, völlig neuen Potentialen für Algorithmen und Softwarelösungen, mit einer nie gekannten Vernetzungsgeschwindigkeit und Teilnehmer-Milliarden und Yottabytes an Datenmassen (Big Data) sind Homepages, wie wir sie heute kennen, kuriose Anachronismen. Sie wirken wie versprengte Papierschnitzel (zerrissener Visitenkarten) in einem pulsierenden digitalen Kosmos. Sie erinnern an alte, verwitterte Wegweiser in einer voll vernetzten, GPS-navigierten, komplett digital erfassten Welt.

Intelligentes Web-Environment

Mal ganz ehrlich, eine Homepage, vor allem in ihrem Visitenkarten-Appeal, ist eine Institution aus einer vergangenen Ära.  Dahinter steckt noch das hierarchische Denken von Firmen, die davon ausgehen, dass ihre Kunden gefälligst zu ihnen zu kommen haben. Sie halten Informationen für Menschen bereit, die müssen sich dafür aber gefälligst herbei bemühen. Kommunikation und Interaktion auf Augenhöhe ist das nicht. Die Frage ist, ob in der oben beschriebenen 360°-Digitalität der Zukunft die Augenhöhe noch das gültige Paradigma ist – oder sich zumindest im Internet und den dort vorhandenen Informations-Yottas die Machtverhältnisse zuungunsten der Anbieter, sprich Firmen und Unternehmen verschieben.

Sie müssen in Zukunft alles tun, um es den Usern so leicht und convenient wie möglich zu machen, an Informationen, Angebote und Interaktions-Optionen zu kommen. Da reicht eine passive, schicke, aber tumbe Homepage sicher nicht. Stattdessen sollte ein hochintelligentes Web-Environment jenseits des heute aufkommenden responsive Webdesigns geschaffen werden, das im optimalen Fall – und bei Einwilligung des Users – weiß, wer der User ist, welches Gerät er gerade nutzt, wo er ist (location based services) und was er vermutlich gerade will oder benötigt. Dazu sind viel Wissen über den User nötig und dafür viel sensible soziale Kommunikation und kluge Algorithmen, die die Daten zu deuten wissen.

Dazu müssten CMS-Systeme entwickelt werden, die so etwas leisten können. Dazu muss alles Wissen, müssen alle Datenbanken eines Unternehmens wirklich konsolidiert und intelligent verknüpft werden. Und man müsste wissen, womit man seine Kunden begeistern könnte. Dazu braucht es mehr (digitales) Wissen, mehr Know how, mehr Strategie und mehr Entschlusskraft als für eine Gestaltung einer Pixel-Visitenkarte. Die Alternative dazu wäre, sich als Unternehmen künftig völlig in die Hand der großen Internet-Plattformen zu begeben, die längst konkret an solch einer Zukunft jenseits von Homepages arbeiten: Google, Amazon, Apple, Facebook – und eventuell noch Microsoft.

Big Data


Rechnen per Lochkarte

Es war in der zweiten Hälfte der 70er-Jahre, dass ich in Kontakt mit Computern kam. Nicht mit PCs, sondern mit Großrechnern der TU München. Deren immense Rechnerkraft (nach damaligen Maßstäben, heute kann wahrscheinlich jeder PC mehr) durfte man mit ein wenig Glück und guten Beziehungen des Nächtens für wissenschaftliche Zwecke nutzen. Wir hatten uns damals am Institut für Theaterwissenschaften unter Führung von Heribert Schälsky vorgenommen, das Verhalten von Theaterbesuchern empirisch zu untersuchen: mit Umfragen oder auch der Messung von Hautwiderstand.

Visualisierung der Datenmassen von Wikipedia

Das Ergebnis waren riesige Massen an Daten, die es irgendwie auszuwerten galt. Der einzige – und damals verführerisch moderne – Weg dazu war eine Auswertung per (Groß-)Computer. Dazu mussten aber alle Ergebnisse als Datensätze auf Lochkarten gestanzt werden, ein wirklich grässlich aufwändiger und Nerven zermürbender Prozess, bei dem jeder noch so kleine falsch sitzende Lochkartenritz die gesamte Auswertung zunichte machen konnte.  – Und es auch reichlich oft tat. Dann galt es, für eine oder zwei Wochen auf den nächsten Rechnerfreiplatz zu warten, um den nächsten Versuch zu starten.

Digitale Speicherung rarer Daten

Diese missliche Erfahrung hat mir die Neugier auf Computer damals erst mal bis Mitte der 80er-Jahre ausgetrieben, bis der Atari ST als preiswerter Klon des Apple SE auf den Markt kam. Der wurde damals aber erst mal vorwiegend als intelligente Schreibmaschine genutzt und nicht als Rechner. Zwar war auch das Schreiben auf dem Atari eine Verarbeitung von Daten, aber das war mir damals in meiner Unbedarftheit nicht recht bewusst. Wir nutzten damals den Computer, um vermeintlich Informationen zu produzieren, nicht um sie zu beschaffen oder gar zu filtern.

Damals war die mediale Normal-Situation eine des Informations-Defizits. Die einzigen, die sich darum kümmerten, da Abhilfe zu schaffen, waren die Medienproduzenten. Und sie verdienten daran nicht zu knapp. Wenn  man es sich leisten konnte, abonnierte man möglichst viele Zeitschriften, vorzugsweise auch aus anderen Ländern, vorzugsweise aus den USA: Nachrichten- und Lifestyle-Magazine, Fachzeitschriften, Special Interest-, Kultur-, Wissenschafts- und vielleicht auch Wirtschaftsmagazine. Dazu Zeitungen und Fachbücher. Wissensbeschaffung war ein teures, zeitraubendes und anstrengendes Unterfangen, deren Ergebnisse man dann in Zettelkästen oder Aktenordnern ablegte.

Digitale Kinderschuhe

Die Situation änderte sich erst Mitte der 90er-Jahre mit Etablierung des Internet. Da konnte man plötzlich (etwa bei Compuserve) in riesigen Datenbanken recherchieren, man konnte mit den ersten Suchmaschinen Informationen etwa amerikanischer Hochschulen finden, deren Existenz man bis dahin nicht einmal erahnt hatte. Plötzlich wurde die Informationsbeschaffung so viel leichter. Und die Speicherung der Ergebnisse fand nun immer mehr im digitalen Raum statt, das bot sich an und war bequem.

Heute haben wir die Situation, dass sich (geschätzt) etwa alle zwei Jahre unser Wissen verdoppelt. Und das ist heute schon größer als alles Wissen, das wir in der gesamten Menschheitsgeschichte bis zum Jahr 2002 gesammelt haben. Und die Entwicklung beschleunigt sich weiter. Inzwischen sind es nicht nur wir Menschen, die wir exponentiell immer mehr Informationen produzieren, sammeln und speichern, in der Wissenschaft, in den Medien oder in Blogs, bei Facebook, Twitter & Co. Es sind auch noch Abermilliarden von Geräten, die dasselbe tun: Smartphones, GPS-Geräte, Kassen, Minicomputer in unseren Autos und anderen Geräten, Browser, die unsere Web-Aktivitäten beobachten, Kameras, Sensoren, Musikgeräte und… und… und…

Information Overflow vs. Informations-Überfluss

Dieses Phänomen wird bei uns üblicherweise als Information Overflow beschrieben. Die negative Konnotation dieses Begriffs ist gewollt. Denn vorzugsweise sind es die Medien, die diesen Terminus reflexartig propagieren. Denn sie sind die Verlierer dieser Explosion der Daten- und Informationsmengen. Statt Informationen zu beschaffen und/oder über deren Verfügbarkeit zu bestimmen, sind sie jetzt ratlose Beobachter des radikalen Paradigmen-Shifts. Sie können – oder wollen – nicht verstehen, dass bei einem Überangebot an Informationen bei begrenzt wachsender Nachfrage kein Geld durch Informationsbeschaffung und -verbreitung zu verdienen ist.

Clay Shirky hat schon 2008 überzeugend ausgeführt, dass das Problem des Information-Overload genuin eines von ungenügend funktionierenden Filtern ist. Das Problem ist nicht die schiere Masse von Daten, sondern die Mittel, mit ihnen klar zu kommen. Er schloss seinen Vortrag auf der Web2.0-Konferenz damals mit dem Hinweis, dass das Problem des Information Overflow eigentlich seit Gutenbergs Erfindung des Buchdrucks im 15. Jahrhundert besteht, seit es mehr Bücher gab, als ein Mensch in seiner Lebenszeit lesen konnte. Sein lapidares Fazit war damals: „Wenn ein Problem seit solch langer Zeit besteht, ist es vielleicht kein Problem, sondern ein Faktum.“

Mit oder ohne Filter?

Heute ist die Menge der Zunahme an Daten, Informationen und Wissen so massiv, dass dieses Faktum kaum mehr mit den bestehenden Filtern bewältigt werden kann. Das erlebt man immer häufiger, wenn man Informationen im Internet sucht. Google schafft es oft nicht mehr, die jeweils wirklich relevantesten Inhalte jenseits von gesichertem Wissen wie Wikipedia-Einträgen zu ermitteln. Obwohl Google in seinem Suchalgorithmus auf die Intelligenz der Massen setzt, indem es die Akzeptanz von Inhalten durch andere User und Sites einrechnet, sind heute andere Filter wirkungsvoller: etwa die Suche bei Twitter, wo man stets die wirklich aktuellsten Hinweise auf Suchbegriffe bekommt, oft nur Minuten alt. Oder man verzichtet (fast) komplett auf technische Filter und verlässt sich auf das Wissen seines sozialen Umfelds und fragt in Facebook.

Mittlerweile ist die schiere Masse und die dynamische Wucht der stetig wachsenden Übermenge an Daten und Informationen (wie oben beschrieben) so groß, dass die gängigen Ängste von wegen „Information Overflow“ gar nicht mehr greifen mögen. Deswegen redet man heute lieber wertfrei von „Big Data“, von Massen an Daten, die kaum oder schwer mehr beherrschbar scheinen. Der durch die unvorstellbare Menge und deren Wachstum erzwungene Abschied von abwertenden Begriffen wie Information Overflow eröffnet die Sicht auf die ungeheuren Chancen, die Big Data geben.

Neue Perspektiven durch Big Data

Die Zukunft unserer Netze, unserer Businesses und wahrscheinlich auch unserer Gesellschaft wird davon beeinflusst werden, wie wir mit Big Data umgehen. Wer hier die größte Kompetenz entwickelt, wird extrem großen Einfluss – und Gewinnchancen haben. Kompetenz wird sich hier zusammensetzen aus bester Technologie (Algorithmen), die die Massen an Daten sinnvoll interpretieren kann – und aus der Bereitschaft, wie mit dieser Macht sorgsam und verantwortungsvoll umgegangen wird. Schon heute kann mit den Datensets, die wir täglich anonym  übermitteln, problemlos auf uns als konkrete Individuen rückgeschlossen werden und Persönlichkeitsprofile können erstellt werden.

Noch sind diese Profile zu unspezifisch, noch ist die Interpretation der Daten zu irrelevant, um wirklich wirksam verwendet – oder missbraucht – werden zu können. Sicher aber ist , dass Big Data die Wirtschaft und vor allen den Handel mittelfristig komplett verändern wird. Es werden ganze neue Industrien entstehen, die sich der Bewältigung, der Verarbeitung und der Interpretation der Datenkatarakte der Zukunft widmen werden. Und es werden darin ganz neue Jobs entstehen, die heute noch kaum denkbar sind: Data-Stewarts, die sich um die Verarbeitbarkeit von Daten kümmern; Data-Compiler, die kreativ Daten in Verbindung bringen; Data-Profiler, die Daten kreativ zu analysieren wissen – und viele mehr.

Und es wird Data-Condenser und -Interpretatoren geben, was heutigem (investigativen) Journalismus nahe kommen mag. Es mag Data-Controller geben, die mit viel technischem Know how aufpassen, dass Daten und Wissen daraus nicht missbraucht wird. Und schließlich wird es Menschen geben, die aus Daten, Informationen und Wissen Geschichten zu spinnen wissen, damit aus massiven, dispersen Daten Erkenntnisse und Emotionen heraus destilliert werden, die Menschen in ihrem Innersten packen und sie berühren. Das mögen die Journalisten, vielleicht auch die Vermarkter der Zukunft sein. Aber ihre Jobs werden andere Bezeichnungen haben…