Das erste Auftreten von Web Analytics: Hit-Counter

Das Debüt der Web-Analytik war nicht gerade glamourös. Das erste Web-Analyse-Tool tauchte in Form von “Hitcountern” auf. Hit-Counter – auch bekannt als Web-Counter – waren Code-Bausteine, die ein einfaches PHP-Skript verwendeten, um ein Bild einer Zahl anzuzeigen, die jedes Mal, wenn das Skript lief, erhöht wurde. Es war keine ausgeklügelte Metrik und war oft etwas stumpf, aber Hitcounter waren verdammt einfach zu benutzen, selbst wenn man so gut wie nichts über das Web wusste. Ein Benutzer konnte einfach einen Stil, den er wollte, von der Hit-Counter-Website auswählen und dann den generierten Code per Copy-Paste einfügen.

Einige Hitcounter waren besser als andere. Spätere Hit-Counter kamen mit einem gehosteten Service, bei dem man sich einloggen konnte, um etwas anspruchsvollere Website-Statistiken als die einfache Hit-Count zu sehen. Andere waren nicht so ausgeklügelt. Sie leisteten eine variable Arbeit beim Herausfiltern von HTTP-Anfragen von Bots. Viele der Skript-Zähler waren SEO-Spamming-Techniken: Sie versteckten Links im Copy-Paste-Code, um viele Link-Referrals zu erhalten.

Trotz ihrer Unzulänglichkeiten waren Hitcounter die beste Möglichkeit, um herauszufinden, wie viele Leute Ihre Website besuchten – eine Erkenntnis, die schnell an Bedeutung gewann.

Vor den Hitcountern hatte man eigentlich nur Server-Logs. Das Problem war, dass nicht jeder, der eine Website hatte, Zugang zu seinen Server-Logs hatte, und nicht jeder, der Zugang hatte, wusste, was er damit anfangen sollte. Genauer gesagt, erforderte die Server-Log-Analyse, dass die Website-Besitzer Zugriff auf ihre Server-Log-Dateien hatten und wussten, wie sie diese Daten verwalten und interpretieren konnten.

Im Vergleich dazu wurde mit den Hitcountern eine Möglichkeit eingeführt, die Daten automatisch an jemand anderen zu senden, um sie zu analysieren. Da die Hitcounter-Bilder auf einer Website gehostet wurden, die den Leuten gehörte, die den Hitcounter erstellt hatten, landeten die HTTP-Anfragen für diese Bilder in deren Server-Logs. Die Daten wurden nun erfolgreich von einer dritten Partei gesammelt, gespeichert und interpretiert.

Zweitens musste ein Website-Besitzer nicht wissen, was er tat, um einen Hitcounter zu lesen. Er konnte die Daten falsch interpretieren oder viele Nuancen übersehen, aber es war klar, was ein Hitcounter zumindest abschätzen sollte: wie oft Leute diese Website besucht haben. Die meiste Zeit waren das keine nützlichen Daten, aber sie gaben so manchem Amateur das Gefühl, Teil des World Wide Web zu sein. Und wenn ihre Seite einen relativen Anstieg des Traffics erlebte, hatten sie ein Mittel, dies zu entdecken.

Hitcounter waren zur richtigen Zeit am richtigen Ort

Bedenken Sie, dass Mitte bis Ende der 90er Jahre der Aufstieg der extremen Amateur-Webentwickler stattfand: Die X-Files-Fans, die Seiten mit Fotos von jedem Moment sichtbarer romantischer Spannung zwischen Scully und Mulder füllten; Teenager mit LiveJournal-Accounts, die sich damit beschäftigten, Teenager mit LiveJournal-Accounts zu sein; Verschwörungstheoretiker im Ruhestand.

Diese Webentwickler hatten nicht vor, viel Geld in ihre Seiten zu stecken, und sie haben ihre Seiten oft bei kostenlosen Providern gehostet, die ihnen keinen Zugriff auf ihre Server-Logs gaben. Da sie Amateure waren, war das für viele von ihnen in Ordnung. Ihre Seiten waren relativ einfach und ihr Traffic relativ gering, also machten sie sich keine allzu großen Sorgen um die Überwachung der Leistung. Selbst wenn sie Zugriff auf ihre Server-Logs hatten, gab es keinen großen Anreiz für sie, ein paar hundert Dollar für eine Log-Analyse-Software auszugeben oder zu lernen, wie man die komplizierten kostenlosen Versionen benutzt.

Als mehr und mehr Amateur-Webentwickler auftauchten, wurden die meisten schließlich mit einer offensichtlichen, brennenden Frage konfrontiert: Wie viele Leute schauen sich meine Website an? Hit-Counter füllten diese Wissenslücke.

Die nächsten Web-Analytics-Tools: Angetrieben von JavaScript

Hit-Counter waren ein primitives Beispiel für das Tagging von Webseiten, eine Technik, die heute von den meisten Analyseprogrammen verwendet wird. In der Feldbiologie bedeutet Tagging, dass ein Tier mit einem Chip ausgestattet wird, der aus der Ferne überwacht werden kann, um das Tier zu verfolgen. Das Tagging in der Web-Analytik ist ähnlich. Das “Tag” ist eine Datei – zum Beispiel die Bilder in einem Hitcounter-Skript -, die in das HTML der Webseite eingebettet ist. Wenn jemand eine Seite per HTTP anfordert, wird auch das Tag per HTTP angefordert, wodurch Daten über den Benutzer und die Anforderung an denjenigen gesendet werden, der die Daten zur Analyse sammelt.

Später wurden Analytics-Tags entwickelt, die anspruchsvollere Skripte – meist in JavaScript geschrieben – verwenden, um andere Informationen als HTTP-Anfragen mitzusenden. Tag-basierte Analysen können flexiblere Informationen verfolgen, z. B. wie viel jemand für einen Artikel bezahlt oder welche Größe sein Bildschirm hat. Sie können auch die Interaktion mit bestimmten Elementen auf der Seite überwachen.

In den späten 1990er Jahren begannen Unternehmen, die Tagging-basierte Analysen anbieten, sich zu vermehren. Einige verkauften Software, die den alten Server-Log-Analysepaketen ähnelte: Sie verwendeten Tags, um das Benutzerverhalten zu verfolgen, schickten diese Daten aber an eine vom Kunden gehostete und verwaltete Datenbank. Gängiger waren jedoch web-hosted-tag-basierte Analyselösungen, die Ihre Daten in einer web-hosted Datenbank speicherten, die dem Analyseunternehmen gehörte und von ihm verwaltet wurde. Diese Lösung war viel billiger und einfacher zu implementieren für die schnell wachsende Zahl kleinerer Tech-Unternehmen.

Zu diesen neuen gehosteten Analyselösungen gehörten Omniture, WebSideStory und Sawmill. Deren Lösungen neigten auch dazu, mit einfacheren, weniger technischen Schnittstellen zu kommen, da die Analytik selbst eine Metamorphose durchlief.

“Marketer [begannen], darüber nachzudenken, wie sie diese Daten nutzen könnten, wenn sie einen besseren Zugang zu Web Analytics hätten”, schreibt ClickZ. Aber anfangs wussten sie meist nicht, welche Fragen sie stellen oder wie sie sie beantworten sollten. Die personell unterbesetzten IT-Abteilungen ihrer Unternehmen hatten oft nicht die Ressourcen und die Geduld, um zu helfen. Die neuen Tagging-basierten Analysetools entlasten die IT-Abteilung, die Verarbeitung von Logdateien und die Server. Aus ClickZ:

“Plötzlich konnten interessierte Vermarkter zu einem dieser Unternehmen gehen, einige grundlegende Tags auf der Website platzieren lassen und genauere Daten erhalten. Es sah so aus, als wären alle Probleme gelöst, und [Marketingabteilungen] konnten endlich die Informationen erhalten, die sie brauchten – immer noch selten mit den allgemeinen Geschäftszielen verbunden, aber ein Schritt in die richtige Richtung.”

Google Analytics Buys Urchin, and a New Era Is Born

Das Gründungsteam von Urchin, einem frühen Web-Analyse-Unternehmen.

Server-Log-Analyse-Lösungen blieben jedoch bestehen, weil viele große Unternehmen bereits stark in sie investiert hatten, und sie boten – und bieten weiterhin – einige Vorteile, die Tagging-basierte Lösungen nicht haben. Zum einen ist es einfacher, die verschiedenen Anfragen eines Benutzers durch die Website zu verfolgen, wenn man seine IP-Adresse hat, wie sie in jedem Server-Log-Eintrag enthalten ist. Server-Logs verfolgen auch das Verhalten von Crawlern, die kein JavaScript ausführen – das Wissen über das Crawler-Verhalten kann sehr nützlich sein. Seiten-Tagging in JavaScript kann auch Benutzer nicht verfolgen, die JavaScript in ihrem Browser nicht aktiviert haben; das Server-Log funktioniert für jeden Browser einwandfrei.

Eine der besten und größten der Firmen, die Server-Log-Lösungen anbieten, war Urchin. Damals, als einige Firmen 24 Stunden brauchten, um ihre Server-Logs zu analysieren, konnte die erste Version der Software von Urchin dies in 15 Minuten erledigen. Das gab ihnen einen großen Vorteil. Einige ihrer ersten Kunden waren große Webhoster, was bedeutete, dass sie bald die Standard-Analyse-Lösung für jeden waren, der diese Hoster nutzte. Dazu gehörten NBC, NASA, AT&T und etwa ein Fünftel der Fortune 500. Zusätzlich zu ihrer Client-gehosteten Server-Log-Software, Urchin, boten sie auch ein Web-gehostetes Tag-basiertes Analyseprogramm an, Urchin On Demand.

Da das Urchin-Team den Trend zu weniger technisch versierten Analyseanwendern erkannte, bemühte es sich, eine Software zu entwickeln, die zwar leistungsstark, aber auch von Nicht-Programmierern oder Statistikern bedienbar ist. Einer der Gründer sagte in einem Interview,

“[Urchins] Wert bestand darin, das Webgefühl zu demokratisieren, indem man versuchte, etwas Komplexes wirklich einfach zu benutzen.”

Im Jahr 2004 sprachen Vertreter von Google das Urchin-Team auf einer Messe an. Monate später, im Jahr 2005, wurde die Übernahme für gerüchteweise 30 Millionen Dollar bekannt gegeben. Die meisten der Gründer wurden leitende Angestellte bei Google, und aus Urchin On Demand wurde Google Analytics.

Google baute Google Analytics zur meistgenutzten Analyselösung der Welt aus. Und sie ließen Urchin, die vom Kunden gehostete Server-Log-Lösung, weiter schmachten. Viele Urchin-Kunden schimpften. Andere beobachteten, dass es einen klaren Trend weg von Server-Log-Analyselösungen im Allgemeinen gab.

“Logfile-Analyse-Tools sind in den letzten Jahren vom Markt verschwunden, höchstwahrscheinlich weil die JavaScript-Tools einfacher zu implementieren sind”, schrieb ein Blogger. “Dies wurde noch deutlicher, als sich die Webanalyse-Community als Marketing-Profi gebrandmarkt hat, wodurch die Notwendigkeit einfacher Tools entstand, die es dem Endanwender (Marketer) ermöglichen, Änderungen vorzunehmen, und nicht den IT-Experten.”

Das war ein Schlag für jedes Unternehmen, das in die vom Kunden gehostete Urchin-Lösung investiert hatte. Aber Googles Fokus auf Google Analytics hat sich letztendlich ausgezahlt – sie sind mit Abstand der Marktführer in der Analytics- und Tracking-Branche. Laut BuiltWith.com nutzen fast 28 Millionen aktive Websites Google Analytics. New Relic als nächster Konkurrent liegt mit weniger als 1 Million aktiver Websites weit zurück.