Eigenen Netzwerktraffic und andere Störfaktoren aus der Webanalyse ausschließen

Netzwerktraffic analysierenWer mehr Besucher auf die eigene Webseite lenken möchte, nachhaltig mehr Traffic generieren will oder effektive Onpage- und Offpage-Optimierung betreiben möchte, benötigt Daten um anhand deren Auswertung Entscheidungen zu treffen und bestimmte Dinge anpassen zu können. Wichtig ist, dass die Daten auch sauber sind bzw. nicht durch externe oder interne Störfaktoren verfälscht werden und somit unbrauchbar werden. Zu diesem Zweck stehen unterschiedliche Analyse-Tools zur Verfügung.

Mit Analyse-Tools wie Google Analytics lassen sich Interaktionen von Nutzern verfolgen und die Trafficmuster für Optimierungen nutzen. Die Ergebnisse können aber durch diverse Faktoren verfälscht oder verzerrt werden. Die Statistik der eigenen Seite kann allein aufgrund eigener Besuche, besonders wenn beispielsweise alle Mitarbeiter einer Firma die Firmenhomepage ständig besuchen unbrauchbare Daten anzeigen. Um möglichst genau zu erkennen, welche Trafficmuster auch relevant sind, sollte man gewisse regeln befolgen. Zunächst einmal gilt es folgende Dinge zu beachten, wenn es darum geht, möglichst saubere, gut verwertbare Daten zu generieren:

Fehlender oder falsch verbauter Tracking Code sorgt für Messfehler

Um überhaupt Daten zu erfassen, ist eine richtige Implementierung des Tracking Codes Grundvoraussetzung. Dabei können unterschiedliche Fehler gemacht werden. Oft wird der Tracking Code gänzlich vergessen oder bestimmten Unterseiten nicht beigefügt. Besonders dann, wenn neue Templates eingefügt werden oder die Codings überarbeitet werden schleicht sich dieser Fehler ein. In anderen Fällen ist der Tracking Code falsch verbaut. Die Position des Codes ist entscheidend dafür, dass er auch vollständig erfasst werden kann. Doppelte Codes sind weiterhin oftmals Ursache für verfälschte Messergebnisse.

Referrals ausschließen

Oftmals ist es sinnvoll, bestimmte Referrals, welche nicht relevant für die Analyse sind von vornherein auszuschließen. Hierzu können Self-Referrals, also Traffic, welcher durch Nutzer eigener Domains oder Subdomains entsteht, Bezahlanbieter wie PayPal oder auch Intranets zählen, welche die Ergebnisse verfälschen können.

Weitere Störfaktoren ausschließen

Weiterhin sollte man sich mit den grundlegenden Prinzipien und Begriffen vertraut machen, wenn es um die Analyse von Besucherströmen auf der eigenen Webseite geht. Es ist wichtig in der Lage zu sein, Störfaktoren auszuschließen oder auch die Absprungrate richtig analysieren zu können. Unterschiedliche Methoden können helfen, die Ergebnisse so präzise wie möglich zu erfassen und für eine anschließende Analyse aufzubereiten.

Echtzeit Auswertung nicht überbewerten

Die Möglichkeit der Echtzeitanalyse der eigenen Webseite mag sinnvoll sein, um sich ein grobes Bild vom Ist Zustand zu verschaffen, für fundierte Auswertungen sollten diese Daten jedoch nicht herangezogen werden. Tatsächlich ist es so, dass bis zu mehrere Stunden vergehen können, bis die kompletten Informationen vorliegen. Es empfiehlt sich, die Daten des Vortages für relevante Analysen zu verwenden.

IP Adressenfilter erstellen

Um Verfälschungen / Verzerrungen von Daten durch interne Seitenzugriffe auszuschließen, bietet es sich an einen IP-Adressenfilter einzurichten. Somit lassen sich Zugriffe von bestimmten, selber definierten IP-Adressen aus den Ergebnissen herausfiltern. Hierzu ist es notwendig die öffentliche IP-Adresse zu kennen, welches das eigene System nutzt. Insbesondere wenn intern oft auf eine Seite zugegriffen wird, etwa zu Testzwecken oder Stresstests, sollte man diese Möglichkeit nicht ungenutzt lassen.

Bot Traffic und Spam vermeiden

Es ist auch möglich, dass Bots die eigenen Ergebnisse durch automatisierte Seitenaufrufe verfälschen. Dieser künstlich generierte Traffic wird in Ghost-Spam und Crawler-Spam unterschieden. Ghost-Spam greift dabei nicht auf eigentliche Seiteninhalte zu, verfälscht aber sehr wohl wichtige Messdaten wie Besucherzahlen, die Absprungrate oder die Besuchsdauer. Ein Web Crawler hingegen ruft Webseiten automatisiert auf und hat das Ziel Traffic auf andere Seiten zu lenken. Beides lässt sich mit entsprechenden Tools wirkungsvoll aus den eigenen Messergebnissen herausfiltern.

Daten zielgerichtet analysieren und Maßnahmen einleiten

Zusammenfassend lässt sich sagen, dass sich verfälschte Messergebnisse (hier ein typisches Beispiel) mit entsprechenden Tools und unter Berücksichtigung der Grundvoraussetzungen effektiv vermeiden lassen. Letzten Endes kommt es bei der Analyse der Daten immer auf die jeweiligen Ziele an, welche mit der Webseite verfolgt werden. Bei Webshops sind dies üblicher weise mehr Bestellungen, es können wahlweise auch mehr Zugriffe auf bestimmte Artikel, das Abonnieren eines Newsletters oder Neuanmeldungen sein. Je nach Vorhaben bieten sich unterschiedliche Maßnahmen an, um diese umzusetzen. Eine fehlerfreie Datengrundlage ist hier dir Grundlage für effektive Lösungsansätze. Je genauer die Daten vorliegen, desto präzisere Rückschlüsse kann man ziehen und seine Strategie danach ausrichten.

Analyse-Tools wie Google Analytics werden immer komplexer und genauer in ihren Ergebnissen. Dennoch ist es noch immer wichtig zusätzlich darauf zu achten, dass die relevanten Daten auch in einer unverfälschten Form vorliegen. Es ist sinnvoll sich mit SEO Maßnahmen auseinanderzusetzen um nach der Datenanalyse auch wirkungsvolle Maßnahmen einzuleiten um die erwünschten Ziele auch effektiv und Ergebnis-orientiert umgesetzt werden können.

Bookmark the permalink.

Teilen:

Comments are closed