Eine der Grundlagen für aussagekräftige Analysen ist eine gute Datenqualität. Doch viele Unternehmen vergessen, darauf zu achten und produzieren “Kraut und Rüben”.
Worauf es bei der Datenqualität ankommt und wie man da rangeht, bespreche ich mit meinem Gast Markus Baersch von Gandke Software. Einem der Umtriebigsten in der Webanalyse.
Abonniere auf Android Abonniere auf iTunes
In dieser Folge:
Wenn du wissen möchtest, wie du die Datenqualität im Blick hast und verbessern kannst, höre einfach in die Folge rein.
Lade die Folge runter (Rechtsklick und “Speichern unter”)
Meine Bitte: Wenn dir diese Folge gefallen hat, hinterlasse bitte eine 5-Sterne-Bewertung bei iTunes oder wo immer du abonniert hast, gerne ein Feedback im Blogpost oder bei Facebook und abonniere diesen Podcast. Zeitinvestition: Maximal ein bis zwei Minuten. Dadurch hilfst du mir den Podcast zu verbessern und die Inhalte zu liefern, die du gerne hören möchtest. Ich danke dir jetzt schon dafür. Oder hinterlasse auch gerne einfach einen Kommentar hier.
Wenn du das Ganze lieber lesen möchtest, unten gibt’s das komplette Interview in Textform.
Shownotes
Websites
- Kostenlose Tools rund um Google Analytics: https://www.analytrix.de
- Podcast “Beyond Pageviews” (Markus zusammen mit Michael Janssen): https://www.termfrequenz.de/podcast/beyond-pageviews-podcast/
- Markus eigene Website: https://www.markus-baersch.de
- Google-Hilfeseite zur Absprungrate: https://support.google.com/analytics/answer/1009409?hl=de
Hier findet ihr Markus Baersch
- Triff Markus bei Facebook: https://www.facebook.com/markus.baersch
- Triff Markus bei XING: https://www.xing.com/profile/Markus_Baersch/
Allgemein
- Die geschlossene Facebook-Gruppe für Digital- und Webanalyse-Helden und solche, die es werden wollen:
https://www.facebook.com/groups/analysehelden/ - Facebook-Gruppe für Einsteiger:
https://www.facebook.com/groups/webanalyseeinsteiger/ - Die Website von “Die Sendung mit der Metrik”: die-sendung-mit-der-metrik.de
- “Die Sendung mit der Metrik” bei Facebook: Zur Facebook-Seite
- Wir zeigen euch, wie Webanalyse funktioniert: Zu unseren Seminaren und Workshops
Das war die Folge “Sind deine Daten sauber? Datenqualität in der Webanalyse” mit Markus Baersch
Hallo? Die Sendung mit der Metrik, der Webanalyse-Podcast mit Maik Bruns und seinen Gästen. Heute mit Markus Baersch. Viel Spaß! #00:00:28.1#
Maik Bruns: Hey Analyse-Held, hier ist der Maik und herzlich willkommen zu einer neuen Podcast-Folge. Heute geht es um das Thema Datenqualität. Sind deine Daten sauber und wir möchten heute zusammen sprechen über das Thema Datenqualität in der Webanalyse. Als Gast habe ich mir heute Markus Baersch eingeladen und Markus Baersch ist Podcast-Kollege quasi von mir bei Beyond Pageviews, der Podcast, den er zusammen mit Michael Janssen in der termfrequenz-Familie macht. Markus ist Geschäftsführer von Gandke Software und kümmert sich ziemlich viel um SEA, aber kommt auch quasi aus der SEO, hat mit Webanalyse ich glaube ein Riesen-Hobby gefunden, das er dann auch beruflich nutzen kann. Hat auch ich denke profundes Wissen über Conversion-Optimierung und hat unter anderem auch und da werden wir gleich bestimmt nochmal drüber sprechen auch mit Analytrics eine ziemlich dicke Toolbox mittlerweile geschaffen, die sich so rund um Google Analytics dreht. Es sind richtig gute Tools drin. Zum Beispiel ein Datenschutz-Check, ein Parameter-Check in den URLs, ein Audit, was einfach umfangreiche Zeit spart. Ein Spam-Check ist drin und so weiter und so fort. Also wirklich coole Tools, die auch deine Datenqualität beeinflussen können. Ich freue mich total, dass ich Markus heute hier im Podcast begrüßen kann. Ich möchte euch einfach nochmal kurz einen Kontext geben, weshalb wir das überhaupt machen. Bei mir ist es immer wieder so, das heißt Kunden sprechen mich gelegentlich mal an oder Kunden, die meine Kunden werden wollen oder Menschen, die meine Kunden werden wollen, sprechen mich an und sagen, so, können wir nicht mal irgendwas Cooles in Analytics machen. Einer der ersten Steps ist eigentlich immer zu schauen, wie steht es denn um überhaupt bestehende Daten, gibt es Google Analytics überhaupt schon im Einsatz? Und wenn ja, wie ist es eingerichtet worden? Werden die Daten, die gemessen werden, überhaupt richtig gemessen? Da werden ganz häufig auch schon Grundlagen vergessen. Das Thema Datenhygiene ist eines der ersten, das man angehen sollte. Denn ohne Daten in guter Qualität ist eine Analyse ein Stück weit auch gefährlich, weil man sich dann auf Daten verlässt, die eigentlich vielleicht nicht unbedingt sinnvoll sind. Wie gesagt häufig werde ich auch angesprochen dann auf sowas wie, sollen wir nicht mal ein Attributionsmodell zusammen machen. Da muss ich im Umkehrschluss immer erst fragen, wie sieht es denn überhaupt mit deinen Daten aus? Hast du denn schon sinnvolle Daten, mit denen man überhaupt über Attributionsmodelle sprechen sollte? Dann kommt halt erstmal ein großes Fragezeichen, was es denn damit auf sich hat, weil Daten, die werden doch standardmäßig ganz richtig erhoben, nehmen die meisten an, aber es ist nun mal nicht so. Deswegen habe ich mir Markus eingeladen. Ich habe gesagt, okay, cooles Thema, Datenqualität, das machen wir und ich sag mal, herzlich willkommen, Markus. #00:03:18.3#
Markus Baersch: Hallo Maik, hallo geneigter Hörer, ich bin stolz wie Bolle, dass ich heute, also noch früher kann man deine Sendung nicht hören als drin zu sitzen und selber mit aufzunehmen. Insofern … #00:03:30.7#
Maik Bruns: Das kennst du doch eigentlich oder? Also wenn du mit Michael den Podcast aufnimmst.
Markus Baersch: Ja, von der eigenen Sendung schon, klar, aber ich bin auch treuer Hörer deiner Sendung und freue mich immer, wenn eine neue rauskommt und umso mehr freue ich mich, dass ich heute mal daran teilhaben kann. #00:03:44.0#
Maik Bruns: Ah, sehr gut. Und gleich mit so einem Hammer-Thema oder? #00:03:47.7#
Markus Baersch: Genau, hast dir auch das richtige Thema ausgesucht. Ist glaube ich ein offenes Geheimnis. Wer schon mal Beyond Pageviews gehört hat, weiß, dass Michael und ich uns auf die Fahnen geschrieben haben auch gerade das Thema Datenqualität voranzutreiben, weil es ist halt genauso wie du nach deiner schmeichelhaften Einführung meiner Person irgendwie erzählt hast. Das war so ein bisschen wie aus meinem Leben. Also all diese Dinge passieren bei mir auch und das nicht episodisch, sondern eigentlich regelmäßig, dass wir uns irgendwie wie gesagt meistens ist der Einstieg der erste Kontakt zu uns hat meistens was irgendwie mit SEA zu tun. Aber irgendwann kommt AdWords, dann kommt Analytics dann ins Spiel und dann sind die Anforderungen teilweise eben sehr unrealistisch in Bezug auf den Reifegrad, den die Webanalyse-Implementierung und vielleicht auch der Webanalyse selber da erreicht hat. Man will da oft einfach mehr als drinsteckt. Selbst bei einer perfekten Implementierung steckt das, was viele Leute von Webanalyse erwarten, einfach nicht drin. Du hast ein-, zweimal sowas gesagt, die Daten richtig gemessen. Selbst darüber könnte man eine ganze Sendung machen, also wie müsste Webanalyse überhaupt und wie richtig kann das sein? Das ist auch ein treffliches Thema. #00:05:08.1#
Maik Bruns: Meine grobe Schätzung, was die Dauer dieser Sendung angeht, lag so bei 3 Stunden gestern. Aber ich glaube, wir können das nicht in der Breite machen und deswegen möchte ich auch jetzt schon mal sagen, was wir hier tun, ist, wir reißen das Thema an. Wir wollen euch sensibilisieren dafür, dass nicht alles sofort richtig ist und richtig gemessen werden kann. Zumal auch unglaublich viel eingestellt werden kann in einem Tool wie Google Analytics und da wollen wir euch einfach so ein bisschen hinbringen, dass ihr drüber nachdenkt. Dass ihr zumindest wisst, wo es haken kann und das ist schon mal gut, wenn man weiß, wo es haken kann, weil dann weiß man auch, wo man es besser machen kann. Markus, kurze Frage vorweg. Wie kamst du zur Webanalyse? #00:05:47.7#
Markus Baersch: Durch Zwang. Nein, das ist tatsächlich so, dass Webanalyse für mich angefangen hat tatsächlich mit Logfiles. Das war auch noch sehr üblich zu der Zeit. Google Analytics hieß noch nicht Google Analytics und von Urchin hatte ich damals noch nichts gehört. Es gab noch weiß ich nicht so Sachen wie Index-Tools oder so. Das ist auf jeden Fall schon verdammt lange her. Ich glaube, Index-Tools hieß dann auch irgendwann mal Yahoo Web Analytics und Schwupps war‘s weg. Das sind alles Dinge, die kannte ich zu der Zeit noch nicht, wollte aber trotzdem wissen, weil wir damals mit unserer Firma, mit der Software-Bude, die wir da hatten auch eine Website betrieben haben, wollten wir schon wissen, was passiert da überhaupt? Auch in Bezug auf, wir hatten damals schon, waren super modern, man konnte sich bei uns irgendwie Wartungs-Versionen der Software einfach downloaden und solche Geschichten. Dazu wollten wir Zahlen haben, entlasten wir unseren Support überhaupt damit? Das ging damals erst nur über Logfile-Analysen und als ich dann erfolgreich den Absprung von der Desktop-Software ins Internet geschafft habe sage ich mal, als Online-Marketing mehr so mein Umfeld geworden ist, da war dann ganz schnell klar, wir haben hier auch eine Webseite und wir haben zwar keine Downloads, aber ich will trotzdem wissen, was passiert hier überhaupt, wo kommen die Leute her? Das war für mich schon bevor wir mit Webanalyse angefangen haben einfach so ein Grundbedürfnis, wenn ich diese Informationen hatte und ich habe sie da vermisst an der Stelle. #00:07:13.2#
Maik Bruns: Nennt man wohl Neugierde oder? #00:07:15.0#
Markus Baersch: Das nennt man wahrscheinlich Neugier. Also ich hatte damals nicht vor irgendwas großartig zu optimieren oder so, sondern ich wollte und das geht wahrscheinlich vielen anderen auch so erstmal einfach nur Zahlen wissen, kommen hier 10, 100, 1000 oder 100.000 Leute jeden Tag vorbei? Damit habe ich dann halt angefangen mich umzuschauen, was kann man hier so einbauen? Und da gab’s dann Urchin / Google Analytics. Das war so genau dieser Wechsel- und Einführungszeit gerade und so bin ich mehr oder weniger von Anfang an dabei und habe auch in den ersten zwei Jahren wahrscheinlich nicht viel mehr gemacht außer auf Reports zu starren und zu schauen wie sich die Seitenaufrufe bewegen und solche Geschichten. #00:07:54.6#
Maik Bruns: So geht es eigentlich den allermeisten. Das heißt man wird sowieso erstmal erschlagen von diesen vielen Zahlen, die wir da sehen und die meisten hinterfragen sie nicht. Die meisten nehmen sie einfach als gottgleich Zahlen an. Ich habe das jetzt vor ein paar Tagen noch im Workshop erlebt, ich war letzte Woche in Trier auf einem sehr guten Workshop und da muss man dann immer wieder mit Irrglauben aufräumen, dass nämlich die Zahlen, die wir dort sehen, nicht immer das sind, was die Leute meinen, was sie sind. Das wird dir ähnlich gehen, vor allen Dingen, wenn wir jetzt auch so ein bisschen uns um tiefere Datenqualität bemühen. Meine Frage: Was würdest du ganz allgemein unter Datenqualität verstehen? #00:08:32.6#
Markus Baersch: Datenqualität, um jetzt so eine Definition rauszuhauen, ist für mich die größtmögliche Annäherung der Messwerte nicht an die Realität, sondern an in speziellen Bereichen genau das, was ich beobachten möchte. Datenqualität ist zum Beispiel unterschiedlich an verschiedenen Stellen. Ich werde nicht auf jeder Website und in allen Messpunkten, die ich da setze, immer die gleiche Datenqualität erreichen. Das ist aber glaube ich auch nicht erforderlich. Was glaube ich vorher noch ganz wichtig ist zu verstehen, auch vielleicht so als Rechtfertigung für das, was dir und mir immer wieder begegnet. Dieser Glauben an diese Zahlen. Es wird einem auch leicht gemacht. Ich mache da ein Tool auf und da stehen Zahlen teilweise mit zwei Nachkommastellen. #00:09:20.5#
Maik Bruns: Bestimmt auch ein Fragezeichen dahinter. #00:09:24.1#
Markus Baersch: Nein, wenn ich irgendwie Zahlen mit zwei Nachkommastellen sehe, dann bin ich es gewohnt, dass das irgendwie stimmt. Das bin ich von Geld gewohnt und von vielen anderen Dingen auch. Da steht nirgendwo an der Preistafel irgendwie 2,95 und dann sagt der, ich meinte aber eigentlich 4 Euro. So gehen viele Leute dann auch ganz natürlich und entschuldbar halt mit den Zahlen in der Webanalyse um. Die werden gesehen und dann werden sie für bare Münze genommen. Dass da sowieso sich ein Großteil oder ein gewisser Anteil der Besucher der Messung entziehen kann, wie Werte überhaupt berechnet werden. Ich sag mal hier so Der Klassiker, das Thema Verweildauer, Absprungrate und so weiter mit nur einem Messpunkt pro Seite ist halt schwierig. Wenn man solche Dinge versucht dann aufzuklären, ist man erstmal so auf dieser Evangelisierungsschiene unterwegs. Man muss da ganz viel predigen und dann kommt eigentlich aus meiner Erfahrung heraus der Wunsch nach Datenqualität eigentlich gar nicht unbedingt von mir. Also ich gehe jetzt nicht hin und sage, wir müssen jetzt erstmal hier furchtbar an der Datenqualität schrauben, sondern wenn dann klar ist, wie viel Spiel da drinsteckt in den Zahlen, die man bisher immer für bare Münze genommen hat und dem, was wahrscheinlich wirklich passiert, dann kommt der Wunsch nach Datenqualität normalerweise vom Kunden. #00:10:42.5#
Maik Bruns: Du hast schon mal einen ganz wesentlichen Punkt angesprochen, dass nämlich die Datenqualität zum einen erstmal durch das Tool selber bestimmt wird und durch die Möglichkeit jemanden überhaupt zu tracken. Du hast schon gesagt, ein Besucher kann sich zum Beispiel ausopten mit einem Cookie oder er kann JavaScript einfach ausschalten. Dann wird es auch nicht gerade leichter zu tracken und so weiter und sofort. Da gibt es verschiedene Hindernisse, die wir da haben. Es gibt aber auch noch andere. Mir fällt zum Beispiel immer ein, es gibt die Möglichkeit, dass auch der falsche zum Beispiel diesen Code implementiert hat oder diesen Code mit schlechten Vorgaben implementiert hat. Auch sowas ist möglich. Wir können uns nachher mal auch mit den Möglichkeiten beschäftigen, die die verschiedenen Einstellungen in den Webanalyse-Tools einfach so ermöglichen. Wie gesagt, hier geht es um Sensibilisierung. Wir können nicht alle Themen, die die Datenqualität behandeln, irgendwie hier in epischer Breite durchführen, aber weil es ein wichtiges Thema ist, müsste ihr halt auch Bescheid wissen, worum es grundsätzlich gehen kann. Wir haben schon mal festgestellt, irgendwie steht uns vielleicht die Technik im Weg. Manchmal stehen Nutzer im Weg. Fällt dir noch irgendwas ein, was die Datenqualität beeinflusst? #00:11:56.5#
Markus Baersch: Ohne jetzt zu tief einzutauchen, kann man vielleicht wenigstens mal gucken, wo sind so die Hauptansatzpunkte und Datenqualität nicht nur zu versauen, sondern vielleicht doch zu verbessern. Da geht es tatsächlich los mit den beiden ersten Dingen, die da meistens passieren, nämlich der Kontoeinrichtung und der Installation des Tracking-Codes. Bei der Kontoeinrichtung, Best Practice ist mehr als eine Datenansicht zu haben. Das ist aber nicht Common Practice. Oft sehe ich ganz einfach genau eine Datenansicht. Das ist dann entweder eine Rohdatenansicht, weil keine Filter drauf sind. Dann arbeiten halt alle mit Rohdaten, die ungefilterte sind und wenn man weiß, dass es Filter gibt, dann kann man sich vielleicht auch schon denken ohne da jetzt ins Detail zu gehen, dass man mit Filtern Datenqualität beeinflussen kann. Oder es wird auf einer Datenansicht gearbeitet, wo ein Filter drauf ist und dann hat man keine Rohdaten mehr. Beides ist jetzt nicht die ideale Lösung. In so einem Minimal-Setup hat man eigentlich 3 Datenansichten, eine wo man am besten alles reinlaufen lässt. Das ist dann diese Rohdatenansicht. Dann baut man sich irgendwie eine Arbeitsdatenansicht mit irgendwelchen wie auch immer gearteten Filtern, um Dinge vielleicht zu verändern, auszuschließen, zu optimieren. Das ist wahrscheinlich auch mal eine eigene Sendung wert das Thema Firma. #00:13:18.4#
Maik Bruns: Oh ja. Absolut. #00:13:19.7#
Markus Baersch: Und dann muss man, weil Filter die dumme Angewohnheit haben, wenn man sie nicht richtig baut, nachhaltig Daten zu vernichten, braucht man eine Testdatenansicht. Das heißt das ist so das Minimum, was man braucht. Eine Rohdatenansicht, wo man nix kaputtmacht. Eine Testdaten Ansicht, wo man Dinge ausprobieren kann und wenn da was vernünftig funktioniert, dann appliziert man das auf seine Arbeitsdatenansicht und mit der wie der Name schon verrät arbeitet man primär. #00:13:44.3#
Maik Bruns: Und daneben, also betrifft auch die Datenansicht, das ist eine Minimalanforderung, wie du auch gerade schon richtig gesagt hast, du kannst theoretisch hunderte Datenansichten machen. Okay, passt nicht in eine Property bei Analytics, aber du kannst sehr viele verschiedene Datenansichten machen. Zum Beispiel für dein SEO, wo du dann nur die Daten reinlaufen lässt, die von der Google-Suche kommen oder du kannst für dein AdWords-Team eine machen. Oder du kannst eine Datenansicht machen, wo nur mobiler Traffic reinläuft und so weiter. Also es kommt da immer auch ein bisschen drauf an, wer welche Daten wie sehen will und für wen welche Daten dann qualitativ wichtig sind. Diese Minimalanforderungen solltest du aber immer durchziehen, weil ansonsten passieren immer irgendwelche merkwürdigen Dinge. Ich würde sogar noch vorher ansetzen, ich mache sogar auf Property-Ebene in Analytics mache ich mir noch eine Test-Property in der Regel, wo ich zum Beispiel sage, meine Standard-Property, wo dann diese 3 Datenansichten mindestens drin sind, laufen dann die Live-Daten zum Beispiel rein und in eine Test-Property lasse ich dann etwa so Daten reinlaufen wie, wenn ich im Debug-Mode unterwegs bin, im Tag-Manager zum Beispiel, der dann nichts mit Produktiv-Traffic irgendwie zu tun hat. Oder wenn irgendwo ein Staging-Server ist, über den Daten erhoben werden, auch sowas lasse ich dann meistens schon auf einer anderen Property reinlaufen, einfach, um da eine ganz klare Trennung drin zu haben. Aber da gibt es wahrscheinlich auch 100 Philosophien. Einige gehen dann auch gleich in ein ganz anderes Konto rein und so weiter. Wichtig ist nur, ich glaube, so die Essenz des Ganzen ist, unterscheide die Dinge voneinander und lass nicht jeden Traffic gleichbewertet in Analytics reinlaufen. So würde ich es mal vielleicht überschreiben. #00:15:31.6#
Markus Baersch: Ja, glaube ich auch. Aber wenn man sozusagen mit diesem Dreigestirn anfängt, macht man auf jeden Fall schon mal nicht viel verkehrt. Man muss sich auch nicht gleich eins für Mobile und für Desktop und für Tablet anlegen, bloß weil man denkt, das könnte mal nützlich sein. Also normalerweise kommt der Wunsch danach dann. Also ein typischer Fall, warum jemand zum Beispiel Mobile und Desktop trennen möchte, ist – ich weiß nicht, verplappern wir uns jetzt? Ist egal, ich erzähle es trotzdem – … . #00:15:55.7#
Maik Bruns: Schneiden wir raus. #00:15:57.8#
Markus Baersch: Ja genau. Ist das Thema Ziele, was sowieso auch mit auf unsere Liste gehört. Also eigentlich schon. Im Idealfall kann ich die Ziele sogar schon einrichten bevor ich den Tracking-Code installiert habe und habe direkt welche, aber ansonsten das ist vielleicht auch eine Wunschvorstellung, baut man normalerweise den Tracking-Code ein, sammelt Daten, guckt, ob alles ankommt und definiert dann die Ziele. Das mag mir recht sein. Irgendwann braucht man aber Ziele. Wenn man jetzt Ziele einbaut und hat da einen Ziel-Trichter und wir reden jetzt hier nicht unbedingt von einem Shop mit erweitertem E-Commerce und dann segmentierbaren Trichtern, dann hat man immer das Problem, dass man bei so einem normalen Ziel-Trichter, den es gibt in Analytics, nichts segmentieren kann, das sehe ich immer alles. Das heißt die einzige Möglichkeit zu segmentieren ist eigentlich über eine gefilterte Datenansicht, wo ich dann das Segment, was ich beobachten will, nur diese Daten drin habe, um da auch mal zu sehen, wie gut läuft dieser Trichter zum Beispiel Mobile versus Desktop, das ist so ein Klassiker. Spätestens da hat man dann schon wieder irgendwie 5 Datenansichten und beim nächsten Problem braucht man wieder eine. Also die Datenansichten voll zu kriegen, ist überhaupt nicht das Thema, sich darüber bewusst zu sein, dass man mehr als eine braucht, ist ein guter Einstieg. Wenn man am Anfang schon 3 hat, dann hat man viel richtiggemacht. #00:17:13.3#
Maik Bruns: Ja. Das sehe ich auch so. Wo du das Thema Ziel auch ansprichst, finde ich auch sehr wertvoll überhaupt wirklich ernsthaft darüber nachzudenken, welche Ziele hat die Website? Also nicht nur zu sagen, wir verkaufen hier was, sondern das ist nur eine mögliche Zielerreichung. Es gibt noch viele kleine Ziele. Vielleicht möchtest du als Ziel auch erheben, dass überhaupt sich jemand mal deine Produkte angeschaut hat oder vielleicht ist auch für dich wichtig, dass jemand ein Video sich vielleicht angeschaut hat und so weiter. All diese Dinge kannst du theoretisch auch zu Zielen machen und bekommst dann, das ist das Schöne daran, du bekommst dann nachher einfach eine Conversion-Rate dafür und kannst dir anschauen, wie viele von hundert Leuten haben dieses Ziel für dich erreicht und kannst dann dementsprechend auch qualitativ bewerten, ob deine Website hier gerade einen Erfolg hat oder nicht. Ich finde, das gehört zwangsläufig zu Datenqualität dazu, weil ansonsten, wenn du keinen qualitativen Aspekt in deinen Daten drin hast, also eine Zielerreichung oder ein Outcome sagt man auch immer so schön, dann weißt du gar nicht, ob du einen Erfolg hast mit deiner Website. Darum geht es uns ja irgendwie allen. #00:18:19.4#
Markus Baersch: Ja, das ist mega-essenziell mit dem Thema Webanalyse, weil ich sehe sonst nur einen Teil. Also wenn ich keine Ziele, keine Conversions habe, dann kann ich ganz viel beobachten. Ich sehe mich dabei, wie ich laufe, ich sehe dabei, wie ich pausiere, ich sehe alles Mögliche, aber ich sehe nie, wo ich hinlaufe. Und vor allen Dingen sehe ich nie, ob ich ein Ziel erreiche. Das bringt mich überhaupt nicht nach vorne. Insofern ist die Einrichtung von Zielen wirklich sehr wesentlich und damit meine ich jetzt nicht, wenn man ein AdWords-Konto hat und AdWords hat irgendwann gesagt, so ein Mist, ich sehe hier auch nur bis zum Klick, ich biete dir mal an, Smart Goals einzurichten. Dann hat jemand auf „Ja“ geklickt und na sag mal, jetzt habe ich doch ein Ziel. So das zählt nicht. Also wer nur Smart Goals in seinen Zielen hat, der hat keine Ziele. #00:19:09.8#
Maik Bruns: Das geht noch viel weiter. Wir können auch in Richtung Kontoeinrichtung auch noch das Ganze erweitern. Wir können auch die Datenbasis zum Beispiel erweitern. Das sehen viele zum Beispiel auch nicht. Zum Beispiel, indem wir AdWords mit dem Analytics-Konto verbinden und dort zum Beispiel einen weiteren qualitativen Aspekt reinholen, nämlich zum Beispiel Kosten, die wir erheben. Auch das finde ich, ist ein wesentlicher Punkt. Sich zum Beispiel mit den Tools verbinden, die möglich sind. AdWords ist eines davon. Die Search Console, ich weiß, dass du eine sehr differenzierte Meinung zum Thema Search Console und Analytics hast. Aber ich bin trotzdem der Meinung, dass man es auf jeden Fall verbinden sollte, weil das schadet erstmal nicht und man kann durchaus Dinge daraus interpretieren und ableiten. #00:19:56.6#
Markus Baersch: Darauf können wir uns einigen. #00:19:58.6#
Maik Bruns: Ich glaube auch, genau. Aber ich bin auf jeden Fall der Meinung, dass man da auch ansetzen muss, dass man die Tools, die zur Verfügung stehen, dann auch wirklich da reinpacken sollte. Also erstmal so man zum Thema Kontoeinrichtung. Da fällt mir auch noch ein, was viele auch gar nicht wissen, was ich aber auch durchaus wertvoll finde, dass nämlich ich meine wir reden immer von Google als organische Suchmaschine, aber dass da auch sehr viele andere Tools oder sehr viele andere Suchmaschinen noch auf dem Markt sind und die gar nicht als Suchmaschine erkannt werden in Google Analytics zum Beispiel. Ein prominentes Beispiel ist etwa, ich hoffe, das kennt ihr jetzt alle, DuckDuckGo oder eine Maschine wie Ecosia, die durchaus mittlerweile auch eine Bekanntheit haben kann und die irgendwie so selbst wenn es nur 3, 4, 5 Prozent des Traffics ausmachen, aber die einiges doch mittlerweile an Reichweite auch haben. Die werden in Analytics per se erstmals nicht als organische Suche eingestuft, wenn von denen Traffic kommt, sondern als Referral Traffic. Auch das gehört für mich zum Thema Datenqualität, dass du da einfach mal was besser einrichtest, weil die Möglichkeit besteht zu sagen, das ist eine organische Suchmaschine und platziere das bitte in organic richtig. Oder auch Verweis-Ausschluss. Hast du dazu eine Meinung? #00:21:16.9#
Markus Baersch: Zu Verweis-Ausschluss habe ich immer eine Meinung. Grundsätzlich erstmal, also diese Verweis-Ausschlussliste, die man auf Property-Ebene in Google Analytics pflegen kann, gehört glaube ich zu den missverstandensten Features in Google Analytics. Weil da ganz viele Leute Domains eintragen, die sie in ihren Berichten sehen in den Verweisen, wo sie denken, das ist doch gar kein Traffic. Also diese Verweis-Spam-Einträge, die man da hat. Ist jetzt vielleicht nicht mehr so furchtbar viel, aber es passiert halt immer noch nachweislich. Ich messe das Monat für Monat, ob Spam noch stattfindet. Die werden dann eingetragen. Also früher war so ein Klassiker so ilovevitaly.ru und so weiter oder semalt.com, wer sich da noch dran erinnert, da hatte man auch irgendwann alles mal gesehen. Die sehe ich dann halt regelmäßig in Verweis-Ausschlusslisten. Dafür sind Verweis-Ausschlusslisten gar nicht gedacht. Grundsätzlich ist eine Verweis-Ausschlussliste ein Punkt, wo man Domains einträgt, die auf der Reise auf der eigenen Webseite eine eigene Rolle spielen können und die da als Referrer auftauchen würden, wenn man die nicht ausschließt. Das heißt die würden eine neue Session eröffnen. Ist jetzt vielleicht ein bisschen blöd erklärt. Aber am Beispiel, ich habe 3 Seiten auf meiner Webseite, 2 davon haben einen Tracking-Code, bei einer habe ich sie vergessen. Klicke ich auf die erste Seite, die einen Code hat, dann auf die zweite, die keinen Code hat und dann auf die dritte, dann habe ich plötzlich zwei Sessions, weil zwischendurch ich selbst mein eigener Referrer geworden bin. Solche Lücken will man eigentlich nicht haben, aber wenn sie denn unvermeidlich sind, schließt man sie mit der Verweis-Ausschlussliste. Genauso passiert es eben mit Zahlungsanbietern wie PayPal, Sofortüberweisung und so weiter, in einem Checkout im Shop typischerweise, weil man dorthin verweist und dann kommt man irgendwann nach Bezahlung von dort aus wieder in den Shop zurück und trägt man diese Leute nicht in die Verweis-Ausschlussliste ein, sieht es nachher so aus, als würde der Umsatz dem Kanal Referral zugeordnet und Verweisquelle war PayPal. Das ist halt unschön, weil normalerweise der Besucher nicht bei PayPal seine Reise angefangen hat, sondern irgendwo anders. #00:23:31.4#
Maik Bruns: Genau, also so die Klassiker hast du eigentlich schon reingenommen. Bezahldienstleister, eigene Domain und so weiter. Von denen willst du eigentlich keinen Verweis bekommen beziehungsweise PayPal und Konsorten willst du keine Conversion zugestehen. Das kann man auch immer wieder sehen. Gerade bei Shops, die sich dann auch wundern, warum der organische Traffic nicht so viel Umsatz macht wie sie sich das vielleicht erhoffen, dann aber … #00:23:57.4#
Markus Baersch: Aber auch das ist entschuldbar glaube ich. Also gerade bei den Shops, die schon länger Analytics betreiben, also vor Universal Analytics war das alles kein Thema, also diese Verweis-Ausschlussliste ist eine Einstellung, die zusammen mit der Umstellung auf Universal Analytics dazugekommen ist und das hat technische Gründe. #00:24:16.1#
Maik Bruns: Gibt‘s aber schon länger. Wann kam Universal? 2013? #00:24:19.0#
Markus Baersch: Ja klar. Klar, gibt’s das schon länger. Aber es gibt halt Shops, die noch viel länger Analytics machen und vorher klappte das immer. Dann haben die irgendwann mal, die haben auch nicht 2013 auf Universal Analytics umgestellt, sondern irgendwann mal danach. Also der alte Code, der läuft jetzt auch noch, wenn du nicht umgestellt hast, tut‘s der noch. #00:24:35.1#
Maik Bruns: Das stimmt. #00:24:36.1#
Markus Baersch: Dann ist irgendwann umgestellt worden und dann hinterfragt man das nicht und irgendwann merkt man dann so, wieso habe ich jetzt auf einmal für Umsätze überhaupt PayPal oder so? Erst, wenn die Frage aufkommt, sucht man nach einer Lösung und findet dann hoffentlich die Verweis-Ausschlussliste. Das ist so eine Sache, die muss man ein stückweit auch Google vorwerfen. Da hat man dann, wenn man mit einer Innovationsstufe wie Universal Analytics neue Optionen dazu bringt, von denen man weiß, wenn die nicht wirklich gepflegt wird, dann versaut es die Datenqualität, hätte man das wahrscheinlich anders konfigurieren müssen, man hätte die Leute da durchzwingen müssen, wie auch immer. Aber man ist nicht gerade mit der Nase drauf gestoßen worden, dass es diese Option gibt. Das möchte ich eigentlich sagen, glaube ich. #00:25:20.1#
Maik Bruns: Ich glaube, das betrifft das gesamte Thema Webanalyse, das ist einfach so fortbildungsintensiv. Du kannst dich wochenlang mit Neuerungen beschäftigen. Ich glaube, das ist auch schwer für Google, das dann so nach draußen zu bringen am Ende. #00:25:33.7#
Markus Baersch: Naja, wenn ich im Tool die Migration vorangetrieben hätte, hätte das wahrscheinlich anders ausgesehen. #00:25:38.6#
Maik Bruns: Das stimmt. Vielleicht sind die bei Google nicht so sicher, dass sie damit ankommen. No Risk no Fun. Mal gucken, was passiert. #00:25:45.9#
Markus Baersch: Das mag schon sein. Also Kontoeinrichtung, genau. #00:25:50.1#
Maik Bruns: Lass uns mal über Filter sprechen, Markus, weil ich finde, das ist – hier raschelt das Papier jetzt, aber das ist egal – so fast der wichtigste Punkt überhaupt, den das Thema Datenqualität mit reinnimmt. Wir hatten eben schon von dir gehört, dass wir in allen Datenansichten auch Filter setzen können und mit diesen Filtern kannst du eigentlich Daten verändern oder du kannst Daten rein- oder rauslassen, so ganz grob. Wir müssten vielleicht mal gucken, was sind dann vielleicht die wichtigsten Filter deiner Meinung nach auch oder wir hauen sie einfach mal hier zusammen in den Topf. Was müssen wir filtern, verändern an Daten, damit die Datenqualität besser wird? #00:26:32.2#
Markus Baersch: Filter sind so ein schwieriger Punkt. Auch in so einem Audit kann man manchmal nur gucken, sind denn überhaupt Filter da? Was machen die? Ob das wirklich die besten sind oder nicht, liegt teilweise an vielem Kleinkram, weil es gibt sehr viele Klassen von Filtern und von jeder Klasse von Filter sollte man sich zumindest überlegen, ob man die braucht. Typischer Filter sind so Ausschluss-Filter für den internen Traffic. Das ist auch die Klasse von Filtern, die ich am häufigsten sehe. Traurigerweise natürlich basierend auf IP-Mustern. Da sitzt man jetzt irgendwo in so einem größeren Unternehmen, da hat man eine feste IP. Google sagt einem auch immer, mach doch mal einen IP-Filter, um den Traffic auszufiltern. Dann macht man das und sagt, so jetzt haben wir den Traffic ausgefiltert. Unseren internen Traffic messen wir nicht mehr, fühlt sich gut dabei und vergisst, dass durch die IP-Anonymisierung wir hier natürlich mit einem Sonderfall leben müssen in Deutschland und da funktioniert so ein Ding einfach nicht. Also muss man sich andere Lösungen überlegen, wie man seinen internen Traffic, wenn er denn wirklich nennenswert ist, aus einer Arbeitsdatenansicht raushalten kann. #00:27:38.6#
Maik Bruns: Muss ich nochmal kurz einhaken, weil das Thema IP-Anonymisierung, grundsätzlich kannst du es raushalten, nur nicht so wie die Leute es meinen. Das ist das Schwierige. Durch die IP-Anonymisierung wird, das mal für die Hörer auch, das einzige, was da passiert, ihr habt bei einer IP-Adresse 4 Oktette, meinetwegen sowas wie 129.174.59.186 oder so. Und bei der Anonymisierung passiert nichts weiter, dass nämlich das letzte Oktett, das aus der dort vorhandenen Zahl eine Null gemacht wird. Mehr ist das eigentlich gar nicht. Das Problem ist, das beschreibt Google auch ganz schön auf seiner Webseite, jetzt aber, jetzt geht ihr hin und fragt euern Admin, hey, welche IP-Adresse haben wir denn? Ich möchte nämlich gerne unseren internen Traffic ausfiltern und muss hier die IP-Adresse angeben. Jetzt gibst du deine normale IP-Adresse an und das funktioniert halt nicht. Das, was du aber tun musst, das ist eigentlich relativ simpel sogar, du musst eigentlich nur die letzte Zahl durch eine Null ersetzen. Oder du sagst einfach, durch .* was dann ein regulärer Ausdruck ist für, ist egal, was da am Ende steht. Dann läuft die Sache dann doch wieder. Nur das wissen die allerwenigsten, dass man die Anonymisierung so zum Beispiel noch retten kann. Es gibt noch viele andere Möglichkeiten. Ich glaube, korrigiere mich, aber ich glaube bei dir oder bei Michael im Blog steht auch irgendwie einiges dazu, was es noch so an schönen Möglichkeiten gibt seinen internen Traffic rauszuhalten, falls es mit der IP-Adresse zum Beispiel mal nicht läuft oder so. Das finde ich auch sehr cool und sehr wertvoll. Also schaut da gerne mal rein, vielleicht verlinke ich das einfach mal oder? #00:29:16.1#
Markus Baersch: Vielleicht verlinkst du das einfach mal. Ja, das war tatsächlich bei mir. Da sind mehr oder weniger nerdige Geschichten dabei. Aber Sinn und Zweck der Übung war es möglichst für alle Systeme irgendeine Lösung anzubieten, weil die Kardinalslösung gibt‘s halt selten. Nicht jeder hat eine feste IP und so weiter. Aber egal. Das ist Filter-Klasse Nummer 1, Ausschluss-Filter interner Traffic, also was will ich loswerden. Was will ich noch loswerden? Das ist oft Spam. Davon gibt es auch viele Filter. Da stehen dann ganz wilde Filter-Muster, wo ganz viele Domains aneinandergereiht sind, die man irgendwie nicht mehr sehen möchte in seiner Webanalyse / #00:29:52.8#
Maik Bruns: Ganz kurz mal eben einhaken? #00:29:54.9#
Markus Baersch: / als Referrer auftauchen. Ja okay. #00:29:55.7#
Maik Bruns: Spam müssen wir eben einmal beschreiben. Wann immer dir was merkwürdig vorkommt in deinen Daten, dann kann es sich um Spam handeln. Zum Beispiel, wenn du an einem Tag 5.000 Sitzungen mehr bekommen hast oder du hast bestimmte Ereignisse, die du in Analytics irgendwo siehst, die sich irgendwie sehr merkwürdig anfühlen, weil sie vielleicht mit einer Werbebotschaft verbunden wurden oder sowas. Solche Dinge können zum Beispiel Spam darstellen. Dagegen kannst du auch Filter setzen. Ich glaube, dazu machen wir auch mal eine eigene Folge irgendwie, Spam-Filter, wie man sowas machen kann. Ich kann aber auch jetzt schon mal an der Stelle nochmal auf Analytrics verweisen. Du kannst auf jeden Fall mal das Spam-Tool da benutzen. Eigentlich ist es ein Anti-Spam-Tool oder? #00:30:38.1#
Markus Baersch: Genau, deswegen heißt das auch, also die Spam-Analyse, die es da gibt, ist auch so ein Stück weit von der Verweis-Analyse abgeleitet. Was ich da mache, ist, in der Verweis-Analyse wird der Verweis-Traffic untersucht und was findet sich im Verweis-Traffic? Vieles, was wir heute angesprochen haben. Da finden sich zum Beispiel sowas wie PayPal und so weiter mit Conversions möglicherweise, sagt das Tool das und sagt einem auch, warum das nicht gut ist und was man dagegen tun sollte. Dann sucht es auch nach vielen bekannten Suchmaschinen und schlägt vor die vielleicht auch als Suchmaschinen nachzutragen, wenngleich das immer schwieriger wird. So DuckDuckGo hattest du eben selber genannt. Wenn man das jetzt irgendwie in den Quellen der organischen Suche als Suchmaschine definiert, dann wird das nur in den seltensten Fällen tatsächlich auch in den Berichten auftauchen, weil dieser nicht unbedingt erkannt wird und auch der Suchbegriff und so weiter, den man extrahieren will. DuckDuckGo hat sich auf die Fahnen geschrieben die sichere anonyme und datenschützende Suchmaschine zu sein. Da passt es natürlich nicht dazu, wenn man plötzlich dann da ausgerechnet die Suchbegriffe lesen kann. Insofern ist es nicht ganz einfach. Die werden aber trotzdem alle erkannt und es gibt entsprechende Hinweise, wie man die vielleicht doch irgendwie entsprechend wieder über Filter in einen richtigen Kanal rein bekommt. Und da werden auch so typische Spammer gesucht anhand von einer sehr großen Liste von bekannten Websites, von denen man weiß, dass die diese Spam-Einträge in der Webanalyse erzeugen. Wenn man da welche findet, dann kann man mit dem Spam-Check auch nochmal ins Detail gehen, um zu schauen, ist das jetzt nur episodisch oder passiert das eigentlich hier jeden Monat, dass ich irgendwie Spam habe? Um nachzuschauen, wie groß ist das Problem für mich eigentlich, wie hoch ist der Spam-Anteil in meinem Verweis-Traffic. Das wird dann alles ausgewiesen und wenn man dann das Gefühl hat, ja, Spam ist für mich auch ein Thema und für viele sollte das so sein, um mal eine Zahl zu nennen. Ich untersuche Monat für Monat ungefähr 200 Profile, also 200 Datenansichten von verschiedenen Websites, auf die ich Zugriff habe, nach Spam. Der Anteil der bespamten oder die Anzahl schwankt immer so um die 80. Wenn 80 von 200 Spam haben, dann hat man halt selber eine relativ gute Chance auch bespamt zu werden. Das muss nicht viel sein, aber ich sage mal jeder einzelne Treffer tut einem so ein bisschen weh, weil der gehört da eigentlich nicht rein in die Webanalyse und dann sollte man das ausschließen. #00:33:12.5#
Maik Bruns: Genau, weil das verzerrt einfach alle Daten. Das verändert jetzt nicht nur die Sitzungszahlen, sondern auch schlussendlich dann die Conversion Rates und so weiter und sofort, also alles Mögliche. Die Möglichkeiten, die du hast, ist auf der einen Seite, Filter zu setzen zum Beispiel. Wo du sagst, hey, alles was ich hier schon klar identifiziert habe, kann ich filtern, allerdings erst ab dem Zeitpunkt, wo der Filter gesetzt. Die nächste Möglichkeit, die du hast, ist zum Beispiel in der Datenansichts-Einstellung zu sagen, ich möchte generell Bot und Spider und so weiter schon mal ausschließen, was auch einen Teil des Traffics verzerren kann. Ich finde aber ehrlicherweise muss ich sagen, erkenne ich da oftmals mittlerweile keinen großen Unterschied, ob ich den Haken setze oder nicht. Ich weiß nicht, ob Google da schon so weit ist, dass das alles da so vernünftig funktioniert. Das weißt du gerade vielleicht besser als ich. #00:34:03.1#
Markus Baersch: Naja gut, was ich damit ausschließe, sind bekannte Bots und Spider, die auf der IAB-Liste stehen, das sind also keine bösen, sondern alles gute Bots in Anführungsstrichen. Also bekannte Bots, die irgendwie aus der Werbeindustrie kommen meistens. Wenn die dann anhand des User Agents erkannt werden können, dann lässt man die halt weg und verarbeitet diese jetzt gar nicht erst. Aber das ist halt nicht der typische Spammer, der sagt, hey, ich bin jetzt hier sonst Spam-Bot und schließe mich mal bitte aus. Das ist nicht Sinn und Zweck der Übung. #00:34:34.5#
Maik Bruns: Insofern bleibt euch nur die Spammer über diverse Filter rauszunehmen. Da gibts im Netz auch viele gute Anleitungen. Bitte achtet darauf, wenn irgendeine dieser guten in Anführungszeichen “guten” Anleitungen euch dann sagt, dass ihr das über den Verweis-Ausschluss machen sollt, dann vergesst die Anleitung. Nehmt einfach bitte eine andere. #00:34:55.9#
Markus Baersch: Auch da irgendwo einfach direkt mal suchen, steht da irgendwo .htaccess drin, auch weitersurfen. #00:35:00.4#
Maik Bruns: Genau. Jetzt kommen hier die Insider-Tipps. Dafür machen wir diesen Podcast. Sehr cool! Was man auch tun kann, mal angenommen ihr arbeitet vielleicht mit UTM-Parametern oder ähnlichem und dort werden dann entsprechend auch Kampagnen-Parameter übergeben und Quelle und Medium werden übergeben, die dann eine eigentlich vorhandene Quelle überschreiben sollen. Und da gibt es auch Problemchen, das heißt, wenn ihr euch bei den UTM-Parametern mal auf Groß- und mal Kleinschrift zum Beispiel einlasst, dann ist das in Analytics erstmal etwas Unterschiedliches. Das heißt ihr würdet dafür zum Beispiel zwei verschiedene Kampagnen dann sehen, wenn ihr sie einmal groß und einmal klein schreibt. Ich mache das bei mir dann zum Beispiel so, dass ich in den Datenansichts-Filtern so Kleinschreibungs-Filter einfach setze, wo ich dann alles, was als Kampagnennamen reinläuft, per se in Kleinschrift umwandelt, damit ich da bloß keine Probleme mit sowas kriegen nur, weil ich mich mal vertue. Aber ist also auch wieder eine Kleinigkeit manchmal. Nur, wenn ihr eine Kampagne auswerten wollt und ihr habt aber eigentlich dann faktisch da zwei stehen, ist das irgendwie auch nicht so cool. #00:36:06.5#
Markus Baersch: Das ist ein guter Filter und im besten Fall muss der nie arbeiten. #00:36:10.0#
Maik Bruns: Ja, genau. #00:36:10.1#
Markus Baersch: Aber es ist ein gutes Gefühl zu wissen, dass er da ist. #00:36:12.5#
Maik Bruns: Ich mache das auch so, dass ich, gerade bei sowas, wenn ich von außen UTM-Parameter irgendwie nutze, ich habe eine ziemlich große Tabelle, wo mir die Sache schon vordefiniert werden. Ich muss nur noch auswählen, welches Medium und welche Kampagne ich nehme. So vermeide ich einfach von vornherein schon, dass da irgendwas falsch geschrieben wird. Ich muss das nicht mehr händisch machen, ich muss quasi nur noch auswählen, welche Kampagne ich nehme und dann ist die Schreibung auf jeden Fall automatisch richtig. Das hilft wirklich enorm, wenn ihr euch eine Tabelle dafür macht und diesen Filter dann hoffentlich niemals braucht, so wie Markus gesagt hat. Aber ihr könnt auch andere Parameter aussperren zum Beispiel. Denkt mal an so Sortier-Parameter in der URL. Das finde ich zum Beispiel auch eine Katastrophe, die einem keinen wirklichen Mehrwert bringen, zumindest meistens nicht. Die lassen sich auch relativ schnell ausschließen. Klingt ein bisschen komisch, aber in den Datenansichts-Einstellungen könnt ihr nämlich so etwas ausschließen wie einen Suchparameter und der wird dann in den URLs einfach nicht mehr angezeigt. Wenn ihr einen Parameter ausschließen wollt, sowas wie sort oder irgendeinen Filter, den ihr vielleicht in den URLs niemals sehen wollt, dann könnte ihr das über die Datenansichts-Einstellungen etwa machen und dort einfach sagen, bitte zeig mir sort und seine Werte niemals in den URLS an. Dann werden die einfach rausgenommen. Das kann auch sehr hilfreich sein, um zum Beispiel Seiten einfach miteinander zu vergleichen, die eigentlich gleich sind. Also stellt euch vor, ihr habt auf eurer Homepage, also auf der / Seite, habt ihr die Möglichkeit schon Filter zu setzen. Jetzt kommen alle auf / an und dann fangt ihr an zu filtern, bekommt dann vielleicht eine neue URL, sowas wie /sort-ascendant oder so und wo dann irgendwas aufsteigend oder absteigend sortiert wird. Dann wird aber künftig in der URL in Analytics nur noch gezeigt, ob ihr auf der Seite mit dem Parameter wart und nicht mehr auf /. Ich finde das ist so vom Verständnis her oftmals schwer, weil damit machst du zum einen unglaublich viel URLs auf und auf der anderen Seite weißt du gar nicht mehr, wo du analysieren sollst. Zum Beispiel finde ich auch, wenn ihr solche Parameter habt, denkt zumindest mal darüber nach, ob das eine Option für euch ist. #00:38:24.9#
Markus Baersch: Ja, unbedingt. Also die Duplizierung, Konsolidierung von URLs … #00:38:29.6#
Maik Bruns: Ah, die schönen Begriffe. #00:38:30.3#
Markus Baersch: … ist, ja ist so ein bisschen oberste Bürgerpflicht, wenn man weiß, meine Website hat eigentlich nur 2.000 Seiten und in meinen Berichten sehe ich immer 20.000 URLs, dann muss man sich halt fragen, welche Schlüsse kann ich daraus ziehen, wenn ich jetzt nur eine Variante der Startseite mir anschaue und unten drunter hängt noch so ein Wust von unbekannt vielen anderen Varianten der Startseite, wo das Verhalten vielleicht ganz anders ist. Nun kann es sein, dass so ein Parameter für mich wichtig ist. Ein Parameter ist die Affiliate-ID und ich möchte meine Einstiege je nach Affiliate-ID unterschiedlich definieren, dann würde ich mir das zwar woanders ablegen als in der URL, aber ist vielleicht ein doofes Beispiel gewesen, aber den möchte ich vielleicht erhalten. Aber sowas wie Sortierreihenfolge und andere Sachen möchte ich irgendwie loswerden und dann muss ich gucken, dass ich wenigstens so viele, also so wenig Klassen wie möglich bilde und so viel wie möglich zusammenziehe. Ich bin sehr unglücklich mit dieser Bezeichnung Suchparameter ausschließen, weil ein bisschen weiter unten kann man dann die Site Search definieren und da soll man dann Suchparameter wieder eintragen. Aber das ist ein Übersetzungsprogramm sag ich mal. Man kann alles, was man an Parametern loswerden will, guten Gewissens da oben eintragen. Weil du mir den Ball so schön zugeworfen hast, hier nochmal ein Tipp. Wer in seiner Webanalyse nachschauen möchte, wie viele Parameter habe ich denn überhaupt und wie oft kommen die vor und wie viele URLS sind davon betroffen, um bestimmen zu können, was kann man denn da eintragen und was nicht, weil kein Mensch hat im Kopf, welche Parameter die eigene Website alle so verwendet, woher auch, da wird man auch bei der IT nicht fündig, wenn man in die IT geht und sagt, gib mir mal eine Liste der Parameter, dann schütteln die den Kopf und drehen sich rum und trinken ihren kalten Kaffee. Also war mein Ansatz einfach da nachzuschauen, die ganzen Informationen sind schon nämlich in der Webanalyse. Dazu dient der Parameter-Check bei Analytrics. Draufklicken, anmelden und dann gibt’s eine Liste der gefundenen Parameter über einen definierbaren Zeitraum und damit man bestimmen kann, welcher bringt mich hier besonders weit dabei meine URLs zu konsolidieren, steht auch drin, wie viele Treffer man da hat und wie viele URLs betroffen sind. Da sieht man das dann relativ schnell, wo man anfangen kann. Und dann macht man das in so einer Test-Datenansicht, dafür ist die gut, man richtet einfach erstmal die Brocken ein, von denen man weiß, die müssen raus. Dann guckt man ein paar Tage später einfach mal, kann man im Wochenrhythmus machen, eine Woche später dann auf die Daten der letzten 5 Tage oder so und schaut mal, was ist an Parametern noch übriggeblieben. So kann man das dann auch vorsichtig machen, wenn man nicht einfach alles auf einen Wust ausschließen möchte. #00:41:05.9#
Maik Bruns: Ja, auf jeden Fall. Sehr gut. Ihr merkt schon, Analytrics solltet ihr euch dringend mal anschauen. Ich kann das nur empfehlen. Was gibt’s sonst noch? Wir könnten jetzt hier jedes kleine Problem uns vornehmen. Eine Sache liegt mir noch so ein bisschen am Herzen und zwar betrifft das Thema Event-Tracking und Datenqualität. Da würde ich vielleicht gerne nochmal über eine Sache sprechen, nämlich, was es mit Interaktionen auf sich hat? Da bist du bestimmt auch voll im Thema, Markus oder? #00:41:37.1#
Markus Baersch: Ja klar. (unv. #00:41:41.3#) ich auch gerne drüber. Event Trekking ist grundsätzlich erstmal eine schöne Sache. #00:41:48.5#
Maik Bruns: Ich liebe es. #00:41:49.1#
Markus Baersch: Ich will niemand das Event-Tracking ausreden, ganz im Gegenteil, wir haben unseren Webcast nicht umsonst Beyond Pageviews genannt. Es geht halt um die Dinge, die über den reinen Seitenaufruf hinausgehen und da bieten sich Events sehr oft an, um sehr sinnvolle Messpunkte zu setzen. Was man aber in dem Zusammenhang sich selten überlegt, ist dann sowas wie, das Event ist eigentlich dazu gedacht irgendwas zu messen, wo wirklich irgendetwas passiert ist im Sinne von einer Interaktion, Events werden benutzt, wenn jemand auf einen externen Link klickt oder auf einen Mail-Link oder sonst irgendwas tut und ich kann dafür Ziele einrichten und ich kann Events genauso gut benutzen wie ich diese Pageviews verwenden kann. Aber Events kann ich auch nutzen, um Dinge zu messen, die eigentlich gar nicht großartig mit Interaktion zusammenhängen. Das kann sein, dass ich ein Event schicke einfach nur, um irgendwelche Informationen zu transportieren. Im erweiterten E-Commerce wird das zum Beispiel gerne genutzt. Ich kann Events nutzen, um irgendwelche Verhaltensweisen auf der Website zu messen. Hier ist jetzt gerade mein internes Werbemittel ist endlich zu Ende geladen und schießt ein Event ab oder sowas. Oder auch bei sowas wie dem Scrolling, Scroll-Tracking, kann man auch darüber streiten, ob das jetzt nun wirklich Interaktion ist oder nicht. Spätestens, wenn Scroll-Tracking-Events ausgelöst werden schon beim Laden der Seite, wenn schon irgendwie 60 Prozent der Seite sichtbar sind und schon das erste Event losgeht, dann muss man sich überlegen, wie sinnvoll ist es das als Interaktion zu deklarieren? Meine Antwort ist ganz klar, es ist nicht sinnvoll. Das heißt, wenn man das schon messen will, dann sollte man wenigstens bei den Events, bei denen man weiß, die werden vielleicht auch ausgelöst ohne, dass irgendjemand irgendwas tut, der muss die Maus nicht bewegen, der scrollt nicht auf der Seite, der klickt nichts, der vergrößert, verkleinert nichts, es ist einfach keine Interaktion da, dann muss man fairerweise auch hingehen und diese Events entsprechend markieren, sodass sie nicht als Interaktion gelten. Das sage ich nicht, weil ich ein Korinthenkacker bin, sondern weil das an einer Stelle super wichtig ist. Treffer mit Interaktion gelten als Interaktion, sind gleichwertig mit einem Seitenaufruf und wenn ich einen Seitenaufruf habe und dann wird automatisch irgendwie so ein Treffer mit Interaktion ausgelöst bloß, weil die Seite kurz ist und das Scroll-Tracking da irgendwas schießt, dann heißt das plötzlich, dass die Absprungrate auf dieser Seite messtechnisch sehr schnell gegen null tendiert. Da habe ich einfach Mist gemessen. #00:44:19.9#
Maik Bruns: Genau. Dann freuen sich immer die Leute, die das machen. Hey, die eine Seite, die hat nur 5 Prozent oder 2 Prozent Absprungrate. Dabei wird aber ignoriert, dass das quasi per Automation so funktionierte, dass nämlich in dem Moment, jemand betritt die Seite und dann wird ein solches Event ausgelöst, das eine Interaktion mit sich bringt und dementsprechend ist die Absprungrate für diesen Besucher gleich null. Wenn das aber automatisch passiert, betrifft das auch einen großen Teil der Menschen. Wenn euer Bonus, euer persönlicher Bonus davon abhängt, ob ihr die Absprungrate senkt, dann denkt mal über dieses Konzept nach. Aber …#00:44:58.7#
Markus Baersch: Da habe ich mal einen viel besseren Tipp, einfach den Tracking-Code zweimal einbauen. #00:45:02.2#
Maik Bruns: Stimmt, der ist idiotensicher. Richtig. Das ist auch so ein Datenqualitäts-Thema. Tracking-Code bitte nur einmal einbauen. Ihr seht schon, Absprungrate mag ich auch deshalb nicht, weil sie total manipulierbar ist und sie einfach ein wenig über Qualität mit sich bringt erstmal, zumindest, wenn sie nur für sich gesehen wird. #00:45:21.1#
Markus Baersch: Aber wer jetzt denkt so, Mensch, das passiert doch niemandem, also auch mit diesem Scroll-Tracking oder auch mit anderen Events, dem sei versichert, das passiert ständig und jeden Tag. Ich habe mich selber dabei erwischt auf einer Landingpage, wo ich tatsächlich auch Geld dafür bezahle, dass Traffic draufkommt, da waren so ein paar Bereiche, die werden ein- und ausgeklappt und das messe ich als Interaktion. Ich klappe die nun aber beim Laden der Seite automatisch ein und habe vergessen dabei dieses Event nicht auszulösen. Also habe ich es selber geschafften mir so eine mir so eine 0,3 Prozent Absprungraten-Landingpage zu bauen und habe das auch erst irgendwie 2 Monate später gemerkt. #00:46:00.7#
Maik Bruns: Ich glaube, das prüfst du auch in dem Audit bei Analytrics? Da wird sowas … #00:46:03.4#
Markus Baersch: Das prüfe ich auch in dem Audit, genau. #00:46:05.1#
Maik Bruns: Alles irgendwas unter … ich meine, ich hätte das mal gemacht und war irgendwie unter 5 Prozent und über 95 Prozent kommt mir spanisch vor und dann gibt‘s das glaube ich auch so. #00:46:13.6#
Markus Baersch: Jetzt kann man über diese Grenzwerte streiten, aber irgendwo muss man die jetzt hinlegen. Ich finde auch eine Absprungrate unter 10 Prozent ist in vielen Fällen schon verdächtig, aber es gibt einzelne Fälle, da werden diese Werte erreicht und deswegen bin ich mit meinen Grenzwerten wirklich irgendwo hingegangen, wo ich sage, also unter 5 oder über 95 oder da stimmt wahrscheinlich wirklich was nicht. #00:46:34.6#
Maik Bruns: Und dann muss sich jeder am Ende selber überlegen, ob er der Sache mal ein bisschen intensiver nachgeht oder nicht. Sehr cool! Guck mal, jetzt haben wir schon eine Dreiviertelstunde hinter uns und gefühlt Markus, könnten wir zum Beispiel wirklich noch 3 oder 4 Stunden wahrscheinlich über die Sachen sprechen. Aber ich glaube, das führt zu nichts, weil ihr merkt schon, wie tief das Thema ist und lasst euch einfach mal darauf ein. Macht mal so einen Audit bei eurer eigenen Seite mit Analytrics. Schaut mal bei euch nach oder meinetwegen auch bei euerm Kunden, wie es so aussieht. Ich bin sicher, ihr habt plötzlich viel Arbeit vor euch, das Thema Datenqualität wird viel zu lasch angegangen bei vielen. Klar, es ist auch nicht immer alles wichtig, was Datenqualität angeht, aber eine ganze Menge schon. Vor allem die Sachen, die wir jetzt hier mal so aufgeführt haben, das Thema Filter, das Thema, wie richtig so ein Konto ein, wie setze sich Ziele, was ist mit Funnels, was für Fehler kann ich überhaupt machen, Event-Tracking, ich glaube, da seid ihr schon auf einem guten Weg, wenn ihr euch damit mal auseinandersetzt. Oder was meinst du? #00:47:37.2#
Markus Baersch: Ja, ist immer ein guter Tipp. Grundsätzlich muss man halt irgendwo anfangen. Man kann anfangen mit einem Buch, das ist nicht schlecht, man kann anfangen mit irgendwelchen Kursen, das ist alles nicht schlecht. Wenn man jetzt aber schon eine bestehende Webanalyse hat und will wissen, wo kann ich denn jetzt hier ansetzen, um wirklich die Datenqualität zu optimieren, dann ist ein Blick auf das bestehende nicht falsch. Deswegen ist mein Audit auch nicht der einzige auf der Welt, da gibt es noch eine ganze Menge andere. Viele sind aber, da ist die Hürde schon die Sprache teilweise, deswegen ist meines in Deutsch. Ich habe auch versucht sehr fair zu sein, wenn es darum geht, wenn etwas nicht so ist wie der Audit es erwartet, das als Fehler einzuschätzen. Viele Dinge sind da wirklich nur Hinweise. Selbst wenn aber jetzt mal irgendwas rot ist und da steht jetzt Fehler, dann heißt das nicht, dass man irgendwas falschmacht, sondern dann heißt es eigentlich, hier fehlt nach meiner Erwartungshaltung etwas und das heißt in der Regel, hier ist noch ungenutztes Potenzial. Das heißt so ein Audit einfach mit der richtigen Motivation machen, nicht draufklicken und sagen, hoffentlich ist alles grün, sondern alles, was nicht grün ist, ist ein Ansatzpunkt, um besser zu werden. So muss man das betrachten. Man muss das nicht alles umsetzen. Jeder dieser Checkpunkte wird aber kurz angerissen, warum ist der wichtig, warum ist das, warum wird das gecheckt? Ich erkläre auch im Detail, wie ich das checke. Das mache ich nicht, um nerdige Hinweise zu schreiben, sondern weil teilweise auch so ein Check mal Lücken haben kann. Also der Check sagt, grün, aber ich weiß, das stimmt eigentlich gar nicht oder umgekehrt. Der Check sagt, rot, und ich gucke nach und es ist eigentlich alles in Ordnung. Es gibt immer wieder Grenzfälle und nicht alles kann man mal kurz mit einer Abfrage und ein bisschen Analyse wirklich sicher bestimmen. Das ist auch mein Kritikpunkt an vielen anderen Audits, die ich gesehen habe. Die gehen hin, die laufen durch, da werden Sachen moniert, von denen ich weiß, dass die richtig implementiert sind und dann denke ich immer so, jetzt weiß ich nicht, jetzt machen tausend Leute diesen Audit, 100 haben diesen Fehler und davon machen sich selbst bei einer ganz kleinen Rate jetzt irgendwie 10 bis 20 Leute völlig umsonst irgendwie einen Kopf. Das finde ich immer sehr traurig. Das heißt also, wer hier das Audit-Tool durchlaufen lässt und hat irgendwelche Fragen oder so, einfach mich fragen. Das schadet nichts. Das Ding ist noch in der Mache. Es ist nie fertig. Es ist sowieso, es war so ein Selbst-Challenge, das sollte innerhalb von 24 Stunden fertig werden, da hat geklappt, aber das heißt nicht, dass ich da nicht nochmal eine Stunde zwei oder drei reinstecken kann, wenn ich sehe, dass es da Potenzial gibt, das noch auszubauen oder die bestehenden Checks zu verbessern. #00:50:10.6#
Maik Bruns: Ist das quasi eine offene Beta. #00:50:12.0#
Markus Baersch: Und da keine Scheu. Das ist eine offene Beta wie alles auf analytrics.de. Es ist alles beta und es bleibt alles beta. Ich arbeite damit, es funktioniert manchmal vielleicht auch einen halben Tag nicht, wenn ich gerade am lebenden Objekt arbeite, das mag passieren. Aber die Dinger dienen eigentlich alle erstmal einem guten Zweck, nämlich sich selber ein Bild davon zu machen, wo stehe ich in bestimmten Bereichen, die diese Checks machen können? Deswegen habe ich auch viele Sachen in den Audit nicht eingebaut. Der Spam-Check im Detail, den brauche ich nur, wenn ich sehe, das könnte ein Thema sein in der Verweis-Analyse. Die Verweise-Analyse ist mir zu umfangreich, um die in den Audit zu packen. Datenschutz-Check ist auch wieder so eine ganz andere Geschichte. Vielleicht auch, um hier die Nummer nochmal abzurunden und jeden einmal genannt haben. Datenschutz-Check habe ich deswegen gemacht, weil man wirklich damit gezielt nach irgendwelchen personenbezogenen Informationen in der Webanalyse suchen kann. Ganz einfach, weil das eine Aufgabe ist, vor der jetzt gerade ganz viele Leute stehen. Die müssen jetzt keinen kompletten Audit machen, die können gezielt diesen Datenschutz-Check machen und mal schauen, ob es da ein Problem gibt oder nicht. #00:51:19.1#
Maik Bruns: Also lieber Spezial-Tools also die eierlegende Wollmilchsau, finde ich eigentlich auch immer besser. #00:51:22.7#
Markus Baersch: Finde ich schon. #00:51:23.5#
Maik Bruns: Finde ich auch. Also vor allem, weil es die Performance beschleunigt, weil man nicht so von der Datenmenge am Ende auch erschlagen wird. Ist eigentlich auch das Thema Datenqualität, so Informationen so bekommen, dass man damit arbeiten kann. #00:51:34.8#
Markus Baersch: Ja, aber spätestens da sind wir jetzt in einem völlig anderen Themenbereich. #00:51:38.5#
3 Tipps von Markus Baersch zum Thema “Datenqualität”
Maik Bruns: Das müssen wir jetzt auch nicht behandeln. Nein, nein. Du hast vollkommen recht. Markus, ich würde sagen, ich brauche 3 Tipps von dir. Pass auf, wenn es um das Thema Datenqualität geht, was möchtest du den Leuten da draußen, dem geneigten Zuhörer, der jetzt hier schon 50 Minuten fest zu gehört hat, noch mit auf den Weg geben? #00:51:57.3#
Markus Baersch: Ich glaube, das erste, das haben wir schon gesagt, das ist aber einfach so super wichtig, glaube diesen Daten nicht, nimm sie nicht für bare Münze, auch wenn sie zwei Nachkommastellen haben. Das hat jetzt vielleicht nicht direkt mit Datenqualität zu tun, aber indirekt schon. Wenn man einmal verstanden hat, dass auch bei hoher Implementierungstiefe und sehr viel Mühe bezogen auf Herstellung von einer hohen Datenqualität reingelaufen ist in so ein Setup, heißt das noch lange nicht, dass, wenn da steht 2.000 Besucher, dass es 2.000 Besucher waren. Ist so eine Binsenweisheit, aber in der Webanalyse geht es halt nicht um die konkreten Zahlen, sondern es geht um die Entwicklung von Zahlen, es geht um Vergleich von Segmenten, es geht um Ausreißer. Überall da stecken Insights, aber nicht im Vergleich von 1.100 zu 1.120 Besuchern und sich dann fragen, warum sind 20 Besucher mehr oder weniger da? Das bringt nicht. Das ist einfacher zu verstehen, wenn man sich ein bisschen damit auseinandergesetzt hat, wie wird da überhaupt gemessen. So eine Hilfe-Seite zum Thema Absprungrate und Verweildauer gibt es in der Google Analytics Hilfe. Da ist eine ganz schlecht und lieblos gemachte Visualisierung davon, was passiert, wenn man Engagement Hits misst oder nicht. Das finde ich eine schöne Seite, um für jemanden, der sich überhaupt nicht mit der Technik auseinandersetzen will, wissen will, wie Absprungraten und Verweildauer zustande kommen. Wenn man da einmal an seinem eigenen inneren Weltbild gerüttelt hat, dann kann man auch die anderen Daten vielleicht besser kritisch hinterfragen. Tipp 1, ein bisschen lange gelaufen. Aber diesen Link-Tipp packen wir da vielleicht einfach rein, weil ich sehe da auch regelmäßig Aha-Erlebnisse, wenn ich das mal in so einem Workshop oder sowas zeige. #00:53:49.4#
Maik Bruns: Ist notiert auf jeden Fall. #00:53:51.2#
Markus Baersch: Deswegen ist das so eine Pflichtfolie bei mir. Dann Punkt 2. Auch hier gilt das Pareto-Prinzip. Man kann sich in das Thema Datenqualität verrennen. Das Schöne ist aber, also Pareto-Prinzip sagt, jetzt ganz grob und platt gesagt, dass ich mit 20 Prozent des Aufwands 80 Prozent des möglichen Ergebnisses erzielen kann. Das heißt im Umkehrschluss, wenn ich die anderen 20 Prozent bis zur Perfektion gehen will, dann muss ich halt nochmal die restlichen 80 Prozent meiner Gesamtzeit dann da reinstecken, also sprich, fünf Mal so viel wie ich vorher schon reingesteckt habe. Das ist kein guter Deal. Bei Datenqualität gilt das gleiche. Es gibt so ein paar Low Hanging Fruits, die liegen meistens auf nochmal kritischem Hinterfragen der eigenen Einstellung bei Property und Datenansicht. Das kann man ruhig mal machen, das ist schnell getan. Das ist einmalig erledigt, sag ich mal. Da sollte man nochmal reingehen und wenn man dann den ganzen Tag irgendwie in verwässerte Einstellungen vielleicht auch mit Hilfe von hier Verweis-Analyse, Spam-Check und was weiß ich nicht, was wir alles haben so bei analytrics.de, wenn man die Zeit da reinsteckt, ab dem Tag ist die Datenqualität auf jeden Fall wird sie besser. Das ist immer ein gutes Gefühl. Das ist so wie endlich mal den Abwasch machen oder so. Danach wird es einfach besser. Wäre Tipp 2. Tja, der 3. Tipp, weil ich mich nicht vorbereitet habe, will mir jetzt gerade nicht in den Sinn kommen. Also außer natürlich sowas wie guckt wirklich nochmal nach so Klassikern wie, habt ihr den Tracking-Code zweimal implementiert. Das haben wir eben zwar als Witz gesagt, aber es passiert halt wirklich immer und immer wieder. Nicht, weil jemand gesagt hat, ich bin fleißig, ich baue den einfach mehrfach ein, sondern weil viele zum Beispiel mit WordPress arbeiten und da fragen 1.000 Plugins nach irgendwelchen IDs, die werden dann immer eingetragen und nachher hat man, ich habe es jetzt auch gesehen, 3 Tracking-Codes in so einer … #00:55:47.5#
Maik Bruns: Hatten wir das nicht dieses Thema letztens noch bei uns in der Facebook-Gruppe Digitale Webanalyse-Helden? War das nicht da, dass da einer? #00:55:55.1#
Markus Baersch: Nein. #00:55:55.2#
Maik Bruns: Oder war das in einer anderen Gruppe? Ich weiß es nicht mehr. Da hat nämlich tatsächlich einer das Problem gehabt, dass er mit WordPress gearbeitet hat und der hat immer den doppelten Tracking-Code ausgelöst und in dem einen Tracking-Code war anonymisiert, in dem anderen nicht und so weiter und so fort. Also so lustige Dinge können dann passieren, wenn man mit Plugins arbeitet. Also da auch, Datenqualität fängt auch schon beim Implementieren an. #00:56:12.5#
Markus Baersch: Also ich habe wirklich 5 Minuten bevor diese Sendung jetzt hier aufgezeichnet wurde, habe ich noch eine Mail rausgeschickt an eine Kundin, die wir im Bereich AdWords haben und wo dann auch durch Zufall aufgefallen ist, dass genau da das auch der Fall ist. Also ein anonymisierter, ein nicht-anonymisierter Tracking Code. Keiner hat’s gemerkt. #00:56:31.8#
Maik Bruns: So ist das und Zack bist du abgemahnt und keiner hat es mitgekriegt. #00:56:35.5#
Markus Baersch: Ich weiß jetzt nicht, ob das wirklich 3 Tipps waren. Sonst ist der 3. Tipp, hört weiter Podcasts. #00:56:42.6#
Maik Bruns: Ja, wirklich. Kann ich nur empfehlen. Ich höre selber super gerne Podcast mittlerweile. Also nicht nur euren, sondern auch viele andere, weil ich einfach glaube, dass man sich damit wirklich gut auf dem Stand halten kann oder auch einfach mal neue Impulse bekommt. Mal ehrlich jetzt mal, wer von euch Hörern, würde mich einfach mal interessieren, könnt ihr auch gerne einen Kommentar schicken oder mir eine Mail wie auch immer, wer von euch Hörern hat sich schon mal intensiv mit Datenqualität auseinandergesetzt? Ich finde das so wichtig und das wird einfach unterschätzt, weil viele einfach glauben, dass das Tool Google Analytics oder welches Tool auch immer sofort und perfekt funktioniert. Das ist nicht so. Also ich hoffe, dass euch diese Folge das klargemacht hat. Das wäre mir und Markus sicherlich auch ein Ansinnen und besucht … #00:57:26.1#
Markus Baersch: Genau. Nicht umsonst steht überall Make Analytics Great Again auf unseren Websites und Podcasts und wir meinen das ernst. All diese Dinge sollen helfen. Tun sie es nicht, sagt es uns. Fällt euch was ein, was helfen könnte, sagt es uns auch. #00:57:40.9#
Maik Bruns: Sehr cool, ja top. Markus, habe vielen Dank. War super. Ich habe den Eindruck, dass wir eine ganze Menge Themen hier an den Mann gebracht haben oder an die Webanalystin und jetzt liegt’s an euch. Jetzt müsst ihr es „nur“ noch machen, in Anführungszeichen. Markus, ich möchte dir gerne nochmal gleich das letzte Wort geben und bedanke mich nochmal dafür, dass du dabei warst und dass du Bock drauf hast, das Thema auch weiter rauszubringen und sage allen anderen, bis bald! #00:58:12.1#
Markus Baersch: Dann dir nochmal schönen Dank, hat Schweine-Spaß gemacht. Den Hörern danke fürs bis hier dranbleiben. Ich hoffe, dass wir, obwohl wir versucht haben unsere Flughöhe irgendwie zu variieren, also nicht allzu hoch über den Dingen zu schweben, aber auch nicht allzu tief einzutauchen, dass wir diesen Spagat geschafft haben, weil wie gesagt, das Ganze in einer vernünftigen Zeit hinzukriegen, ist nicht so einfach. Der Maik freut sich aber bestimmt, wenn er Vorschläge kriegt, wo er dann mal seine Podcast Quickies vielleicht mal auch in diesen Bereich nochmal ausbauen kann. Insofern Datenqualität ist nicht mit einer Sendung abgefackelt. Wer jetzt Lust hat sich mehr damit auseinanderzusetzen, der sei aufgerufen die hier genannten Tools und viele andere einfach zu nutzen, weil Datenqualität ein super wichtiges Thema ist und wir freuen uns über jeden, dem wir hier vielleicht einen Schubs in die richtige Richtung geben konnten. Dankeschön! #00:59:10.3#
Abonniere auf Android Abonniere auf iTunes
Gemeinsam mit seinem engagierten Team verfolgt er eine klare Mission: Mehr als nur Webseiten zu optimieren – er will Businesses transformieren und datenbasiert Online-Wachstum bringen.
Sein exzellentes Hintergrundwissen aus Marketing, Technik und Analyse ist bei der Optimierung von Websites immer wieder gefragt und mit seiner Art hat er viele Unternehmen für Webanalyse und Growth Marketing begeistert.
LinkedIn Facebook Instagram XING