Performance

Warum Analytics lügt und wir mit Alexa reden sollten

Beitrag von Andreas Breuer | Dienstag, 5. Dezember 2017
Kategorie: Performance

Erkenntnisse vom SEO Day in Köln

Weiterentwicklung der Sprache, Mikroprozesse im SEO und Natural Language Processing waren wichtige Themen beim SEO Day 2017 in Köln.

Voice Search – Alexa, wir müssen reden

Der Vortrag von Unternehmensberater Gero Wenderholm befasste sich mit der Evolution der Sprachsuche und zog Vergleiche zwischen anderen Formen der Informationsausgabe wie der Suche über Smartphones. Voice Search steht zwar noch am Anfang, aber bereits 2020 sollen 50 Prozent der Suchen per Sprache ausgeführt werden. Spannend wurde es, als verschiedene Herausforderungen aufgezeigt wurden, die auf Webseitenbetreiber zukommen und gleichzeitig große Chancen mit sich bringen. Verglichen mit der Suche über Smartphones oder Desktop muss für die Sprachsuche noch viel mehr auf Longtail-Begriffe und Fragen optimiert werden, denn Voice Search bedient sich der gängigen Sprache, die mehr Worte beinhaltet und emotionaler ist. Zusätzlich ist Sprachsuche oft lokal verankert: Die kleine Pizzeria von nebenan kann hier ihre Chancen im Wettbewerb ausbauen.

Die Optimierung lokaler Einträge bei Google, Bing und Maps sowie die Pflege von strukturierten Daten und Postleitzahlen wird somit immer wichtiger. Wer es schafft, seine Daten korrekt zur Verfügung zu stellen, hat somit auch gute Chancen, durch Sprachassistenten ausgelesen zu werden und seinen Wettbewerbern einen Schritt voraus zu sein. Wichtige Bereiche könnten daher sein:

  • Q & A für Artikel und Produkte verfassen

  • Optimierung für Featured Snippets („Postion 0“)

  • Strukturierte Daten

  • Voice Responsive Design (Media Type “Speech”)

  • Voice Search Apps
    (kc)

Mikroprozesse im SEO

Der Vortrag von Jens Fauldrath (CEO, gettraction.de) befasste sich weniger mit dem Output selbst als mit der Optimierung der Prozesse und der Kontrolle der Arbeitsschritte dahinter. SEO sieht er als Teamplay, wobei einzelne Prozesse nach klaren Regeln umsetzbar sein müssen. Die Kernaussage war: „Mikroprozesse erlauben es uns, Arbeitsabläufe bis hin zur (Teil-)Automatisierung zu optimieren. Dadurch sind massive Zeitersparnisse möglich.”

SEO soll in kleinen Teilprozessen abgearbeitet werden, ohne dass langwierige Absprachen nötig sind. Fauldrath verwies darauf, wie wichtig es ist, Kompetenzen und Fähigkeiten an richtiger Stelle zu vergeben. Alle To-dos sollten gesplittet und an die richtigen Schnittstellen verteilt werden. So bekommt zum Beispiel die IT alle relevanten technischen Themen zugeteilt und die Redaktion bearbeitet Content-Themen. Ziel ist es, Handlungsfähigkeiten herzustellen und den Abstimmungsaufwand zwischen den einzelnen Schnittstellen zu reduzieren, damit Ad-hoc-Potenziale geschaffen werden und stetig Verbesserungen aus mehreren Bereichen umgesetzt werden können.

In der Praxis sieht es so aus, dass zum Beispiel das CMS flexibler gestaltet werden sollte, damit die Basic-SEO-Themen wie Title und Description, Meta-Robots-Tags, das Canonical-Attribut oder Schema.org-Definitionen nicht nur von der IT, sondern auch von anderen Schnittstellen editierbar sind. Ob SEO-Potentiale bestehen, wird mit Monitoring Tools geprüft. Dazu sollten einzelne Seitentypen angelegt und überwacht werden (URL-Überwachung). Zum Thema Content schlug Fauldrath vor, dass Texte auch erst im Nachgang von SEO-Experten überarbeitet werden können. Diese Variante erspart regelmäßige Schulungen, umgeht unterschiedliche Wissensstände und sichert eine einheitliche Qualität. Output-Mengen und die Zulieferformen können also durch Mikroprozesse definiert werden, verringern den Abstimmungsaufwand und erlauben Skalierbarkeit. (kc)

Dein Analytics belügt dich

Michael Janssen, CEO von zedwoo.de, machte seinen Zuhörern sehr anschaulich klar, dass Google Analytics viel mehr kann als die meisten von uns es sich träumen lassen. Zum Beispiel werden maximal 3 Prozent der über Analytics erhobenen Daten effektiv genutzt, weshalb viel Potenzial für die Erstellung von Strategien verschwendet wird. Besonders interessant waren Michaels Ausführungen, wenn er von seinen Erfahrungen mit den eigenen Kunden sprach: So glauben einige, dass der größte Teil der Arbeit in die Analyse der Daten gesteckt würde – ein Irrglaube, denn besonders die Implementierung und das Anlegen von Dashboards nimmt viel mehr Zeit in Anspruch und die eigentlichen Auswertungen nehmen nur einen kleinen Teil des Gesamtkonzepts ein.

Alltagstauglich ist die Vorstellung über Fehlinterpretationen von Daten. Eine Absprungrate von unter 20 Prozent sei keinesfalls ein Beweis für besonders gute Inhalte, sondern meistens ein deutlicher Hinweis darauf, dass bei der Implementierung des Google-Analytics-Codes irgendetwas schiefgelaufen ist. Eine Rate von unter 5 Prozent sei sogar der deutliche Beweis, dass in Sachen Code etwas nicht mit rechten Dingen zugeht.

Für all diejenigen, die immer noch Überzeugungsarbeit in Sachen SSL-Verschlüsselung leisten müssen, bot Michael ein weiteres nützliches Argument: So wird Traffic, der von https-verschlüsselten auf nicht http-Seiten führt, als Direct Traffic gemessen, da der Referrer in diesem Fall gelöscht wird, was zu einer Verfälschung der Zahlen führt.

Interessant waren auch die Informationen darüber, welche KPIs relevant für Reportings sind. Häufig werden laut Michael solche verwendet, die für den jeweiligen Ansprechpartner nicht oder nur bedingt hilfreich sind. Vielmehr muss von Kunde zu Kunde sehr individuell entschieden werden, welche KPIs mit aufgenommen werden.

Am Ende des Vortrags ging es dann auch noch einmal um Ziele: Denn die Quintessenz einer guten Webanalyse sind eben solche definierten Zielvorhaben – ohne die zu messen keinen Sinn ergibt. (rg)

Natural Language Processing

Bei Natural Language Processing (NLP) geht es um die kombinierte Wissenschaft von Machine Learning und Linguistik. Warum das interessant für Google ist? Das erklärte Stefan Fischerlaender, CEO von gipfelstolz.de. NLP bildet die Schnittstelle zwischen Maschine und Nutzer. Google befindet sich im Bereich Voice Search in einer für den Suchmaschinenriesen relativ unbekannten Lage – nämlich einer Konkurrenzsituation mit anderen Anbietern, der nur mit tiefgehender Forschung in diesem Bereich begegnet werden kann. Mittlerweile ist Google schon in der Lage, den Tonus einer Aussage zu erkennen. Das heißt, dass Googles NLP-Schnittstelle schon dazu in der Lage sein könnte, Ironie oder Sarkasmus zu erkennen.

Die Basis für die stetige Verbesserung der NLP API bilden Datenbanken wie Wikipedia, in denen der Maschine unendliche Datenmengen zur Verfügung stehen. Besonders wichtig für das Verständnis von Informationen ist der Kontext, der zwischen den einzelnen Spracheinheiten besteht. Die Verbindung muss bekannt sein, um Informationen richtig interpretieren zu können. Das geht schon mit relativ einfachen sprachlichen Regeln, die die Maschine nach und nach lernen kann. So einfach das klingt, liegt auch hier ein praktisches Problem: Jeder kennt die sogenannten „Teekesselchen“ – zwei gleiche Wörter, die kontextabhängig etwas vollkommen andere bedeuten (essen vs. Essen (Stadt)). Diese feinen Unterschiede zu verstehen, gelingt der Maschine noch nicht einwandfrei. (rg)

Q & A mit John Mueller

Normalerweise füllt die Mannschaft des 1. FC Köln bei mal mehr, mal weniger erfolgreichen Spielen das RheinEnergieStadion, beim SEO DAY 2017 sorgte Google-Guru John Mueller (Webmaster Trends Analyst bei google.com) für überfüllte VIP-Räumlichkeiten. Fangfragen nach dem Google-Algorithmus und dem Erscheinungstermin der neuen Search Concole gewohnt galant umschiffend konnte das Publikum dem Schweizer aber doch einige Infos entlocken.

So berichtete Mueller, dass das Mobile First Indexing erst nach und nach ausgerollt wird und nicht an einem festgelegten Tag X auf einen Schlag für alle Webseiten. Auch versteckte Texte sollen im Rahmen dieser Schritte wieder höher gewichtet werden. Darüber hinaus empfahl er, man solle das Thema Ladezeit nicht überbewerten und bei den Google Pagespeed Insights nicht um jeden Punkt kämpfen: Da sich viele derzeit zu sehr auf die reine Optimierung des Insights-Wertes konzentrierten, solle dieser ohnehin abgeschafft werden. Mueller empfahl, stattdessen Pagespeed wieder mehr als Usability-Faktor denn als reine Zahl zu bewerten – eine „normale Webseitengeschwindigkeit“ sei vollkommen ausreichend. (ab)

Herausragende Inhalte

Highlight war der Auftritt – ja, die Performance war in der Tat mehr Auftritt als Vortrag – von Rene Dhemant (CEO/ Markenberater rene-dhemant.de). Unter dem Titel „Einfach gefunden – Schönere Google-Rankings durch herausragende Inhalte“ skizzierte er, wie man mit intelligent aufbereitetem Content bei Google als Textsuchmaschine punkten kann. Sinnvoll strukturierte Texte mit einer Font-Größe von mindestens 18 Pixeln, Serifen-Schrift und einem Inhaltsverzeichnis mit internen Sprungmarken führen zu Übersichtlichkeit für Mensch und Suchmaschine, schönere SERP-Snippets inklusive! Humorvoll verurteilte Dhemant SEO-Texte als reinen Mythos und plädierte für mehrwertige, userorientierte Informationen nach dem Motto: „Educate first, sell later“.

Als Tipp für Recherchen hatte Dhemant neben dem (auf dem SEO DAY omnipräsenten) Fragen-Tool AnswerThePublic.com und dem SISTRIX Social-Modul auch das neue app.bloomberry.com parat, das User-Fragen unter anderem aus Foren und Reddit zieht und Themenfeldern zuordnet. Krönender Abschluss war eine Comedy-Einlage par excellence: Unter höchstem Zeitdruck präsentierte der Redner die Content-Maßnahmen eines Weindepots und lieferte gleich einen Exkurs über männliches und weibliches Flirt- und Trinkverhalten mit. Fazit: Verdientermaßen „Best Speaker 2017“. (ab)

Über die Autoren:

Andreas Breuer (ab), Kira Chaluppa (kc) und Ruth Graßhoff (rg) arbeiten bei der UDG United Digital Group als SEO-Consultants und unterstützen Kunden mit technischer und redaktioneller Suchmaschinenoptimierung.