Technische OnPage-SEO-Strategie für Websites und Onlineshops

Warum SEO?

Jeder, der eine Webseite besitzt, möchte in den Top-Resultate auf den Suchmaschinen-Ergebnisseiten aufgelistet und gefunden werden. Einer Schätzung zufolge umfasst das Internet im 2018 rund 1.2 Milliarden Webseiten. Google kann nicht endlos Seiten in alle Resultate einfliessen lassen. Deswegen trifft Google eine Auswahl, die für den Suchenden möglichst relevant ist. Es herrscht ein Kampf um die spärlichen Top-Plätze der einträchtigen Suchresultate.

Warum denn nur Google?

In der Schweiz gibt es mehrere Suchmaschinen wie Google, Search, Yahoo, Bing, AOL und viele andere kleinere. Die meistgenutzte Suchmaschine in der Schweiz ist mit 94 Prozent Marktanteil Google. Der europäische Durchschnitt liegt knapp unterhalb, bei circa 93 Prozent. Die einzige Ausnahme in Europa stellt Russland dar, wo Google nur etwas über 67 Prozent Marktanteile besitzt und ein grösserer Rest von Yandex belegt wird. Bing folgt Google mit einem Marktanteil von rund 3,7 Prozent. Durch den verschwindend kleinen Marktanteil anderer Suchmaschinen in Europa wird oft generell von Suchmaschinen gesprochen und eigentlich Google gemeint.

In gewissen asiatischen Ländern dominieren andere Suchmaschinen. Diese werden jedoch nicht genauer angeschaut und nicht darauf eingegangen.

Faktoren für das Ranking bei Google

Die Liste der Ranking-Faktoren von Google ist mehrheitlich bekannt, jedoch nicht die Methoden und Gewichtungen dazu. Aus diesem Grund kann darüber nur spekuliert oder ausgetestet werden. Die Liste umfasst sowohl Faktoren, welche die eigene Seite betreffen (OnPage), als auch Faktoren, welche indirekt über Fremdseiten die eigene Seite betreffen (OffPage).

Was wurde ausgewertet und bewertet?

Der Inhalt basiert auf einer Masterarbeit in Information Systems Management (IMS) an der Fachhochschule Nordwestschweiz FHNW Basel, der Stefan Murawski im 2017 geschrieben hat. Mittels Literatur und eines Abgleich unter SEO-Experten wurden alle bekannten technischen On-Page-SEO-Faktoren auf Einfluss auf SEO und Kosten eingeschätzt und davon eine Top Liste erstellt. Die 20 Top-Faktoren wurden danach auf verschiedenen Seiten getestet und nach Wirksamkeit im Vergleich zu den Implementationskosten ausgewertet. Die Kosten für die Umsetzung wurden in mehreren Content-Management-System (CMS) wie WordPress, Joomla und Typo3 geschätzt und ein Mittelwert für die Einschätzung gewählt. Neben Wirksamkeit und Kostenaufwand verdeutlichen wir auch die Risiken für die Nichtbetrachtung der Optimierungsmassnahmen.

Die Auswertung

In den kommenden Wochen werden wir 21 interessanten Blogeinträge zum Thema SEO-Optimierungsstrategie für Webseite und Onlineshops veröffentlichen. Jeder Blogeintrag greift eine technische SEO-Massnahme auf und verdeutlicht ihre Wirksamkeit auf das Ranking bei Google, die Kosten für die Umsetzung, sowie die Risiken bei Nichtbeachtung. Die Reihenfolge der Beiträge ist keine Aussage für die Wichtigkeit der Umsetzung selbst!

Für die Untersuchung wurden Suchresultate und Keywords über mehrere Websites über Monate beobachtet. Dabei wurden auch Traffic, Erreichbarkeit und sonstige Daten miteinbezogen, welche aussergewöhnlich Auswirkungen auf die Suchpositionen haben könnten. Auch können Anpassungen am Google Algorithmus Einfluss auf die Resultate haben und mussten beobachtet werden.

Alle Keyword / Seiten Kombinationen in den Top 100 Suchresultaten von Google wurden über längere Zeit notiert und beobachtet, Änderungen angebracht und die Einflüsse auf das Ranking beobachtet. Der Ablauf sah vereinfacht wie folgt aus:

Folgende Punkte wurden aufgezeichnet:

  • Anzahl der Keywords/Seiten, welche sich in den Top 100 befinden (wird über Sistrix ausgelesen)
  • Positionen der Seiten in den Top 10 und Top 100 über Sistrix und Testtool des Autors
  • Traffic (Anzahl Sitzungen pro Woche) über Analytics oder Piwik (je nach Website)
  • Monitoring der Website in Bezug auf Ausfälle / ungeplante Änderungen

Bei der Auswertung gab es Schwankungen, wie viele Keywords / Seiten in den Top 100 vorgekommen sind. Das Problem dabei besteht darin, dass eine unterschiedliche Zahl von Seiten in die Berechnung der durchschnittlichen Position einfliesst und Resultate um die Top 100 das Ergebnis stark verfälschen.

Die nachfolgende Abbildung zeigt das Problem in der Berechnung, dass der Einbezug einer unterschiedlichen Anzahl an Werten in die Durchschnittsberechnung problematisch ist. Alle Kolumnen zeigen die Positionen von Seiten im Ranking.

Bei der ersten Kolumne werden jedoch nur 6 Seiten zur Durchschnittsberechnung des Rankings zwischen den Positionen 10–100 miteinbezogen. Verbessert sich das Ranking aller Seiten um 5 Plätze (mittlere Kolumne), sinkt der Durchschnitt massiv. Dies hat damit zu tun, dass 3 weitere Seiten in die Berechnung des Durchschnittes zwischen 1 und 100 einbezogen wurden. Berechnet man jedoch den Durchschnitt auf den kleinsten möglichen Nenner der Werte (dritte Kolumne), spiegelt der Durchschnitt die Verbesserung um 5 Plätze wieder.

Diese Berechnung ist wichtig, das mehr Suchresultate nicht eine Verschlechterung der Suchpositionen ergeben, wobei es generell besser wurde. Aus diesem Grund werden bei den Analysen immer mit dem kleinsten Nenner der Suchergebnisse gearbeitet.

Die Beiträge