Technische OnePage-SEO-Strategie – Teil 15 – Verbotene Ressourcen

Teil 15/21 - Verbotene Ressourcen

Dies ist ein SEO Beitrag aus der Reihe Technische OnPage-SEO-Strategie für Websites und Onlineshops. Weitere Informationen zum Vorgehen, der Auswahl und Auswertung finden Sie hier.

Was sind verbotene Ressourcen?

Verbotene Ressourcen sind leider immer noch ein Thema, obwohl sie längs der Vergangenheit angehören sollten. Vor dem Jahr 2015 war es Standard, die JS und CSS-Dateien für Suchmaschinen zu blockieren. Da Google mit den Dateien nichts anfangen konnte. Nun das hat sich im 2015 geändert. Google will heute die Ressourcen indexieren können. Allerdings blockieren viele alte CMS-Seiten im vorinstallierten robot.txt die JS und CSS-Dateien weiterhin. Welche Auswirkungen hat diese Blockade auf das Google Ranking, wir gehen diese Frage auf die Spur.

Die Untersuchung

In der ersten Abbildung ist ersichtlich, dass nach dem Blockieren der CSS-Dateien das Ranking der Seiten über 4 Wochen massiv um durchschnittlich 10 Rankingplätze fiel. Aus Zeitgründen wurden die Änderungen nach 4 Wochen rückgängig gemacht, ohne abzuwarten, ob die Seiten im Ranking weiter absinken würden. Der Trend ist klar ersichtlich. Die Rankings hatten sich nach rund 3 Wochen wieder auf den alten Stand erholt. Anschliessend wurden JS-Ressourcen blockiert. Hier wurde der Test bereits nach 2 Wochen abgebrochen, damit genügend Zeit für die Erholung blieb.

3 Wochen nach dem Beenden des zweiten Tests hatte sich die Website wieder stabil auf dem alten Stand eingependelt.
Nach dem Abbrechen des ersten Tests wurde parallel auf dem Testnetzwerk der Test gestartet. In diesem Test wurde die Auswirkung für das Blockieren von CSS und JS parallel gewählt.

15-untersuchung-verbotene-ressourcen-1

Um die Ergebnisse der Website zu wiederholen und die Resultate zu bestätigen, wurde der Test in einem Testnetzwerk von rund 10 Domains wiederholt.

In diesem Versucht ist ersichtlich, dass nach der Implementierung der Sperre, dass das zuvor sehr stabile Ranking über 6 Wochen hinweg, durchschnittlich um 5 Plätze sank. Der Verlust war zwar kleiner als bei der realen Website, dazu können aber auch andere Parameter beigetragen haben. Das Testnetzwerk stand zum Grossteil nur mit sich selbst in Konkurrenz. So ist der kleinere Absturz erklärbar. Auch hier wurde der Test Ende Dezember beendet. Das Testnetzwerk erholte sich innerhalb von rund 3 Wochen wieder.

15-untersuchung-verbotene-ressourcen-2

Aber warum führt dies zu schlechterem Ranking?

CSS definiert zum Beispiel wie Texte angezeigt werden, Elemente formatiert sind (Sichtbarkeit, Position, Grösse, Farben, etc.). Sind nun wirklich alle Texte sichtbar, oder für Benutzer doch nicht?

JS Dateien werden für viele Dinge genutzt. Oft auch um die Bedienung der Webseite zu vereinfachen und Benutzern eine tolles Erlebnis zu bieten. Dann kommt Google daher und darf dies nicht nutzen…

Die Frage ist, bewertet Google schlecht, dass die Ressourcen verboten sind, oder scheint Google die Seite einfach “als zu schlecht, um Suchenden ein positives Erlebnis zu bieten”? Diese Frage müsste man Google stellen, jedenfalls ist das Resultat schlecht.

Aufwand

Für den Seitenbetreiber: 15 Minuten (robots.txt Test in Search Console von Google)

Für den Webagentur: Jeder Webserver bietet die Möglichkeit, eine robots.txt zu hinterlegen. Der Aufwand einer Webagentur sollte hier niemals 30 Minuten übersteigen.

Erwarteter Effekt auf SEO: Gross. Sind Ressourcen verboten, kann dies je nach Einschätzung von Google einen sehr grossen Einfluss auf das Ranking haben.

Folgen bei Nichtbeachtung: Dies führt zu einer kleinen Abstrafung, was in schlechteren Rankings endet.

Unsere Empfehlung

  • Überprüfe mit dem Google Test-Tool, ob deine Seite blockierte Ressourcen beinhalten.
  • Hebe die Blockade auf! Diese technische Umsetzung dauert nur 30 Sekunde. Es ist unerklärbar, dieses Problem weiterhin zu ignorieren.

Die technische Umsetzung

Um die Blockade aufzuheben, müssen die entsprechenden «Disallow»-Zeilen in der robots.txt entfernt werden oder sehr einfach am Anfang UND Ende in der robots.txt folgende Zeile eingetragen werden, wie in Quellcode-Abbildung 2 aufgezeigt wird.

Warum am Anfang und am Ende? Google wendet die letzte treffende Regel an. Bing die erste treffende Regel. Leider…

Weitere Beiträge aus der Reihe

Dieser Beitrag ist aus der Reihe Technische OnPage-SEO-Strategie für Websites und Onlineshops.