Es gibt viele OnPage Faktoren die eine Seite für Google zu einer “guten Seiten” oder einer “schlechten Seite” machen. Ein oft vernachlässigter Aspekt ist die technische Optimierung einer Seite. Dazu gehören Optimierungen wie Servereinstellungen, Qualität des Codes und  die gesamte Performance der Seite.

Der Server

Wenn man so will, ist der Server die Wohnung einer jeden Webseite. Um eine Seite ins Netz stellen zu können benötigt es einen Webspace und den dazugehörigen Webserver, der  die Webdokumente verwaltet und sie bei jeder Anfrage über den Browser an den Client zurückgibt. Dieser Prozess passiert in Millisekunden und bildet die Grundlage des Internets.

Server können in den unterschiedlichsten Optionen und Varianten bei unzähligen Anbieter gemietet werden. Je nach Anbieter variieren auch die Serverarten, die sich speziell im Leistungsvolumen und den Sicherheitseinstellungen unterscheiden. Es macht durchaus Sinn, sich vorab über diverse Serverlösungen zu informieren, denn ein Umzug kann viel Zeit und Geld kosten. Hier ein paar Webhoster im Vergleich.

Server-Statuscodes

Der sogenannte Server-Statuscode oder auch HTTP-Statuscode wird bei jeder Anfrage zurückgegeben. Sollte bei der Anfrage ein Fehler passieren so teilt uns dies der Server freundlicherweise mit und liefert eine Fehlermeldung in Form eines Codes aus. Es gibt eine Vielzahl an Serverfehlercodes, jedoch nur einige sind für die Suchmaschinenoptimierung wirklich relevant.

Link zu einer Liste aller Serverstatus Codes

1xx (vorläufige Antwort)

Ziemlich nichtssagend teilt dieser Code mit, dass eine vorläufige Antwort zurückgegeben wurde und der Client weitere Aktionen treffen muss.

2xx (erfolgreich)

Viel gibt es dazu nicht zu sagen.

3xx (weitergeleitet)

Die gute alte Weiterleitung. Eine Weiterleitung einer Url bedeutet eigentlich nichts anders, als dass sich die Adresse einer Seite geändert hat. Je nach Weiterleitung kann man aus dem Statuscode ablesen, wo sich der neue Speicherort befindet. Google empfiehlt generell die 301 Weiterleitung (permanent redirect). Dies bedeutet, dass die angeforderte Url dauerhaft auf den neuen Speicherplatz umgezogen ist. Das wichtigste hierbei ist, dass die Linkkraft oder Link Juice (wie die coolen Jungs sagen) weitervererbt wird.

 Die bösen 302 Weiterleitungen

Diese Art der Weiterleitung ist definitiv nicht zu empfehlen. Sie kommuniziert Google, dass die Seite nur kurzfristig umgezogen ist und bald wieder an ihren alten Speichort zurückwandert. Google stuft solche Seiten als unwichtig ein und die Seite verliert automatisch an Linkkraft.

Der 404 Statuscode

Wir alle kennen diesen miesen Hund. Voller Vorfreude warten wir, dass sich die Seite aufbaut, im besten Fall warten wir nur ein bis zwei Sekunden und dann passiert es. Die Seite meldet einen 404 Fehler –  not found.  Viele 404 Fehler auf einer Seite deuten darauf hin, dass die Seite nicht gut gewartet ist, was sich negativ auf die User Experience auswirkt und das wiederum Google ein Dorn im Auge ist. Am einfachsten für 404 Fehler ist es Google Webmaster Tools zu benutzen. Ein wichtiger Aspekt hierbei ist auch, den User nicht im Stich zu lassen und ihn auf der 404 Seite abzuholen. Hier gibt es viele kreative Wege dies zu tun. Entweder mit witzigen Sprüche, einer Navigation um den User weiterzuleiten, Bildern oder ähnlichen. Renny Gleeson hat einen netten Beitrag auf Ted darüber gehalten.

Die robots.txt Datei

Die robots.txt Datei, ist wie es die Endung schon verrät, eine gewöhnliche Textdatei. Sie spielt jedoch für Google eine große Rolle. Bevor der Bot von Google die Seite crawlt, sieht er in der Regel nach ob eine robots.txt Datei existiert und welche Informationen sie bereit hält. In der robots.txt Datei sollten im Regelfall alle Verzeichnisse festgelegt sein welche von Google gecrawlt werden sollen und welche nicht.

Hier ist ein Link wie man so eine robots.txt Datei richtig erstellt.  In Zeiten der CMS System ist dies jedoch kaum mehr nötig. Es passiert nur selten, dass es Probleme mit der robots.txt Datei gibt, da System wie WordPress oder Joomla bereits eine angepasste robots.txt Datei mit den Templates ausliefern.

Als kleine Anmerkung sei gesagt, sollte es immer noch Webdesigner geben die mit Flash arbeiten, gibt es eine gute und eine schlechte Nachricht. Die gute Nachricht ist, dass Google mittlerweile jegliche Flash Datei lesen und auch indexieren kann. Die schlechte Nachricht ist, es wird Zeit für eine Umschulung. Flash ist tot! Hier ein paar nette Bespiele wie man Webanimationen mit HTML 5, Canvas und WebGl umsetzt.

Finger weg von Iframes (na gut youtube ist ok)

Iframes sind eigentlich nichts anders als Rahmen, in denen sich Text-, Bild oder Videoinhalte befinden. Iframes können von Google nicht gecrawlt werden und somit auch nicht indexiert werden. Daher sollte auf Iframes in der regel verzichtet werden. Sollte es gar keine Möglichkeit geben auf Iframes zu verzichten besteht noch die Möglichkeit textbasierte Links zu erstellen, die Informationen zu den Iframes anbieten. Diese kann Google dann problemlos indexieren.

Einer der wohl wichtigsten Optimierungsfaktoren ist der Page Speed. Auf diesen werde ich aber erst im zweiten Teil dieses Blogbeitrages genauer eingehen.

Daniel Knoflicek ist seit 2012 Geschäftsführer von Slidebird Webstories, einer Agentur für online Marketing, Webdesign und Webentwicklung. Des Weiteren hat Daniel Knoflicek das Start Up Ernst M. gegründet, welches vegane, bio Marmelade in Österreich herstellet und vertreibt. Er ist als CTO für das Start Up tätig. Seit 2015 und der Gründung von DESK.WORKS ist Daniel Knoflicek als Brand Ambassador für Österreich zuständig.