SEO Märchen 2016 – Diese 7 SEO Märchen stimmen schon lange nicht mehr

Wer heutzutage immer noch denkt, er müsse seine Webseite bei Google & Co. einreichen, liegt leider falsch. Es ist natürlich möglich eine gänzlich neu erstellte Webseite in der Google Search Console einzureichen, Google ist das aber herzlichst egal. Alleine die Crawler bzw. Spiders entscheiden welche Seiten indexiert werden. Man hat als Webmaster natürlich die Möglichkeit, Seiten welche nicht indexiert werden sollen, in der robots.txt zu definieren. Dies macht dann Sinn, wenn es Seiten sind die nicht gefunden werden sollen oder sich negativ auf das Ranking auswirken könnten.

Speziell bei WordPress Seiten ist eine manuelle Anpassung der automatisch erstellten digitalen robots.txt empfehlenswert. Viele WordPress Verzeichnisse und Seiten bieten keinen Mehrwert für den User uns sollten somit nicht indexiert werden. Ein Beispiel für eine optimierte robots.txt würde so aussehen.

User-agent: *

Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /comments/
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /trackback/
Disallow: /feed/

Sitemap: https://slidebird.comsitemap.xml

Speziell automatisch angelegte Trackback-, Kommentar- und Feedseiten sollten ausgeschlossen werden. Auch der Pfad zur Sitemap sollte hinterlegt sein. Nicht vergessen die eigene URL anzuspassen 😉

Für alle die es von dem Google Guru himself hören möchten, hier ist ein Zitat von Matt Cutts welches die ganze Idee hinter der Indexierung ganz gut verdeutlicht.

When you do a Google search, you aren’t actually searching the web. You’re searching Google’s index of the web, or at least as much of it as we can find. We do this with software programs called spiders. Spiders start by fetching a few web pages, then they follow the links on those pages and fetch the pages they point to; and follow all the links on those pages, and fetch the pages they link to, and so on, until we’ve indexed a pretty big chunk of the web; many billions of pages stored on thousands of machines.” – Matt Cutts in Lesson 1.3 of How Search Works

Märchen #2: SSL Verschlüssung ist nicht relevant für die Suchmaschinenoptimierung

Das Secure Socket Layer (SSL) ist ein Protokoll zur Authentifizierung und Verschlüsselung von Internetverbindungen. Das SSL-Protokoll kann in Verbindung mit dem Simple Mail Transfer Protocol (SMTP), E-Mail, Telnet, dem FTP-Protokoll und Hypertext Transfer Protocol (HTTP), bzw. HTTPS eingesetzt werden und setzt auf TCP/IP auf. Der Datenaustausch findet beim SSL-Protokoll auf der Transportschicht statt. Sobald beide Kommunikationspartner über eine SSL-Verbindung in Kontakt, kann die Verbindung weder abgehört noch kann die Datenübertragung manipuliert werden. – Quelle: IT Wissen

HTTPS Seiten erkennt man ganz einfach an dem zusätzichen “s” nach http in der Adresszeile des Browsers. Zur Zeit finden sich SSL Verschlüsselungen hauptsächlich noch im Zahlungsverkehr oder bei sehr sensiblen Kundendaten. Bereits vor 2 Jahren hat Google verkündet, dass es die SSL Verschlüsselung in den ranking Algorithmus mit aufnehmen wird. Somit kann es sein, dass Seiten ohne das https Protokoll sich im Ranking verschlechtern.

Wer nun aufmerksam in die Adresszeile des Browsers sieht, wird bemerken, dass unsere Seite ebenfalls nicht SSL verschlüsselt ist. Wir werden in den kommenden Monateb die SSL Zertifizierung für unsere Seite umsetzen und auch einen ausführlichen Beitrag dazu veröffentlichen auf was es aufzupassen gilt, wo es SSL Zertifkate günstig bzw. umsonst gibt und was man speziell SEO technisch beachten muss. Also lieber unseren Newsletter abonnieren, damit Ihr den Beitrag nicht verpasst.

Märchen #3: Meta Descriptions haben eine Auswirkung auf das Ranking

Dieses Märchen ist vermutlich das weit verbreitetste überhaupt. Für alle die nicht wissen was Meta Descriptions sind hier ein Auszug aus dem Snippet der Slidebird Startseite.

meta decription optiieren suchmaschinenoptimierung

Die Meta Description ist der Teil im Suchergebnis, welcher die Webseite beschreibt in max. 156 Zeichen bzw. ungefähr 500 Pixel. Ich denke dieses Märchen hält sich schon so lange, weil es eigentlich Sinn machen würde, dass Google die Meta Description in das Ranking mit auf nimmt. Tja, ist aber NICHT so. Bereits 2009 verkündetet Google das die Meta Description ebenso wie die “meta Keywords” keine Auswirkungen auf das Ranking haben. Aber VORSICHT die Meta Description ist sehr wohl relevant für SEO im Bezug auf die CTR (Click Trough Rate) der Suchergebnisse. Denn wenn man eine gut durchdachte und auffällige Meta Description hat, ist die wahrscheinlichkeit höher, dass die Suchenden auch tatsächlich darauf klicken. Denn das beste Ranking bringt nichts wenn es nicht angeklickt wird. Darüber hinaus war die CTR in 2015 einer der TOP Ranking Faktoren für Google.

Infografik Ranking-Faktoren 2015

Es gibt einige Tipps & Tricks wie man die CTR der Meta Description erhöht. Allgemein kann man sagen, die Meta Description sollte einem guten Werbetext entsprechen. Sie sollte den USP der Zielseite hervorheben bzw. klar die Relevanz klar machen, eine Call to Action sollte sich in der Meta Description finden und auch Feinheiten wie Wörter groß schreiben oder auch Produktbewertungen in Rich Snippets machen einen erheblichen Unterschied aus.

Wer sich weiter oben unsere Meta Description im Screenshot angesehen hat, dem sind vielleicht die Checkmarks aufgefallen. Dies sind UTF8 Zeichen und können ebenfalls benutzt werden. Aber Vorsicht, nicht übertreiben, sonst gibts ärger mit Google.

Märchen #4: Keyword Optimierung ist das WICHTIGSTE für SEO

Ich betreibe nun seit über 5 Jahren Suchmaschinenoptimierung für eine Vielzahl von Kunden. War es früher noch so, dass man einzelne Seiten auf bestimme Keywords optimiert hat so versucht Google schon lange einen holistischen Ansatz zu finden und auf das Ranking umzulegen.

Bereits 2004 hat Google die LSI (latent semantic indexing) Methode entwickelt und hat seidem diese Indexierungsart mehr und mehr in die eigenen Algorithmen eingebaut. Mit dieser Indexierungsmethode wir die gesamte Webseite holistisch betrachtet und Google versucht die Relevanz der einzelnen Seiten anhand des gesamten Contents zu definieren. Google benutzt hierfür auch Synonyme der Keywords  und verwandte Wortgruppen.

Warum ist das nun so wichtig? Der Fokus verlagert sich immer mehr hin zur User Experience und der Relevanz einer Seite. Es ist nun wichtiger als je zuvor seine Inhalte für den User zu schreiben und nicht für Google.

Märchen #5: Je mehr Seiten desto besser

In the past, SEO was all about manipulating data and keywords to gain search engine rankings. However with the leak of Google’s Quality Rating Guide back in August, it has become crystal clear that modern SEO is all about adding quality rather than quantity. We shifted our entire content marketing strategy to be about the user, creating engaging content that compels our audience to take action. – Phil Laboon, Eyeflow Internet Marketing

Wie wir bereits im ersten Märchen gehört haben, wird nicht jede Seite indexiert, so sehr wir dies auch gerne hätten. Google entscheidet dies immer noch alleine. Berücksichtigt man diese Tatsache, so wird einem schnell klar, dass es keinen Sinn macht unzählige Seiten mit wenig oder irrelevanten Inhalt hochzuladen.

In der Regel haben die Webseiten mit den meisten Unterseiten nicht gerade den hochwertigsten Inhalt. Es ist weitaus leichter eine kleine Anzahl an Seiten zu optimieren und qualitativ hochwertigen Content bereitzustellen als für eine Unmenge an Seiten. Das in 2011 veröffentlichte Panda Update ist mittlerweile sehr gut darin schlechten Inhalt zu identifizieren. Hauptgefahr ist hierbei ebenfalls die holistische Betrachtung der Gesamtseite. So kann es durchaus sein, dass Seiten die hochwertigen Content haben, abgestraft werden da es zu viele Seiten mit schlechten Inhalt gibt.

Märchen #6: Google weiß nicht ob schlechte Seiten auf mich verlinken

Google weiß alles! Und speziell kennt Google die Linkstruktur jeder Seite. Die meisten Seiten kennen leider ihr eigenes Linkprofil nicht. Wenn man eine Vielzahl an Links von negativ bewerteten Seiten erhält, so wirkt sich dies definitiv, negativ  auf das Ranking der eigenen Seite aus. Wenn man weiß welche negativen Seiten auf einen verlinken so kann man diese recht einfach in der Google Search Console “verleugnen”. Hier findet sich eine hilfreiche Anleitung wie man das ganze in der Search Console einrichtet.

Märchen #7: Bilder muss man nicht wirklich optimieren

In den vergangen Jahren wurden Bilder doch leicht stiefmütterlich behandelt. Man konnte durchaus auf Alt-Tags und optimierte Dateinamen verzichten und konnte immer noch gut ranken. Es dürfte bekannt sein, das Suchmaschinen, Bilder nicht lesen können und somit auf eine Beschreibung des Bildes angewiesen sind, den sogenannten Alt-Tag und bestenfalls auch noch einen Dateinamen der das Bild gut beschreibt. Ein weiterer nicht sehr populärer Tipp ist es, die Bilder im Text mit den ähnlichen Keywords wie im Alt-Tag zu erwähnen und darauf hinzuweisen. Dies hilft Google ebenfalls die Bilder zu erkennen.

Das Dateiformat sollte  BMP, GIF, JPEG, PNG, WebP oder SVG sein. Alle anderen Dateiformate kann Google nicht indexieren.

Beispiel guter Alt-Tag bzw. Dateiname: “Gelbe Sonnenblume im Garten”

Beispiel schlechter Alt-Tag bzw. Dateinamen: “IMG87875640.jpg”

Dies kann speziell bei SEO-Plugins in WordPress zum Problem werden, die den Dateinamen automatisch in den Alt-Tag eintragen.

daniel knoflicek

Daniel Knoflicek ist seit 2012 Geschäftsführer von Slidebird Webstories, einer Agentur für online Marketing, Webdesign und Webentwicklung. Des Weiteren hat Daniel Knoflicek das Start Up Ernst M. gegründet, welches vegane, bio Marmelade in Österreich herstellet und vertreibt. Er ist als CTO für das Start Up tätig. Seit 2015 und der Gründung von DESK.WORKS ist Daniel Knoflicek als Brand Ambassador für Österreich zuständig. Seine Funktion ist die Betreuung und Koordination der österreichischen Co-Working-Spaces.

MEHR VON UNSEREN LEISTUNGEN

Slidebird Webdesign & Online Marketing devider

Schreibe einen Kommentar