Heute war es wieder soweit und bei Google wurde eine große Algorithmus-Änderung vorgenommen. Betroffen sind dieses Mal das Ranking in der mobilen Suche und nicht-mobil optimierte Webseiten. Was jetzt neu ist, wie Man(n) dagegen vorgehen kann und auf was in Zukunft geachtet werden sollte, haben wir in unserem Blog zusammengefasst.

Das „Mobilegeddon“ klopft an

Schon vor acht Wochen wurden Überlegungen zu einem Roll-Out im Google Blog bekannt gegeben und heute war es so weit. Die Änderungen sind größer als bisher angenommen und die konkreten Ausmaße werden erst in den nächsten Wochen sichtbar sein. Dieser Schritt seitens Google wurde aufgrund der steigenden Zugriffszahlen über mobile Endgeräte gesetzt. So ist die Prognose für mobile Zugriffe für 2015 ein 400 % Anstieg gegenüber dem Vorjahr.

Einfluss auf das Ranking

Wurde den Webseitenbetreibern bisher nur empfohlen ihre Webseite optimiert für mobile Endgeräte darzustellen, so ist nun der Status Quo, dass das Ranking in den mobilen Suchergebnissen sehr stark davon betroffen sein und somit für nicht-optimierte Seiten zu Verlusten kommen wird. Allerdings soll dieses Ranking keinen Einfluss auf die Suchergebnisse am Desktop haben – zumindest vorerst. Es ist wahrscheinlich auch nur eine Frage der Zeit bis sich diese Rankings und die Suchergebnisse auf YouTube ausweiten, denn immerhin zählt die zweitgrößte Suchmaschine der Welt auch zum Giganten Google.

Eine weitere Vermutung wird von Cindy Krum von MOZ angestellt: Android Nutzer sollen aufgrund der engen Verknüpfung mit Google stärker betroffen sein als iOS User. Außerdem soll die Umstellung des Algorithmus eher für Smartphones als für Tablets gelten.

Bin ich mobile friendly?

Die große Frage lässt sich ganz leicht auf einer Testseite von Google beantworten. Einfach die URL eingeben und die eigene Website checken lassen.

https://www.google.de/webmasters/tools/mobile-friendly

Bewertet wird nicht nur die Startseite, sondern alle Seiten – so werden vor allem zu große Navigationsbuttons, kleine Schriftgrößen und Inhalte in Flash Format abgestraft, also alles, was der User-Interaktion im Weg steht.

Responsive oder mobile Website

Eine fixe Lösung bieten eigene Softwares an, wie beispielsweise unser Infomaster Tool, in denen schnell, einfach und günstig mobile Websites mit Weiterleitungen für mobile Zugriffe erstellt werden können.

Natürlich können auch responsive Seiten angefertigt werden, was vor allem bei größeren Relaunches empfohlen wird – hier gilt immer „mobile first“. Mehr zum Thema „Responsive“ in unserem Blog.

 

Wir freuen uns natürlich auf Fragen, Feedback, Anfragen und helfen gerne bei der Umsetzung von mobilen Webseiten und bieten Hilfestellungen bei allen Fragen rund um Mobile friendly an.

 

Weiterführende Links:

INFOMASTER – Mobile friendly

Der Standard – „Mobilegeddon“

MOZ Blog „Mobile friendly“

Immer häufiger werden die allseits beliebten Open Source Anwendungen wie Joomla, WordPress oder TYPO 3 zur Zielscheibe dreister Hackerattacken und stellen die Themen Sicherheit und Datenschutz im Web damit vor neue Herausforderungen. Doch was ist wichtig und zu beachten? Weiterlesen

Eine Frage, die sich viele Homepage-Betreiber erst stellen, wenn sie sich selbst googeln und ihren Inhalt auf vier verschiedenen Domains angezeigt bekommen oder wenn sie sich gar nicht mehr auf Google finden. Aber was sind die Regeln und Richtlinien betreffend Unique und Duplicate Content und was sollte ich schon im Vorhinein beachten?

Einzigartige und qualitative Inhalte werden von Google positiv bewertet und sind mit das wichtigste Kriterium beim Ranking in den Suchergebnissen. Es tauchen aber auch immer wieder Probleme auf, die unterschiedlicher Natur sein können. Ich habe in diesem Blog die wichtigsten Fehler zusammengefasst:

  • Verwendung von mehreren Domains mit demselben Inhalt
  • Verwendung einer www- und einer Nicht-www-Version ohne Weiterleitung
  • Verwendung einer wichtigen Seite unter mehreren Menüpunkten
  • Verwendung von Texten anderer Websites

Ist das bei uns der Fall und wie finde ich das raus? Ob die Verwendung eines Duplicate Contents vorliegt, ist sehr leicht herauszufinden. Googeln Sie einfach einen bestimmten Satz eines Inhaltes in Anführungszeichen, zum Beispiel: „Wir sehen uns als Full-Service Anbieter mit starker Präferenz zum digitalen Leben.“

Sie sehen dann sofort in den Google/Bing/Yahoo! Suchergebnissen, ob dieser Satz auf mehreren unterschiedlichen URLs verwendet wird oder ob nur eine, im Internet einzigartige, Seite angezeigt wird. Sollten Sie diesen Satz auf mehreren Ergebnissen dargestellt bekommen, so geht es nun an die Fehlersuche.

1. Verwendung von mehreren Domains mit demselben Inhalt

Eines der größten und häufigsten Probleme: Für den Bereich in dem Man(n) oder Frau tätig ist, werden unterschiedliche Domains gekauft, die durch ihre Stichworte relevant sind. Unter jeder Adresse wird nun einfach die Website angemeldet und derselbe Content oder sehr ähnlicher Content ausgegeben.

Ein grober Fehler: Sollten Sie ein- und denselben Inhalt auf mehreren Domains zur Verfügung stellen, so suchen Sie sich die für Sie wichtigste Domain heraus und definieren Sie diese als Ihre Haupt-Website. Alle anderen Domains werden bei der Eingabe durch Interessenten und Kunden auf diese Domain weitergeleitet. Sie verlieren also keine Kunden, sondern Sie leiten diese nur weiter auf Ihre Haupt-Website.

Sollten Sie jedoch mehrere Websites unter verschiedenen Domains mit unterschiedlichen Inhalten betreiben, so müssen Sie auch für jede Website einen eigenen einzigartigen Inhalt produzieren, da Google auch registriert, wenn Inhalte umgeschrieben werden, aber von die Begrifflichkeiten dieselben sind.

2. Verwendung einer www- und einer Nicht-www-Version ohne Weiterleitung

Sollten Sie sowohl eine www-Version Ihrer Website als auch eine Nicht-www-Version haben, so ist eine 301 Weiterleitung/ein Canonical Redirect notwendig. Stellen Sie außerdem sicher, dass es keine https Seiten gibt, die ein Duplikat der http Seiten darstellen, wobei anzumerken ist, dass https Versionen von Google nach den neuesten Gesetzgebungen nicht mehr gecrawlt werden dürfen.

3. Verwendung einer wichtigen Seite unter mehreren Menüpunkten

Vermeiden Sie zwei Seiten anzulegen, die denselben Inhalt haben. Sollten Sie einen Menüpunkt jedoch so wichtig empfinden, das Sie ihn in zwei Aufzählungen drin haben wollen, so erstellen Sie im Backoffice einen Verweis. Jeder Inhalt sollte immer nur unter einer einzigen URL zu finden sein!

4. Verwendung von Texten anderer Websites

Kopieren Sie auch keinen Inhalt von anderen Seiten – schreiben Sie diesen immer deutlich um und fügen Sie einzigartige und auf Ihr Unternehmen bezogene Inhalte hinzu. Alle andere Vorgehensweisen können zu einer Verwarnungen bzw. zu einem schlechteren Ranking seitens der Suchmaschinen führen.
Wenn Sie keinen eigenen Text haben, der einzigartig ist und einen Mehrwert für Kunden, Interessenten und Nutzer darstellt, so verlinken Sie lieber auf eine gute Beschreibung oder lassen Sie sich von einem professionellen Texter Inhalte bereitstellen.

Noch Fragen? Wir von LOGMEDIA stehen immer gerne mit Rat und Tat zur Seite.

Die häufigsten und wichtigsten Fragen meiner Kunden: Warum scheint keine meiner Seiten bei Google auf? Warum findet Google nur einige meiner Seiten? Oder: Warum findet Google Seiten, die nicht gefunden werden sollen? Viele Probleme und eine einfache Lösung in 3 Schritten.

1. Auffindbarkeit

Der erste Schritt beim Überprüfen einer Homepage und deren Sichtbarkeit im Web, ist die Auffindbarkeit in Google zu kontrollieren. Die Sichtbarkeit kann ganz schnell und einfach selbst überprüft werden. Einfach bei Google oder Bing/Yahoo! vorbeischauen und folgendes in die Suche eingeben:

site:domain – zB site:logmedia.at

Die nun in den Suchergebnissen aufscheinenden Seiten sind die Seiten der Homepage, welche bei der Suchmaschine indiziert sind. Sollte keine URL der Domain oder nur ein paar Seiten gefunden werden, dann ganz schnell weiter zu Punkt 2 und zu Punkt 3.

2. Sitemap

Kategorien, Unterkategorien und eine logische Navigation sind nicht nur für die Orientierung des Kunden von Vorteil – eine gute Verzeichnisstruktur ist auch die Grundlage für jede suchmaschinenoptimierte Website. Eine Klicktiefe von maximal vier Klicks sollte nicht überschritten werden und wird auch von den Suchmaschinen kritisch betrachtet.

Die Sitemap stellt die Grundlage für die Suchmaschinen dar, welche Seiten von den Nutzern über Suchanfragen gefunden werden. Deswegen muss Man(n)/Frau die Sitemap auch bei den Webmaster Tools der jeweiligen Suchmaschine eingereicht werden – ich empfehle für Europa immer Google und Bing/Yahoo!. Wenn neue Seiten auf der Homepage hinzugefügt werden, sollte die Sitemap aktualisiert oder neu generiert und im Anschluss erneut in den Webmaster Tools hochgeladen werden um eine Sichtbarkeit zu garantieren.

Eine Sitemap wird entweder automatisch über das verwendete CMS generiert oder durch eine der zahlreichen Gratis-Tools im Internet. Die Sitemap wird als .xml Datei im Root-Verzeichnis gespeichert und ist über folgende URL abrufbar:

www.domain.at/sitemap.xml

3. Robots.txt

Was soll gesehen werden? Welche Seiten vom Index der Suchmaschine erfasst werden sollen und welche verborgen bleiben, können in der sogenannten robots.txt bestimmt werden. Vor allem gesicherte Bereich werden vor der Suchmaschine verborgen, hierzu zählen Adminbereiche, Warenkörbe, Mitgliederbereiche usw.

Die robots.txt Datei kann entweder direkt in einer eigenen Datei im Hauptverzeichnis gespeichert werden oder in den Webmaster Tools eingegeben werden. Eine robots.txt kann wie folgt aussehen:

www.domain.at/robots.txt

oder

User-agent: *
Disallow: /admin/
Disallow: /login/

 

Das war’s auch schon – 3 Schritte und die Website wird von Google & Co. gefunden. Noch Fragen? Dann einfach ran an die Tasten oder ans Telefon – ich bzw. wir von LOGMEDIA helfen gerne weiter.