Blog von LOGMEDIA

Intent Matching SEO

Technischer SEO-Check oder „Warum werde ich von den Suchmaschinen nicht gefunden?“

Mag. Andrea Widmann | 17. 03. 2014 | Blog, IT / Technik

Die häufigsten und wichtigsten Fragen meiner Kunden: Warum scheint keine meiner Seiten bei Google auf? Warum findet Google nur einige meiner Seiten? Oder: Warum findet Google Seiten, die nicht gefunden werden sollen? Viele Probleme und eine einfache Lösung in 3 Schritten.

1. Auffindbarkeit

Der erste Schritt beim Überprüfen einer Homepage und deren Sichtbarkeit im Web, ist die Auffindbarkeit in Google zu kontrollieren. Die Sichtbarkeit kann ganz schnell und einfach selbst überprüft werden. Einfach bei Google oder Bing/Yahoo! vorbeischauen und folgendes in die Suche eingeben:

site:domain – zB site:logmedia.at

Die nun in den Suchergebnissen aufscheinenden Seiten sind die Seiten der Homepage, welche bei der Suchmaschine indiziert sind. Sollte keine URL der Domain oder nur ein paar Seiten gefunden werden, dann ganz schnell weiter zu Punkt 2 und zu Punkt 3.

2. Sitemap

Kategorien, Unterkategorien und eine logische Navigation sind nicht nur für die Orientierung des Kunden von Vorteil – eine gute Verzeichnisstruktur ist auch die Grundlage für jede suchmaschinenoptimierte Website. Eine Klicktiefe von maximal vier Klicks sollte nicht überschritten werden und wird auch von den Suchmaschinen kritisch betrachtet.

Die Sitemap stellt die Grundlage für die Suchmaschinen dar, welche Seiten von den Nutzern über Suchanfragen gefunden werden. Deswegen muss Man(n)/Frau die Sitemap auch bei den Webmaster Tools der jeweiligen Suchmaschine eingereicht werden – ich empfehle für Europa immer Google und Bing/Yahoo!. Wenn neue Seiten auf der Homepage hinzugefügt werden, sollte die Sitemap aktualisiert oder neu generiert und im Anschluss erneut in den Webmaster Tools hochgeladen werden um eine Sichtbarkeit zu garantieren.

Eine Sitemap wird entweder automatisch über das verwendete CMS generiert oder durch eine der zahlreichen Gratis-Tools im Internet. Die Sitemap wird als .xml Datei im Root-Verzeichnis gespeichert und ist über folgende URL abrufbar:

www.domain.at/sitemap.xml

3. Robots.txt

Was soll gesehen werden? Welche Seiten vom Index der Suchmaschine erfasst werden sollen und welche verborgen bleiben, können in der sogenannten robots.txt bestimmt werden. Vor allem gesicherte Bereich werden vor der Suchmaschine verborgen, hierzu zählen Adminbereiche, Warenkörbe, Mitgliederbereiche usw.

Die robots.txt Datei kann entweder direkt in einer eigenen Datei im Hauptverzeichnis gespeichert werden oder in den Webmaster Tools eingegeben werden. Eine robots.txt kann wie folgt aussehen:

www.domain.at/robots.txt

oder

User-agent: *
Disallow: /admin/
Disallow: /login/

 

Das war’s auch schon – 3 Schritte und die Website wird von Google & Co. gefunden. Noch Fragen? Dann einfach ran an die Tasten oder ans Telefon – ich bzw. wir von LOGMEDIA helfen gerne weiter.





MENU