SEO-Basics für Programmierer

Wenig Aufwand, hohe Sichtbarkeit: SEO-Basics für Programmierer Teil 1

Die Grundlagen der OnPage-Optimierung kennt jeder Profi aus dem Online-Marketing-Bereich. Sauber aufbereitete Inhalte sind die beste Voraussetzung, um auf wichtige Keywords gut zu ranken. Wer geschickt ist, legt jedoch schon in der Entwicklung die Grundlagen für hohe Sichtbarkeit: Eine optimal programmierte Website lässt sich gezielter crawlen. Wer technische Standards vernachlässigt, verschenkt SEO-Potenzial! Wir zeigen die wichtigsten Maßnahmen der technischen OnPage-Optimierung.

1. Hinterlegen Sie eine robots.txt

Die robots.txt ist eine Textdatei mit Anweisungen für die Crawler. Sie muss im Rootverzeichnis hinterlegt sein, wenn bestimmte Bereiche der Domain von Suchmaschinen nicht gelesen werden sollen. Die Links der Suchergebnisseiten sollten immer so programmiert sein, dass der Suchmaschinen-Bot ihnen folgen kann. Mit einer entsprechenden Anweisung in der robots.txt beschränken Sie den Crawlingvorgang auf wichtige URLs mit echtem Mehrwert. Übrigens können Sie unerwünschten Crawlern das Lesen der Seite mit einer Anweisung auch untersagen. Vergessen Sie außerdem nicht, einen Verweis auf die Sitemap einzufügen, um dem Crawler das Verständnis der Seite und ihrer Hierarchien zu erleichtern.

Eine robots-txt für einen Online-Shop kann beispielsweise so aussehen:

    # robots.txt zu www.beispielshop.de/

    Sitemap: www.beispielshop.de/sitemap.xml

    # prevent crawling of search (results)

    User-Agent: *

    Disallow: /catalogsearch

    Disallow: /*?q=

    Disallow: /*.ff?

    #prevent crawling of Store-Switch and sort by        

    Disallow: /switch/store/to/code

    Disallow: /*?mode=

    Disallow: /*?dir=

    # prevent crawling of gallery images

    Disallow: /catalog/product/gallery/id

2. Beheben Sie 404-Fehlermeldungen zeitnah

Es kommt immer wieder vor, dass an der einen oder anderen Stelle 404-Fehler auftreten. Identifizieren Sie diese regelmäßig mit OnPage-Analyse-Tools wie z. B. dem Google Webmaster-Tool, um sie zeitnah zu beheben. Richten Sie nach einem Relaunch oder Änderung der URL-Struktur für jeden Link eine Weiterleitung ein, die auf die entsprechende Seite bzw. zu einem inhaltlich ähnlichen Angebot auf der neuen Domain führt. Wenn es keine inhaltlich passende URL gibt, kann eine Weiterleitung auf die Startseite eingerichtet werden.

Hinterlegen Sie in jedem Fall eine individuelle Default-404-Seite – das hält den Userfrust gering. Dasselbe gilt auch für alle anderen Fehlercodes. Achten Sie außerdem darauf, dass Statusmeldungen des Servers korrekt ausgegeben werden: Je präziser ein Problem durch einen speziellen Fehlercode zugewiesen werden kann, desto besser.

3. Vermeiden Sie Duplicate Content

Um Content-Diebstahl  vorzubeugen und Websites mit einzigartigen Inhalten besser zu würdigen, werten Suchmaschinen Duplicate Content schlechter als unique Inhalte. Sowohl Textduplikate auf zwei unterschiedlichen Domains als auch gleiche Inhalte auf zwei unterschiedlichen URLs derselben Domain sind problematisch. In der Praxis kann das so aussehen: Angenommen, eine Seite mit individuell erstellter, einzigartiger Produktbeschreibung erzielt eine gute Platzierung in den Suchergebnissen. Wird derselbe Text jetzt unter einer neuen URL, z. B. für eine zusätzliche Angebotsseite publiziert, kann es vorkommen, dass die Rankings der Originalseite fallen. Der Suchmaschinenbot kann nicht mehr entscheiden, welches das relevantere Suchergebnis ist.

Solche Probleme sollten Sie bereits bei der Entwicklung vermeiden: Verweisen Sie durch das sogenannte „Canonical-Tag“  (Canonical-URL im Link-Tag) im Head des HTML-Dokuments auf die relevantere Original-Seite mit identischen Inhalten. Fehlende oder falsch gesetzte Canonical Tags (z. B. durch automatische Vergabe für jede neue Seite) können sich negativ auf die Suchmaschinenperformance auswirken und zählen zu den häufigeren OnPage-Fehlern.

Beispiel:

<link rel=“canonical“ href=“http://www.beispielshop.de/12345xyz.html“ />

4. Erklären Sie dem Crawler logische Beziehungen

Richtige Seiten für die richtige Zielgruppe: Ein neuer Online-Shop für den internationalen Markt wird in der Regel mit uniquen Inhalten in der jeweiligen Landessprache gefüllt. In Ausnahmefällen kann ein Großteil des vorhandenen Contents jedoch übernommen werden, z. B. wenn ein deutsches Unternehmen den österreichischen Markt erschließen oder deutschsprachige Communities in Spanien erreichen will. Weisen Sie das neue Angebot per href-language Tag (Link-Tag mit Angaben zu alternativen Inhalten) im Head des ursprünglichen Online-Shops als alternative, regionale Version aus. Damit teilen Sie dem Crawler die logische Beziehung zwischen beiden Websites mit, er wird die übernommenen Inhalte nicht als Duplicate Content werten.

Beispiel für Ausweisung der spanischen Version eines deutschen Online Shops:

<link rel=“alternate“ hreflang=“es“ href=“http://es.beispielshop.de/“ />

Aber noch wichtiger: Durch diese logische Beziehung können Google & Co. Usern der Zielregionen die passende Seite bereits in den Suchergebnissen anbieten. So bekommen User aus Spanien die spanische Seite angeboten und User aus Deutschland die deutsche Version.

Gibt es Ihre Website oder Ihren Shop in verschiedenen Versionen für unterschiedliche Bildschirmauflösungen, z. B. eine Desktop- und eine Smartphone-Variante? Hinterlegen Sie auch in diesem Fall die logische Beziehung zwischen den Seiten im Head. Dadurch kann Google in den Suchergebnissen die richtige Seite für entsprechende Usergruppen anzeigen und Sie vermeiden das Duplicate Content-Problem.

Eine vordere Position in den Suchergebnissen von Google & Co. ist Voraussetzung, um langfristig Erfolg mit Ihrer Website zu haben. Mit der Optimierung Ihrer SEO-Aktivitäten erhöhen Sie nicht nur Ihre Sichtbarkeit und steigern den Traffic auf Ihrer Website. Mit einem optimalen Google-Ranking können Sie letztlich auch Ihren Umsatz verbessern.

In unserem zweiten Beitrag zum Thema Technische OnPage-Optimierung geht es u. a. um Fehlermonitoring und -tracking sowie die Optimierung von Sitemaps, URLs und Metadaten.

Nützliche Links zur OnPage-Optimierung:

robots.txt

http://www.robotstxt.org/

https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt?hl=de

Duplicate Content

https://support.google.com/webmasters/answer/139066?hl=de

Logische Beziehungen

https://support.google.com/webmasters/answer/189077?hl=de

25. Juli 2014

Über den Autor

Torsten Vogler ist Experte für Content-Marketing und seit 2013 Online-Redakteur bei VOTUM. Für Fokus E-Commerce schreibt er regelmäßig über aktuelle Themen aus der Branche.
Alle Artikel des Autors

  • Torsten Vogler
  • Online-Redakteur
  • 030-284-726400