Technisches SEO Campixx 2015 - Knut Barth und Matthias Plankl
1. SEOCampixx 2015 – Technisches SEO| Seite 1
Technisches SEO
bekommt wieder zunehmend Bedeutung
2015
Knut Barth + Matthias Plankl
2. SEOCampixx 2015 – Technisches SEO| Seite 2
Kurze Vorstellung
Mein Name: Knut Barth
l 46 Jahre alt (gefühlte 35)
l Wohnort: Coburg
l Dipl.-Betriebswirt (FH), Schwerpunkt Marketing
l Seit 8 Jahren bei BAUR
l Seit 4 Jahren bei Octobo, Abteilungsleiter
l Speaker bei der SEOCampixx, SMX
l Gastdozent an der FH Coburg
l Google Advertsing Professional
l Google Analytics Qualified
l Private Hobbies: Triathlon, Jagd, Poolbillard
3. SEOCampixx 2015 – Technisches SEO| Seite 3
Kurze Vorstellung
Mein Name: Matthias Plankl
l 31 Jahre jung
l Wohnort: Grafenwöhr
l IT-System-Kaufmann und Medienfachwirt
l Seit 13 Jahren im E-Commerce Umfeld
l 4 Jahre bei einer Onlineagentur (Onlineshops als ASP)
l 5 Jahre bei einem regionalen Verlag im Onlineteam
l Seit 4 Jahren SEO bei BAUR/octobo
6. SEOCampixx 2015 – Technisches SEO| Seite 6
• Crawler untersuchen das Web automatisiert
• Über Verweise gelangen diese zu neuen Dokumenten
• Erfassen neue und geänderte Dokumente
• Es gibt nicht nur einen Crawler, sondern mehrere
• Crawler arbeiten häufig parallel
• Crawler arbeiten rund um die Uhr und zeitgesteuert
Crawling
7. SEOCampixx 2015 – Technisches SEO| Seite 7
Das Thema Logfile Analyse wird immer wichtiger, um zu wissen:
• welche URL´s der Google Bot crawlt
• wann er crawlt
• wie lange er crawlt
• wie der Crawler in welcher Reihenfolge crawlt
• welche Auffälligkeiten oder Fehler auftreten
Crawling
Tool Tip: Splunk
8. SEOCampixx 2015 – Technisches SEO| Seite 8
Fallstricke für die Indexierung
9. SEOCampixx 2015 – Technisches SEO| Seite 9
Die Robots.txt kann Suchmaschinen das Crawling erlauben (allow) und verbieten
(disallow)
Aber: Crawling und Indizierung sind nicht das gleiche. Wenn eine Seite bereits
indiziert wurde und man diese danach in der robots.txt sperrt, bleibt die Seite Index
und wird nur nicht mehr gecrawlt.
10. SEOCampixx 2015 – Technisches SEO| Seite 10
User-agent: Googlebot
Disallow:
User-agent: Googlebot
Disallow: /
User-agent: *
Disallow: /beispiel-verzeichnis/
User-agent: googlebot
Disallow: /beispiel-verzeichnis/
Disallow: /beispiel-verzeichnis-2/
Disallow: /beispiel-datei.html
Nichts für das Crawling sperren
Alles für das Crawling sperren –
der Klassiker wenn eine Seite
nicht in den Index gelangt
Ein Verzeichnis für das Crawling
sperren
Zwei Verzeichnisse und eine Seite
für das Crawling sperren
User-agent: Googlebot
Allow: /
Nichts für das Crawling sperren
Robots.txt Beispiele
11. SEOCampixx 2015 – Technisches SEO| Seite 11
Crawling Probleme durch robots.txt
JavaScript und CSS nicht mehr per robots.txt blockieren
12. SEOCampixx 2015 – Technisches SEO| Seite 12
Crawling in den Webmaster Tools prüfen
14. SEOCampixx 2015 – Technisches SEO| Seite 14
<meta name="ROBOTS"
content=„index,follow"/>
<meta name="ROBOTS"
content=„noindex,follow"/>
<meta name="ROBOTS"
content=„noindex,nofollow"/>
Indexierung erlaubt (Index) und
allen Links auf der Seite folgen
(Follow)
<meta name="ROBOTS"
content=„index,nofollow"/>
Meta Tag Robots Beispiele
Indexierung erlaubt (Index) und
keinem Link auf der Seite folgen
(Nofollow)
Indexierung verboten (Noindex)
und allen Links auf der Seite folgen
(Follow)
Indexierung verboten (Noindex)
und keinem Link auf der Seite
folgen (Nofollow)
15. SEOCampixx 2015 – Technisches SEO| Seite 15
Meta Tag Robots
• Ob eine URL (vollständig) indexiert wird, hängt von der
robots-Instruktionen ab
• Einfluss darauf, ob ein Dokument über die Suche gefunden
werden soll, nimmt man über Meta Robots oder X-Robots
mit der Angabe „Noindex“
• X-Robots ist für nicht HTML-Dokumente (wie PDFs)
gedacht, da dort keine Meta Robots Angaben möglich sind
16. SEOCampixx 2015 – Technisches SEO| Seite 16
Meta Tag Robots Beispiele
<!DOCTYPE html>
<html><head>
<meta name="robots" content=„index,follow" />
(…)
</head>
<body>(…)</body>
</html>
Wichtig:
Das Meta Tag muss im „Head“ Bereich der
Webseite liegen, sonst funktioniert es nicht!
18. SEOCampixx 2015 – Technisches SEO| Seite 18
X-Robots Beispiele
Siehe auch:
https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Kommt selten vor und wird selten geprüft, da
nicht sehr bekannt
19. SEOCampixx 2015 – Technisches SEO| Seite 19
X-Robots Beispiele
Gut geeignet, wenn man eine Seite ohne HTML
Code für das Indizieren sperren möchte, z.B.
Bilder, PDF´s oder XML Dateien
Tool Tipp:
https://urivalet.com/
21. SEOCampixx 2015 – Technisches SEO| Seite 21
Server Header Beispiele
Der Server Header Code einer „normalen“
Webseite lautet: 200
Tool Tipp:
https://urivalet.com/
22. SEOCampixx 2015 – Technisches SEO| Seite 22
Server Header Beispiele
Weitere Infos: http://de.wikipedia.org/wiki/HTTP-Statuscode
• Wenn Ihr eine alte URL auf die neue URL umleitet, dann achtet darauf,
dass es mit einer 301 Umleitung erfolgt und nicht mit einer 302 Umleitung
24. SEOCampixx 2015 – Technisches SEO| Seite 24
Canonical Tag Beispiele
Wird verwendet, wenn Inhalte mehrfach verwendet werden oder eine eindeutige
URL technisch nicht möglich ist, z.B. bei URLs mit Parametern
Beispiel 1
http://www.deinedomain.de/hosen&p=2&trackingcode=affiliate
Canonical Tag:
http://www.deinedomain.de/hosen
Beispiel 2
http://www.deinedomain.de/hosen&p=2&trackingcode=affiliate
Canonical Tag:
http://www.deinedomain.de
Ok,
verweist
auf die
korrekte
URL
Nicht ok,
verweist auf
falsche URL
und wird somit
deindexiert
(meistens)
Wichtig: cas canoncial Tag muss im Head Bereich stehen und es sollte absolute
URLs besitzen und keine relativen
27. SEOCampixx 2015 – Technisches SEO| Seite 27
Google Webmaster Tools
Es gibt eine Fülle an wichtigen Tools in den GWT, die ein SEO permanent
benutzen sollte
28. SEOCampixx 2015 – Technisches SEO| Seite 28
Google Webmaster Tools
Beispiel: wieviele URLs hat Google indiziert?
Stimmt das mit der Webseite überein oder gibt es ein DC Problem?
29. SEOCampixx 2015 – Technisches SEO| Seite 29
Google Webmaster Tools
Hat Google die richtigen Keywords erkannt?
30. SEOCampixx 2015 – Technisches SEO| Seite 30
Google Webmaster Tools
Wo gibt es Crawling Fehler?
31. SEOCampixx 2015 – Technisches SEO| Seite 31
Google Webmaster Tools
Immer im Auge behalten und Probleme fixen
32. SEOCampixx 2015 – Technisches SEO| Seite 32
Google Webmaster Tools
Wo hat der Crawler Probleme
beim rendern?
33. SEOCampixx 2015 – Technisches SEO| Seite 33
Google Webmaster Tools
Ist die robots.txt ok?
35. SEOCampixx 2015 – Technisches SEO| Seite 35
XML Sitemap
XML Datei mit allen URLs der Webseite + Zusatz Infos
36. SEOCampixx 2015 – Technisches SEO| Seite 36
XML Sitemap
Info´s zur Sitemap: https://support.google.com/webmasters/answer/156184?hl=de
Macht Google das Crawling einfacher
38. SEOCampixx 2015 – Technisches SEO| Seite 38
URL Aufbau
Dynamische URLs sind der natürliche Feind eines Suchmaschinenoptimieres.
Wir finden diese häufig bei:
• CMS Systemen
• Page ID
• Sprachkennzeichen
• Shop-Systemen
• Session ID
• Pagination
• Filter
• Sortierung
• Fehlende URL Konvention
39. SEOCampixx 2015 – Technisches SEO| Seite 39
URL Aufbau
Für den Programmierer ist alles gut, denn die
Seite funktioniert ja.
40. SEOCampixx 2015 – Technisches SEO| Seite 40
URL Aufbau
Für den SEO ist aber gar nichts gut, denn jeder neue Parameter in einer URL oder
eine andere Reihenfolge der Parameter erzeugen eine neue URL.
URLs gone wild
41. SEOCampixx 2015 – Technisches SEO| Seite 41
URL Aufbau
Und eine neue URL für ein und die selbe Seite, erzeugt duplicate Content.
Original URL
http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite
Duplicate URLs
http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite
http://www.onlineshop-domain.com/produktseite/produktdetailseite
http://www.onlineshop-domain.com/kategorie/produktdetailseite
http://www.onlineshop-domain.com/produktdetailseite
http://www.onlineshop-domain.com/produktdetailseite&lang=de&posref=112
http://www.onlineshop-domain.com/kategorie/produktseite/
produktdetailseite&lang=de&posref=112
http://www.onlineshop-domain.com/produktseite/
produktdetailseite&lang=de&posref=112
http://www.onlineshop-domain.com/kategorie/
produktdetailseite&lang=de&posref=112
http://www.onlineshop-domain.com/produktdetailseite&lang=de&posref=112
....
Hinweis: das canonical Tag kann hierbei helfen, wenn aber nicht, dann habt Ihr ein
echtes Problem
42. SEOCampixx 2015 – Technisches SEO| Seite 42
URL Aufbau
Und mit duplicate Content rankt eine Seite in Google schlechter oder gar nicht
mehr.
43. SEOCampixx 2015 – Technisches SEO| Seite 43
URL Aufbau
Ein möglicher, idealer URL Aufbau wäre zum Beispiel:
URL ohne Parameter
http://www.onlineshop-domain.com
http://www.onlineshop-domain.com/kategorie
http://www.onlineshop-domain.com/kategorie/produktseite
URL mit Parameter
http://www.onlineshop-domain.com#&AffiliatePartner=1112
http://www.onlineshop-domain.com/kategorie#&AffiliatePartner=1112
http://www.onlineshop-domain.com/kategorie/produktseite#&AffiliatePartner=1112
....
Strukturierter Aufbau
Parameter hinter einem #
45. SEOCampixx 2015 – Technisches SEO| Seite 45
Paginationsseiten
Unter Pagination (deutsch: Seitennummerierung) versteht man die Verknüpfung
von Online-Inhalten, die auf mehreren Seiten dargestellt werden.
46. SEOCampixx 2015 – Technisches SEO| Seite 46
Paginationsseiten
Original Seite
http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite
Paginationseiten:
http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite
?Level1=sh471022&loadcategories=0&ProductPage=1
.
.
.
http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite
?Level1=sh471022&loadcategories=0&ProductPage=70
Paginationsseiten erzeugen große Mengen an Seiten mit duplikaten Meta Tags
47. SEOCampixx 2015 – Technisches SEO| Seite 47
Paginationsseiten
Original Seite:
Meta Tag Robots: index,follow
Paginationseiten:
Meta Tag Robots: noindex,follow
<link rel="prev" href="http://www.onlineshop-domain.com/kategorie?
Level1=sh471022&loadcategories=0&ProductPage=54"/>
<link rel="next" href="http://www.onlineshop-domain.com/kategorie?
Level1=sh471022&loadcategories=0&ProductPage=56"/>
Lösung des Problems mit Paginationsseiten
Beispiel: Du bist auf Seite 55
49. SEOCampixx 2015 – Technisches SEO| Seite 49
Das hreflang-Tag dient zur Lokalisierung von Dokumenten im Google-Index und besteht aus
einem Tag + ISO-Code für die Sprache und das Land.
Wo wird es technisch eingesetzt?A
§ HTML-Head
§ XML-Sitemap
§ Als “<link>”-Tag mit der Erweiterung hreflang
§ Muss den ISO-Sprachcode und Ländercode enthalten
§ Kann auch als Generialisierung eingesetzt werden (z.B. eine Webseite für DE / AT / CH oder
das Dokument sollen in allen übrigen Ländern erscheinen)
<link rel=“alternate” hreflang=“x-default” href=“http://www.example.com”/>
Hreflang-Tag
BeispielB
<link rel="alternate" hreflang="de-DE" href="http://www.example.com/"/>
<link rel="alternate" hreflang="fr-FR" href="http://www.example.com/fr/"/>
<link rel="alternate" hreflang="de-CH" href="http://www.example.com/ch/"/>
<link rel="alternate" hreflang=„de-AT" href="http://www.example.com/at/"/>
51. SEOCampixx 2015 – Technisches SEO| Seite 51
Welche Meta-Tags versteht Google?A
<html>
<head>
…
<title>Der Titel der Seite</title>
<meta name="description„ content="Eine Beschreibung der Seite" />
<meta name="robots„ content=„index,follow" />
<meta name="google" content="nositelinkssearchbox"/>
<meta name="google" content="notranslate" />
<meta name="google‐siteverification" content=„filename.html" />
<meta http‐equiv="Content‐Type" content="...;charset=..." />
...
</head>
<body></body>
</html>
Meta-Tags
Content ValueB
Title: Länge ca. 55 Zeichen
Description: Länge ca. 160 Zeichen
Meta-Robots: noindex, index, nofollow, nosnippet, noodp; noarchive, noimageindex,
52. SEOCampixx 2015 – Technisches SEO| Seite 52
Für Google und für den USER haben die Meta-Tags Title + Description eine Relevanz, da
damit der Nutzer beeinflusst wird
Was sollten Meta-Tags beinhalten?C
§ Das Keyword,
§ Eine Relevanz warum diese Seite für den User wichtig sein könnte
§ Den Mehrwert den der Inhalt bringt (!)
§ Einen Handlungsanreiz, die Seite zu besuchen
à CTR erhöhen (in der Folge sollte die Zielseite optimiert bzw. die Nutzererwartung erfüllt sein
um die Bounce Rate zu senken)
Meta-Tags: Title + Description
BeispielD
54. SEOCampixx 2015 – Technisches SEO| Seite 54
Was ist der größte Benefit? Eine höhere Sichtbarkeit in den Suchergebnissen
Mirkrodaten mit schema.org
Wo kann ich schema.org verwenden?A
§ Rezepte
§ Events
§ Produkte
§ Produktbewertungen
§ Organisationen
§ Personen
§ Orte, Lokale Geschäfte, Restaurants
Was ist schema.orgB
§ Hat eine hierarchische, erweiterbare
Struktur
§ Ist ein einheitliches Markup für
maschinenlesbare Daten
§ Ist Teil des semantischen Web
ToolsC
https://developers.google.com/structured-data/testing-tool/
https://www.google.com/webmasters/markup-helper/
Ressourcen für das MarkupD
https://support.google.com/webmasters/answer/99170?hl=de
https://support.google.com/webmasters/answer/2650907?hl=de
55. SEOCampixx 2015 – Technisches SEO| Seite 55
Mirkrodaten mit schema.org
ProduktbewertungenE
BreadcrumbF
56. SEOCampixx 2015 – Technisches SEO| Seite 56
Mirkrodaten mit schema.org
RezepteG
EventsH
58. SEOCampixx 2015 – Technisches SEO| Seite 58
Große Webseiten haben häufig das Problem, das täglich oder wöchentlich Kategorien und
Artikel wechseln oder sich verändern. Um das Problem etwas zu beheben sollten die Artikel
und Kategorien sauber umgeleitet werden.
301 Redirects
StatuscodesA
§ 301 gibt den Linkjuice an die Zielseite weiter
§ 302 geben keinen Linkjuice weiter
§ 307 sind ähnlich 302 Redirects und geben
keinen Linkjuice weiter
Wenn man Redirects einsetztB
§ Wöchentliche Prüfung der Ziel-URLs, ob
diese noch aktiv sind
§ Inaktive URLs durch ein passendes neues
Ziel ersetzen
§ Vermeidung von „Broken-Links“
Was sollte man noch WissenC
§ Nur themenrelevant weiterleiten um die volle Kraft auszunutzen
§ Verweise nicht von Artikel auf Kategorien mit einem Statuscode 301
Was passiert, wenn doch?
§ Die Zielseite rankt für einige Zeit mit den Keywords der Quellseite, danach verliert sie die Kraft
§ Unter Umständen wird die Erwartungshaltung der User nicht erfüllt und die Bounce Rate wird‘s
richten
59. SEOCampixx 2015 – Technisches SEO| Seite 59
Redirect-Ketten sollten nicht nur aus SEO-Sicht vermieden werden, sondern auch auf die
Performance sollte geachtet werden. Vermeide daher unnötige Request an deinen Server!
301 Redirects
Redirect-Ketten vermeidenE
Redirect-Ketten:
Problem manuell oder automatisch lösen:
Thema im Google Webmaster HangoutD
§ Googlebot verfolgt max. 5
aufeinanderfolgende Redirects zu einem Ziel
§ RDIR-Ketten(!) vermindern die verbendende
Kraft des PageRank
§ Einzelne RDIR betrifft das nicht(!)
A B C D E F
A B C D E
F
302 Redirect für veraltete ArtikelF
Für veraltete Artikel ist die Weiterleitung per
302 auf eine passende Kategorie eine gute
Alternative
à Breiteres Angebot - bessere CVR
61. SEOCampixx 2015 – Technisches SEO| Seite 61
Wer die Basic-Facts der Bildoptimierung beachtet, hat gute Chancen auf Rankings in der
Bildersuche
Was ist zu tun?A
§ Bildgröße wählen: min. 1240 px im Seitenverhältnis 16:10 oder 4:3
§ Bildformat: Hoch- oder Querformat; Universal-Search besser Querformat
§ Dateiname: Wähle einen sprechenden Dateinamen aus 4-6 Begriffen
§ Dateityp: JPG oder PNG
§ Dateigröße: Kompression verwenden, je Bild und Farbkanal min. 60-80%
§ Alt-Tag: 4-6 Begriffe die das Thema erklären (Auch Relevanz achten!); 16 Wörter sollten
funktionieren um manche Bilder effizient Beschreibung zu können.
§ Umfließender Text mit den relevanten Keywords unterstützt das Ranking
§ Bilder in der XML-Sitemap ausliefern
Bilderoptimierung
Don`t! – Bilder nicht nachträglich komprimierenB
§ Ein Bild ist bereits im Index, z.B. schwach komprimiert als JPG
§ Wird ein Bild auf dem gleichen Pfad/Dateinamen ersetzt verliert es seine Rankings
§ Das Bild erreicht i.d.R. nicht mehr das Rankings vor der Programmierung
à Komprimiere deine Bilder bevor du sie online stellst
63. SEOCampixx 2015 – Technisches SEO| Seite 63
Der „gefühlte“ Sitespeed kann durch einfache Methoden die im Apache Server integriert sind
verbessert werden.
Browser-Caching über die htaccess konfigurierenA
§ Angabe eines Expire Header für Bilder, CSS und Skripte
§ Dadurch werden die Bilder aus dem Browser-Cache geladen
Folge:
§ Das Dokument lädt schneller
§ Der Browser kann die Verbindungen zu den übrigen Dateien
früher aufbauen
Wichtig: Das Expire-Date richtig wählen!
Sitespeed
Serverseitiger Cache + CDNB
§ HTML-Dokumente serverseitig cachen lassen (z.B. schnell & einfach zu testen mit Wordpress-
Plugins)
§ CDN – Verteilung der gecachten Seiten auf mehrere Server, die Verteilung der Browser-Request
übernimmt dabei das CDN
64. SEOCampixx 2015 – Technisches SEO| Seite 64
Der „gefühlte“ Sitespeed kann durch einfache Methoden die im Apache Server integriert sind
verbessert werden.
Sitespeed
ZusammenfassungC
§ Vermeide unnötige Downloads
§ Optimiere CSS- und JavaScript-Dateien und reduziere die Anzahl
§ Nutze das E-Tag für Bilder, CSS und JS-Dateien (Hash-Wert)
§ Nutze CSS-Sprites
§ aktivire gzip-Komprimierung beim Caching
§ Lade wichtige Seiteninhalte zuerst
§ Lade unwichtige Inhalte ggf. nach
§ Reduziere die Größe/Anzahl der Cookies
§ Lagere ggf. CSS / JS-Dateien auf eine Subdomain (+ Server aus)
§ Reduziere dein HTML! – Und befreie es von Inline CSS/JS
67. SEOCampixx 2015 – Technisches SEO| Seite 67
Für den Mobile-Shop muss das Crawling erlaubt in den Meta-Robots erlaubt sein. Mit der
nachfolgenden Konfiguration erhält man mit einem Mobil optimierten Onlineshop die
Kennzeichnung „Für Mobilgeräte“ in den Suchergebnissen.
Konfiguration des Mobile-ShopA
§ Meta-Robots: index,follow
§ Crawling in der robots.txt erlauben
§ Vary-Header konfigurieren
§ Oder rel=alternate im Html-Head eintragen
Mobile SEO
Mobile-Shop und Desktop werden auf der selben URl ausgeliefertB
§ HTTP-Accept-Header muss vorhanden sein
§ Vary: user-agent
68. SEOCampixx 2015 – Technisches SEO| Seite 68
Im HTML-Head oder in der XML-Sitemap sollte die alternative Mobile URL angegeben
werden. Die Canonical des Mobile-Shop enthält die Desktop-URL.
Alternative URl muss auf Mobile URl verweisenC
Mobile SEO
Beispiel für den HTML-HeadD
<link rel="alternate" media="only screen and (max-width: 640px)“ href="http://m.example.com/
page-1" >
Desktop
Rel=alternate
Canoncial
Mobile
Desktop
Rel=alternate
Canoncial
Mobile