Warum macht es aus SEO Sicht Sinn seine Website aufzuräumen? An welchen Stellen kann man aufräumen? Welche Tools kann man dazu einsetzen? Dieser Vortrag zeigt ein paar Impulse, welche Stellschrauben man sich bei der nächsten Website-Analyse ansehen könnte.
SharePoint 2013 Search Driven Websites Collaboration Days 2014 David Schneider
SEO Campixx 2016 - Frühjahrsputz für die Website (SEO Geisterjagd)
1. Frühjahrsputz für die Website
SEO-Geisterjagd
Berlin,
13.03.2016
http://static.srcdn.com/slir/w700-h350-q90-c700:350/wp-content/uploads/ghostbusters-2016-reboot-spinoff.jpg
3. • Warum ist Aufräumen der Seite wichtig?
• Tools
• Backlinks & Linkjuice
• (Near) Duplicate Content
• Thin Content
• 4xx und 3xx
• Snippets und Nutzersignale
• Analytics
Themen
4. @catbirdseat fb.com/catbirdseat
Was kann man von diesem Workshop erwarten?
Keine Schritt-für-Schritt Anleitung / kompletter Audit
Kein Blick auf eine bestimmte Seitenart / Branche
Übersicht über verschiedene Probleme, die einem im SEO häufig
begegnen und Lösungsansätze
Inspiration für zukünftige Aufräumarbeiten an der Website
Level: Anfänger
4
5. @catbirdseat fb.com/catbirdseat
Warum ist das „Aufräumen“ einer Seite wichtig?
5
https://i.ytimg.com/vi/5HZdyUUhzXU/hqdefault.jpg
http://images.nationalgeographic.com/wpf/media-live/photos/000/896/overrides/adelie-penguin-antarctica_89655_990x742.jpg
http://www.seo-trainee.de/wp-content/uploads/2013/09/Google-Web-Crawler.png
http://popresults.com/wp-content/uploads/2013/01/off_page_seo_link_juice_box.jpg
http://searchengineland.com/figz/wp-content/seloads/2014/07/matt-cutts-fade-1920-800x450.jpg
7. @catbirdseat fb.com/catbirdseat
Die Geister die ich rief…
7Bild: http://orig00.deviantart.net/9d09/f/2013/346/8/a/the_real_ghostbusters_comic_cover_by_t_rexjones-d6urq0p.png
Thin Content Duplicate Content
Keyword Kannibalisierung
Fehlerseiten
Interne Weiterleitungen Verschwendung von Crawlbudget
Irrelevante indexierte Inhalte
Schlechte Nutzersignale
Junk Pages
Verschwendung von Linkjuice
8. @catbirdseat fb.com/catbirdseat
Lösung: Seite analysieren und aufräumen
8Bild: http://static.srcdn.com/slir/w786-h393-q90-c786:393/wp-content/uploads/Chris-Hemsworth-Joins-Cast-All-Female-Ghostbusters-Reboot-.jpg
17. @catbirdseat fb.com/catbirdseat
Ach ja… die robots.txt
17
Die robots.txt generell so schlank wie möglich halten
Dient nie zur Indexsteuerung, maximal zur Crawlsteuerung!
Durch Sperrung von Seiten(-bereichen) in der robots.txt kann Linkjuice „verpuffen“!
26. @catbirdseat fb.com/catbirdseat
(Near) Duplicate Content bekämpfen
26
Duplikate durch http / https -> 301 Redirect (Canonical)
Duplikate durch www und non-www -> 301 Redirect (Canonical)
Identische Title & Meta Description durch Filter-URLs -> Individuelle Title & Descriptions schaffen
Exakt identische Inhalte (redaktionell bedingt) -> Canonical
Relativ ähnliche Inhalte -> Inhalte zusammenfassen oder Canonical
Parameter-URLs -> Canonical oder Entstehung der Parameter verhindern oder Blocken in der Google
Search Console (gilt natürlich nur für Google!)
Filter ->Entstehung von DC verhindern bzw. Crawling verhindern
Mögliche Szenarien
27. @catbirdseat fb.com/catbirdseat
(Near) Duplicate Content bekämpfen
27
1.Idealerweise schon die Entstehung verhindern!
2. Alternativ Indexierung verhindern und falls
sinnvoll, auch das Crawling verhindern!
29. @catbirdseat fb.com/catbirdseat
(Near) Duplicate Content & Filter
29
Ansichts- und Sortierungsfilter?
Nicht Index-relevant
Verschwendet zudem Crawl-Budget
Indexierung- und Crawling verhindern
POST-Request
http://www.heroicgirls.com/wp-content/uploads/2014/10/ghostbusters-staypuft.jpg
30. @catbirdseat fb.com/catbirdseat
(Near) Duplicate Content & Filter
30
Faceted Navigation?
Index-relevant?
Indexierung- und Crawling zulassen
ABER: auf individuelle Title und Descriptions achten
Index-irrelevant?
Indexierung- und Crawling verhindern (nicht mit der robots.txt)
Maskierung (z.B. PRG-Pattern) und als Sicherheit „noindex“
Alternativ: Canonical
31. @catbirdseat fb.com/catbirdseat
(Near) Duplicate Content & Filter
31
Produktfilter?
Im Normalfall nicht indexrelevant
POST
#rind, #rind-wild, #rind-huhn, #rind-lamm,…
http://cdn.movieweb.com/img.news.tops/NEbhBNJUZyX0fg_3_b.jpg
40. @catbirdseat fb.com/catbirdseat
Thin Content
40
Idealerweise noch mit Analytics und / oder
Search Console-Daten anreichern
Kategorie-Seiten ohne Inhalte auf „noindex, follow“ setzen
Redaktionelle Seiten anreichern / zusammenfassen?
http://vignette2.wikia.nocookie.net/ghostbusters/images/3/37/ZuulTerrorDog1.png/revision/latest?cb=20140515200520
49. @catbirdseat fb.com/catbirdseat
Apropos Nutzersignale….Seiten ohne Besucher?
49
Blick in Analytics -> Seiten, die länger keine oder
kaum Besucher hatten
Kann man die Seite optimieren / zusammenlegen?
Interne Verlinkung vielleicht?
Ansonsten entfernen oder „noindex“
Junk Pages reduzieren!