Hierfür braucht es ein sauberes Monitoring bzw. ein regelmäßiges Crawlen der Seite inkl. einer stetigen Auswertung der Fehlermeldungen innerhalb der Google Search Console. In meinem Webinar bei OMT habe ich etwas über die Optionen und Möglichkeiten in diesem Kontext gesprochen.
Social Media Monitoring für Information Professionals
Onpage SEO im Griff: Alerting und Monitoring für SEOs
1. Onpage SEO im Griff: Alerting und Monitoring für
SEOs
Stefan Keil Online Marketing Tag - Webinar 31.05.2017
2. About me
Stefan Keil Werdegang
• 2008- 2011 Information Science and Engineering,
B.Eng. (Schwerpunkt Bibliothekswesen)
• 2011-2014 Informationswissenschaften, M.Sc.
• 2012-2015 Werksstudent/Mitarbeiter Deutsches
Institut für Internationale Pädagogische Forschung
(Informationswissenschaftliche Forschung & am
Ende was mit „Monitoring, Webanalyse und SEO“)
• 2015- 2017 /takevalue - Consultant
• 2017 get:traction Senior Consultant & Partner
• 2017 Lehrbeauftragter für SEO an der Hochschule
Darmstadt
Lust auf…
• …Daten
• …Prozesse
• …Struktur
(Informationsarchitektur)
• …Standards
Optimal
Zu wenig standardisiert –
erhöher Briefingsaufwand
Zu sehr standardisiert – zu hoher Wartungs-, Änderungs- und Erstellungsbedarf
4. Tools und Reports optimal einsetzen
Ich: auf dem Weg zu Arbeit ohne eine Ahnung was mich
erwartet vs. wissend, dass ich zuerst weiß, wenn etwas
schief läuft
7. Das richtige Werkzeug…
…. zur richtigen Zeit und für den richtigen Zweck
Alerts
Monitoring
Reporting
Impact
Berichtszeit-
punkt
sofort später
niedrig
hoch
8. Alerts: IT-Maintenance-Daten vs. Daten zum Nutzerverhalten
Traffic-Beobachtung via WebanalyseIT – Maintenance (Crawls)
• Indexierungs- und Crawlinganweisungen
• Optimierungen der Informationsarchitektur
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …
Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-pageviews-
podcast/bp-2-1-google-analytics-alerts/
9. Alerts: Möglichst granular und qualitativ
Zu aggregierte Betrachtung ergibt nur Last
0
2,000
4,000
6,000
8,000
10,000
12,000
14,000
16,000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler
zu finden
10. 1.4k seite n oder so :O
Grundoptimierung muss vorhanden sein
Und noch eine Anmerkung…
Copyright: taviphoto
12. Segmente nach Seitentypen
Kontrolle durch granulares Setup
Der Kern einer erfolgreichen Beobachtung.
Stark aggregierte Daten lassen keine Analyse zu.
Nicht:
Sondern:
Segmentierung
0
5
April Mai Juni Juli
SEO-Traffic
0
50
April Mai Juni Juli
SEO-Traffic
Startseite Kategorie Produktdetailseite
14. Auswahl der zu überwachenden Seiten
Beispiel Publisher/Verlagswesen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Je die 2-3 organisch
Traffic- oder
Konversionsstärksten
URLs
Ziel:
- Muster-, bzw.
templatebasierte Fehler
frühzeitig erkennen
- Stichproben ausreichend
16. Segmentierung einer Webseite
Mobile Varianten auf eigenen Hosts nicht vergessen…
Desktop mobile AMP
41 Seiten
+ +41 Seiten Ca. 40 Seiten (ohne
Suche)
Ca. 122 Seiten
17. SEO-Relevante Merkmale
Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung und
Crawling
Informations-
architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
Facebook
Twitter
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
18. SEO-Relevante Merkmale
Indexierung und Crawling + durchgeführte IA-Optimierungen sicherstellen
Indexierung und
Crawling
Informations-
architektur
sonstige
Statuscode
robots-meta
Canonical
alternate
Linkboxen (div)
Titel
Description
Breadcrumbs
h1
h2
schema.org
WebPage
Tracking
Social Media
Facebook
Twitter
relatedLinks
breadcrumb
mainEntityOfPage
(NewsArticle)
headline
date
…
Dokumentieren und Fixieren!
20. Alerts via URL-Monitor: IT-SEO Maintenance
Prüfung der robots.txt & Sitemap
Regelmäßige Überwachung der robots.txt sowie der
vorhandenen Sitemap(s)
Prüfung auf Änderungen bzw. die Erreichbarkeit
Fragen:
Wurden Einträge in der robots.txt geändert (sind
neue Einträge hinzugekommen, vorhandene
geändert/ gelöscht worden)?
Sind die robots.txt und die Sitemap(s) erreichbar
(Status 200)?
Beschreibung
22. Alerts via testomato: IT-SEO Maintenance
Gruppen mit Regeln für CMS/Templates
Mehr zum SEO-Alerting mit testomato finden Sie hier:
https://www.gettraction.de/blog/seo-alerting-mit-
testomato/
24. Alerts in der IT-Maintenance
Ich kann nur das prüfen, was ich auch kenne…
…eine Ahnung wie granular (Beispiel Publisher)
man beobachten sollte.
…allgemeine SEO-Faktoren, deren Überwachung
(nach Optimierung) sinnvoll ist.
…einfache Mittel um diese Dinge regelmäßig zu
prüfen.
…keinerlei Ahnung was auf meiner Seite
passiert, was ich nicht explizit weiß und festgelegt
habe!
Bis hier hin haben wir…
26. Alerts: Möglichst Granular und Qualitativ
Zu aggregierte Betrachtung ergibt nur Last
0
2,000
4,000
6,000
8,000
10,000
12,000
14,000
16,000
KW 12 KW 13 KW 14 KW 15 KW 16 KW 17
Entwicklung Seiten mit noindex-Anweisung
+ 40% !
+ 15% !
Defizite:
- Stark Aggregiert
- Domainebene
- Kein Drilldown (in GSC)
- Weiter Weg um den Fehler
zu finden
Wenig geeignet für einen Alert,
allerdings (fast) gut für ein
Monitoring!
27. Datenquellen: Google Search Console
Daten speichern bevor sie verschwinden
Tägliches abholen und speichern
der Daten!
28. GSC Setup: Verzeichnisverifikation
Granulare Verifizierung für mehr Daten und mehr Kontrolle!
Protokollversionen (http/https)
Hosts (www.)
Verzeichnisse
Ein bis zwei Ebenen – je nach
Anzahl der Seiten
Alle Varianten bedenken!
29. GSC: relevante Daten
IT-Hygiene Daten aus der Search Console Speichern und Monitoren
Web/SmartphoneLinks insgesamt
HTML-Verbesserungen
Doppelte Descriptions
Doppelte Titles
Fehlende Titles
Irrelevante Titles
Kurze Descriptions
Lange Descriptions
Kurze Titles
Lange Titles
Indexierungsstatus
Links zu Ihrer Webseite
Mobile
Nutzerfreundlichkeit
Sitemaps
Strukturierte Daten
Insgesamt Indexiert
Von robots.txt blockiert
Seite mit Problemen
Elemente
Elemente mit Fehlern
Bilder eingereicht
Bilder indexiert
Mobile eingereicht
Mobile indexiert
News eingereicht
Video indexiert
News indexiert
Videos eingereicht
Web indexiert
Web eingereicht
Crawlerrors
notFound
notFollowed
authpermission
Server-Error
soft404
other
flashContent
manyToOneRedirect
Suchanalyse
30. Monitoring: Search Console – Beispiele
Regelmäßige Betrachtung von Fehlerdaten auf allen Ebenen
domain.de
/verzeichnis1
/verzeichnis2
/verzeichnis3
/verzeichnis4
+n
Ein Prozess zur wöchentlichen Datenerhebung incl. Reporting an die zuständigen Personen erhöht die Stabilität der Plattform und verkürzt die
Reaktionszeit bei großen Fehlern auf ein Minimum.
Im obigen Beispiel war nur ein Teilbereich der Website für den massiven Anstieg der Fehler verantwortlich. Die Ursachensuche konnte so direkt
eingegrenzt und somit beschleunigt werden
31. Monitoring: Search Console – Beispiele
Regelmäßige Betrachtung von Fehlerdaten auf allen Ebenen
Initiale Aufwände rentieren ab dem Zeitpunkt, wenn ein Fehler auftritt. Verkürzte Fehlersuche und schnelle Reaktionszeit helfen finanziellen
Schaden zu vermeiden.
domain.de
/verzeichnis1
/verzeichnis2
/verzeichnis3
/verzeichnis4
+n
33. Credits für das folgende Analyseframework
… frisst am liebsten Rohdaten
… zerlegt, speichert und demoliert alles
mit R und Knime
…. hört am liebsten den Satzteil „… kann
man das nicht mal eben schnell…“
Meisteranalyst!
Patrick Lürwer
/in/patrickluerwer/
@netzstreuner
34. Workflow der Crawl-Auswertung
Screaming Frog
Crawling
Datenaufbereitung &
Auswertung
R / R Studio
Report
Alle Links mit
Merkmalen wie
Status Code,
Content Type,
Title etc.
Alle Verlinkungen
der Webpages
untereinander
Export
42. IT-SEO-Monitoring: Standardslides
Wenn die Fremdreferenzierung 200 ist, stimmt das Meta-Robots-Tag überein?
Stimmten die Meta-
Robots der
fremdreferenziernden
und referenzierten Seite
überein?
44. Tabellarische Darstellung der Änderungen
Bei welchen Seiten hat sich der Meta-Robots geändert?
Interne Tabelle zum
Abgleich der Meta-
Robots-
Veränderung
Seite indexierbar
?
Veränderung zum vorherigen Crawl?
45. Bei welchen Seiten hat sich der Meta-Robots geändert?
Detaillierte Auszüge bei hohen Schwankungen der letzten Crawldaten
Bei wie vielen URLs haben sich
die Meta Robots zwischen den
Crawls verändert?
Um welche
URLs handelt
es sich?
Indexierbarkeit
46. Welche Seiten sind neu?
Schnelle Übersicht zum Überfliegen
2
373
158
5 1
17
3
VZ-1 VZ-2 VZ-3
47. Reporting & Monitoring
Qualitätssicherung im 3-Stufiges System
Alerting Monitoring Reporting
• Proaktives
Warnsystem
• Systemweite Fehler
vor einem Impact
erkennen.
• Wöchentliche Betrachtung aller
Fehlerberichte der Google Search
Console
• Überführung in Tickets
• Wöchentliches Crawling,
identifizieren von Fehlern und
ableiten von Handlungen
• Wöchentliches Reporting mit
Kurzübersicht zu SERP Leistung,
Sichtbarkeit, Traffic und Website-
Fehlern.
• Monatlicher Report zu Acquisition-, Engagement-
und Transactioninformationen inkl. Ausführlicher
Kommentierung.
Täglich
Wöchentlich
MonatlichSEO-Maintenance SEO-Erfolgsmessung