Digitalzone'da yaptığım "Startup'tan E-ticaret Devi Olmak: SEO Altyapısını Oluştururken Google'ı Doğru Yorumlamak" başlıklı sunumumdur. Yüksek hacimli siteleri yönetirken ve SEO altyapısını oluştururken Google'ı doğru yorumlamanız kritik seviyede önemlidir ve stratejinizi yaratırken büyük önem taşır. Sunumum boyunca Google ve altyapısını anlatmaya, takibinde ise başarılı bir SEO çalışması yürütebilmeniz için bakmanız gereken ana başlıkları detayları ile anlatmaya çalıştım. İletişimde olalım: https://twitter.com/ugureskici ve https://www.ugureskici.com
28. Günlük Taranan Döküman Sayısı: 2010 itibari ile bir kaç milyar
Günlük Sorgu: 3.000.000.000 + (*)
İndexlenen Sayfa Sayısı: 50.000.000.000~
İndexlenen Toplam Data: 100.000.000 GB+
Toplam Server: 900.000
* https://www.google.com/insidesearch/howsearchworks/thestory/
@ugureskici
30. Deneyler & Sonuçlarının Yorumlanması
Bir sorunun yanıtını veren 2 farklı sayfa var. Bunlar «S1» ve «S2»
S1, yanıtı sayfa içinde veriyor.
S2, yanıtı sayfa içinde + meta description içinde veriyor.
A Algoritması S1’i üst sıraya yerleştiriyor => kullanıcı S1’i tıklıyor => «güzel»
B Algoritması S2’yi üst sıraya yerleştiriyor => kullanıcı S2’yi tıklamıyor => «kötü»
Gerçekten S1, S2’den çok daha iyi mi?
Kaynak: SMX, Paul Haahr – Google Ranking Engineer
@ugureskici
32. Googles’ Development Process
• Idea
• Repeat until ready:
• Write Code
• Generate Data
• Run Experiments
• Analyze
• Launch report by Quantitative Analyst
• Launch review
33. Test: Description Pattern
Anahtar Kelime Setleri +
Kontrol Grubu
01
02
03
Anahtar Kelime Setleri +
1. Description Pattern
Anahtar Kelime Setleri +
2. Description Pattern
@ugureskici
40. A. Teknik
• Title & Description Etiketleri Doğru mu?
• H1 ve H2 Tagleri Doğru mu?
• SSL Kullanılıyor mu?
• Pagespeed
• URL ve Parametre Mimarisi
• Internal & External Link Profili & Yapısı
• Crawl Budget (Tarama Maliyeti & Optimizasyonu)
• Ölçümleme & Altyapı
@ugureskici
41. Matt Cutts:
Every site that Googlebot crawls is assigned a crawl
budget which is based on two major areas of concern.
1: Pagerank
2: Host Load
Yani?
@ugureskici
42. Pagerank:
Ne kadar sayfanın tarandığı konusunda fikir edinmenin en iyi yolu, bunun
kabaca pagerank değeri ile orantılı olduğunun göz önünde bulundurulmasıdır.
Host Load:
Google sayfaları hızlı bir şekilde taramak istiyor çünkü taraması gereken daha
bir çok sayfa var.
@ugureskici
43. Yeah, I mean, any time you do a bigger change on your website — if you
redirect a lot of URLs, if you go from one domain to another, if you change
your site structure — then all of that does take time for things to settle
down. So, we can follow that pretty quickly, we can definitely forward the
signals there, but that doesn’t mean it will happen from one day to the next.
@ugureskici
John Mueller
44. Crawl Budget = Host Load + URL Scheduling Combined
@ugureskici * Dawn Anderson
Server Load
Server Capacity
What does Googlebot want to visit (URLs), and how often?
45. Web Sayfaları Genellikle
> 1 MB & > 100 requests
HTTP headers taşıdığı datadan daha büyük olabiliyor.
Birçok insan mobilde ve sitelerin gecikme süresi artıyor.
@ugureskici
47. So far we have only tested SPDY in lab conditions. The initial results
are very encouraging: when we download the top 25 websites over
simulated home network connections, we see a significant
improvement in performance—pages loaded up to 55% faster.
A 2x Faster Web, Chromium Blog
@ugureskici
49. HTTP/2 supports queries multiplexing, headers compression, priority and
more intelligent packet streaming management. This results in reduced
latency and accelerates content download on modern web pages.
source: stackoverflow@ugureskici
50. RTT Nasıl Azaltılır?
1. DNS sorgularını azaltma
2. Yönlendirmeleri en aza indirgeme
3. Yanıt dönmeyen sorgulardan uzak durma (http 404)
4. Javascript dosyalarını tek bir dosyada birleştirme
5. CSS dosyalarını tek bir dosyada birleştirme
6. CSS sprite tekniği ile resim dosyalarını, tek bir resim dosyasında birleştirme
7. HTTP yanıtlarının paralelize edilmesi (CNAME,CDN, Domain Sharding vb.)
@ugureskici
51. Bir sitenin arama motorları tarafından tamamının taranmasını; ve bunun da sık sık
gerçekleşmesini sağlamanın en kolay yolu nedir?
@ugureskici
54. 1. Access Log Analizi
A. Ne Lazım Olacak?
1. Access Log
2. Regex Bilgisi
3. Terminal
4. Temel SSH Komutları
ya da
A. Ne Lazım Olacak?
Log Analyzer
@ugureskici
69. B. İçerik
• Anahtar Kelime Analizi
• İçeriğin Uzunluğu (word count)
• Sayfaya Gelen Linklerdeki Anahtar Kelimeler
• Okunabilirlik?
• Tazelik
• Yakınsayan Kelimeler & Benzer İçerikler
• Medya Kullanımları (Videolize vs.)
• Vurgulamalar, Noktalama İşaretleri
@ugureskici
70. B. Kullanıcı Deneyimi
• Pogo Sticking
• Internal Link Yapısı & Referans
• Video & Imaj Kullanımı + Miktar
• Mobil Uyumlu
• Font Büyüklükleri + Renkler
• Kullanılan Reklamların İçeriğe Oranı
• CTR, Bounce Rate, Time on Site
• Funnel Analizleri
@ugureskici
71. Checkout Funnel : X April - Y June
Input Output
Basket:
1,234,567
Address :
1,234,567
Payment:
1,234,567
Success:
1,234,567
Login Page:
1,234,567
%76,76 %66,66 %55,55 %52,44
542,531 501,245 96,323 45,123
15% funnel conversion rate
@ugureskici