Este trabalho apresenta um estudo sobre a aplicação de técnicas de SEO em dois sites da cidade de Goiatuba e região, com o objetivo de aumentar o tráfego vindo do Google. Foram analisados os sites antes e depois da inserção das técnicas, verificando o impacto no rankeamento e visitas. Os resultados indicaram que ambos os sites tiveram aumento significativo no número de visitas após a otimização, demonstrando a efetividade das técnicas de SEO.
1. INSTITUTO LUTERANO DE ENSINO SUPERIOR DE ITUMBIARA
CURSO DE SISTEMAS DE INFORMAÇÃO
GUILHERME ROSA SILVA ROCHA
AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
E REGIÃO
Itumbiara, dezembro de 2011.
2. GUILHERME ROSA SILVA ROCHA
AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
E REGIÃO
Monografia apresentada por Guilherme Rosa
Silva Rocha ao curso de Sistemas de
Informação do Instituto Luterano de Ensino
Superior de Itumbiara, como um dos requisitos
para obtenção do grau de Bacharel em
Sistemas de Informação, orientado pelo
Professor Especialista Daniel Humberto
Carrara.
Itumbiara, dezembro de 2011.
3. Dados Internacionais de Catalogação na Publicação (CIP)
Rocha, Guilherme Rosa Silva
As Técnicas utilizadas em SEO e seu impacto no rankeamento do
Google aplicadas em um site de Goiatuba e região / Guilherme Rosa
Silva Rocha – Itumbiara: do autor, 2011.61 p.
Monografia – TCC – Curso de Sistemas de Informações
1. Otimização de sites. 2. Sistemas de Informação. I. Rocha,
Guilherme Silva Rocha.
CDU-004.738.52
Catalogação na Fonte
Rosa Helena de Paula Rodrigues – CRB1 2022
4. AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
E REGIÃO
GUILHERME ROSA SILVA ROCHA
Monografia defendida e aprovada, em 15 de dezembro de 2011, pela banca examinadora:
Professor Especialista Daniel Humberto Carrara de Azevedo
Orientador e Professor do Curso de Sistemas de Informação
Professor Roger Amandio Luz
Professor e Coordenador do Curso de Sistemas de Informação
Professor Pedro Moises de Sousa
Professor do Curso de Sistemas de Informação
5. Dedico este trabalho à minha família, amigos, meu orientador e aos meus professores.
6. Gostaria de agradecer a todos que me ajudaram direto ou
indiretamente para a conclusão deste trabalho, a minha esposa
Jaqueline e a minha filha Maria Eduarda, juntamente com meus
amigos, Bruno, Vinicius e Ueder.
7. “Para ter sucesso, é necessário amar de verdade o que se faz.
Caso contrário, levando em conta apenas o lado racional, você
simplesmente desiste. É o que acontece com a maioria das
pessoas”.
Steve Jobs
8. RESUMO
A Web nos últimos anos cresceu rapidamente, fazendo com que o número de páginas
multiplicasse. Para facilitar a encontrar o conteúdo que o usuário necessita, foram criados os
chamados motores de buscas que ajudam a identificar o conteúdo que o usuário está a
procura, através das palavras chaves digitada no campo de pesquisa. Portanto o buscador tem
o papel de identificar qual é a página mais relevante para o usuário final, para isso foi
elaborado vários algoritmos a fim de estabelecer o ranking das páginas indexadas pelos
motores de buscas, fazendo com que haja uma concorrência entre uma página e outra, e para
os webmasters conseguir cada vez mais visita eles empenham no trabalho de SEO, o presente
estudo visa potencializar um site de conteúdo e um de notícias de Goiatuba e região para
receber mais visitas das pesquisas realizadas no buscador Google através de inserções de
técnicas de SEO em ambos. Tendo como justificativa o constante crescimento da internet e
descobrir se as técnicas de SEO são viáveis para alavancar visitas de algum determinado site,
com isso foi analisado o site e aplicado às técnicas de SEO apropriadas para o site. Foi tido
como resultado um número considerável, depois das inclusões de técnicas de SEO, o site de
conteúdo em um pouco mais de três anos teve resultados bastante satisfatórios em termos de
visitas vindas do Google através da otimização do site com as técnicas de SEO, o site de
notícias de Goiatuba e região em pouco tempo também teve bons resultados considerando ser
um site com um público bem especifico. Tendo como conclusão que um site que se aplicado
às técnicas de SEO adequadas consegue sim aumentar suas visitas vindo dos motores de
busca.
Palavras-chave: SEO. Motores de busca. Web.
9. ABSTRACT
The Web has grown rapidly in recent years, causing the number of pages multiplied. To make
it easier to find content that the user needs have been created so-called search engines that
help identify content that the user is looking through the keywords typed into the search field.
So the seeker's role is to identify what the page more relevant for the end user, for it was
developed several algorithms to establish the ranking of pages indexed by search engines, so
that there is a competition between a page and another, and webmasters can visit them more
engaged in the work of SEO, this study aims to enhance a content site and a news Goiatuba
and region to receive more visits from research carried out by the Google search engine
inserts techniques SEO in both. Having to justify the continued growth of the Internet and
find out if the SEO techniques are feasible to leverage a particular site visits, it was analyzed
with the site and applied to SEO techniques appropriate for the site. Was taken as a result a
considerable number, after the inclusion of SEO techniques, the site content in a little over
three years had satisfactory results in terms of visitors from Google by optimizing the site
with SEO techniques, the Goiatuba news site and region in a short time also had good results
considering that a site with a very specific audience. With the conclusion that a site that is
applied to the appropriate SEO techniques but can increase your visits coming from search
engines.
Keywords: SEO. Search Engines. Web
10. LISTA DE FIGURAS
Figura 1 - Modelos de Comunicações ....................................................................................................17
Figura 2 - Site Craiglist ..........................................................................................................................23
Figura 3 - Diretório DMOZ....................................................................................................................25
Figura 4 - Evolução dos Search engines ................................................................................................26
Figura 5 – Pagerank - Fonte: Mestre SEO .............................................................................................27
Figura 6 - Modelo de Página principal do Google Analytics .................................................................38
Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 .........................................................................39
Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 ...................................................................39
Figura 9 - Titulo do site Infomaníaco.....................................................................................................40
Figura 10 - Técnicas de SEO..................................................................................................................40
Figura 11 – Canonical ............................................................................................................................41
Figura 12 - Headings Tags .....................................................................................................................42
Figura 13 - robots.txt ..............................................................................................................................43
Figura 14 - sitemap.xml .........................................................................................................................44
Figura 15 - Links internos ......................................................................................................................45
Figura 16 - Links Externos .....................................................................................................................45
Figura 17 - Estatísticas de visitas do Infomaníaco .................................................................................47
Figura 18 - Origens de tráfego ...............................................................................................................48
Figura 19 - Visitas vindas do Google .....................................................................................................49
Figura 20 - Cidades Brasileiras ..............................................................................................................49
Figura 21 - Crescimento do Infomaníaco ...............................................................................................50
Figura 22 - Visitas do Goiatuba online ..................................................................................................51
Figura 23 - Origens de Tráfego ..............................................................................................................52
Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba"..............................................................53
Figura 25 - Crescimento do Goiatuba Online ........................................................................................53
11. LISTA DE TABELAS
Tabela 1 - Conceito Web 2.0 ................................................................................................................. 20
Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 ................................................................. 28
Tabela 3 - Urls Amigáveis .................................................................................................................... 41
12. 10
SUMÁRIO
RESUMO ................................................................................................................................................ 6
ABSTRACT ............................................................................................................................................ 7
LISTA DE FIGURAS ............................................................................................................................. 8
LISTA DE TABELAS ............................................................................................................................ 9
SUMÁRIO ............................................................................................................................................ 10
INTRODUÇÃO .................................................................................................................................... 12
CAPÍTULO I - A WEB ......................................................................................................................... 16
1.1. Web 2.0 ...................................................................................................................................... 19
1.2. Novos serviços na Web .............................................................................................................. 21
CÁPITULO II - Sites de Busca ............................................................................................................. 24
2.1. Diretórios.................................................................................................................................... 24
2.2. Google ........................................................................................................................................ 26
CÁPITULO III - SEO – Search Engine Optimization .......................................................................... 30
3.1. Técnicas OnPage e Offpage ....................................................................................................... 31
3.2. Black Hat .................................................................................................................................... 33
CAPÍTULO IV - METODOLOGIA ..................................................................................................... 35
4.1. Métodos de Análise e Classificação da Pesquisa ....................................................................... 35
4.2. Tecnologias de Apoio................................................................................................................. 35
4.3. Site antes da aplicação das técnicas de SEO .............................................................................. 38
4.4. Métodos ...................................................................................................................................... 40
CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS ..................................... 47
5.1. Site de Conteúdo ........................................................................................................................ 47
5.2. Site de notícias de Goiatuba e região ......................................................................................... 50
5.3. Discussão dos Resultados........................................................................................................... 54
13. 11
CAPÍTULO VI - CONSIDERAÇÕES FINAIS .................................................................................... 56
REFERÊNCIAS BIBLIOGRÁFICAS .................................................................................................. 58
14. 12
INTRODUÇÃO
Segundo Saatchi (2010), hoje em dia, o mundo gira em torno da internet, pois cada dia
que passa a Web está ficando cada vez mais cheia de recursos, serviços e entretenimento para
os usuários de computador, através da mesma pode se vender produtos, entrar em um chat,
conseguir um emprego, comprar carros, enfim pode se fazer quase tudo hoje em dia através da
internet, mas uma pequena loja virtual ou determinado serviço que começa na internet, tem
que procurar alguma forma para se destacar, e hoje em dia, existem algumas formas de
divulgação como o boca a boca, publicidade online, publicidade off-line entre outros.
Portanto a maioria dos donos de sites recorre ao tráfego vindo de motores de busca
através da busca orgânica, pois, contudo os motores de busca contêm bilhões de páginas
indexadas e para destacar entre elas pode se fazer a inserção técnicas de SEO para que o site
se torne um dos primeiros nos resultados de busca dos motores de busca a fim de melhorar o
tráfego do site:
O significado de SEO é Search Engine Optimization. Em português, é conhecido
como Otimização de Sites, MOB e Otimização para Buscas. O SEO nada mais é do
que a otimização de uma página (ou até do site inteiro) para ser mais bem
compreendido pelas ferramentas de busca. A consequência da utilização das técnicas
de SEO é o melhor posicionamento de um site em uma página de resultados de uma
busca (TEIXEIRA, 2007).
Então de acordo com o texto acima, pode se dizer que SEO é considerado como a
otimização de um determinado site que contém uma determinada palavra-chave de
contextualização para o motor de busca a fim de se tornar um dos primeiros resultados
naquela palavra-chave (TEIXEIRA, 2007).
As primeiras técnicas de SEO surgiram logo após o lançamento dos primeiros
buscadores na Internet. Pessoas descobriram que era possível obter, para seus websites,
posições nas primeiras páginas dos buscadores quando internautas realizavam buscas por
informações. Para tanto, era necessário fazer alterações nos códigos HTML do site. Outras
15. 13
técnicas utilizadas para obter as tais posições eram (e são até hoje) incluir links de referência
para a página de outros sites e possuir mais conteúdo em cada página.
Se a intenção do proprietário é trazer cada vez mais tráfego com qualidade, investir em
SEO é uma ótima oportunidade, pois pode se conseguir um alto nível de tráfego com uma boa
conversão de resultados do que anunciar em uma revista onde poucos usuários irão converter
em uma venda ou cadastro seja qual for a métrica de conversão do determinado em questão
(RICOTTA, 2008).
Hoje em dia, é possível citar vários motores de busca, portanto o seguinte estudo será
apenas do site Google1 em questão, pois o mesmo segundo a pesquisa feita pela Predicta, uma
empresa especializada em serviços de inteligência em marketing online aponta que 88,9% das
buscas no Brasil são realizadas no site de Pesquisa Google.
O Google tem grande participação nas buscas, pois apresentam sempre resultados
adequados aos seus usuários devido ao sistema de ranking e de contextualização em cada
página indexada. Para uma página ter um bom rankeamento existem vários fatores que são
abordados pelo Google a fim de trazer o melhor resultado para o usuário, para isso o conteúdo
deve ser bastante relevante sobre o assunto.
Segundo Ricotta:
Pagerank (PR) é a forma pela qual o Google procura representar a importância que
um site, ou página, tem para ele (Google) frente à Internet. Ele foi desenvolvido em
1995 na Universidade de Stanford por Larry Page, daí vem o nome “Page” Rank.
Basicamente o Pagerank é uma avaliação da relevância da página. Essa relevância é
divulgada em uma escala de zero a 10, mas sabe-se que o verdadeiro valor varia
dentro de uma escala logarítmica. Para calcular o valor do Pagerank, o Google
considera basicamente a quantidade de links que a página recebe. Funciona de modo
semelhante a uma eleição, onde cada link é como um voto endossando a qualidade
da página que recebe o link. Mas não basta ter uma grande quantidade de links para
ter um PR alto, a relação semântica entre as páginas é importante, bem como a
própria relevância da página que faz o link (RICOTTA, 2007).
Através da classificação de 0 a 10 através do algoritmo do Page Rank, O Google ficou
conhecido por todo o mundo, pois na época realmente era o que tinha de mais relevante para
denominar a posição de cada site na pesquisa, segundo o Google hoje em dia não é somente
esse fator é colocado em pauta também a velocidade do site, links direcionados para o site,
estrutura HTML, popularidade do site, relevância com a pesquisa entre outros (RICOTTA,
1
Além de ser uma empresa com inúmeros serviços, o motor de busca é o serviço mais popular da companhia e o
site mais acessado do mundo. De acordo com pesquisa de mercado publicado pela comScore, em novembro de
2009, o Google era o motor de busca dominante no mercado dos Estados Unidos, com uma quota de mercado de
65,6%. O Google indexa trilhões de páginas web, de modo que os usuários podem pesquisar as informações que
quiser, através do uso de palavras-chave e operadores (WIKIPÉDIA, 2011).
16. 14
2007).
Contudo esse estudo procura solucionar o seguinte problema: como melhorar tráfego
de um site de conteúdo e um site de notícias de Goiatuba e região aplicando técnicas de SEO?
Esse estudo tem como objetivo geral melhorar a quantidade de visitas em um site de
conteúdo e um site de notícias de Goiatuba e região através da implementação de técnicas de
SEO para melhorar o posicionamento do site nas pesquisas do Google. Tendo como os
objetivos específicos fazer uma análise do site para que seja encontrado quais serão as
técnicas apropriadas para o site de conteúdo e um site de notícias de Goiatuba e região,
implementar tais técnicas de SEO para melhorar o tráfego de visitas, fazer o acompanhamento
dos sites juntamente com o Google para verificar se o presente estudo está sendo bem
desenvolvido e por fim uma análise nas estatísticas de tráfego dos sites para enfim verificar se
o estudo teve sucesso.
A relevância desta monografia se justifica ao ponto que a Web está em pleno
crescimento e que a concorrência em diversos setores aumenta como disse Saatchi (2010), e
quem conseguir se beneficiar nas primeiras posições na SERP2 dos buscadores com certeza
terá mais conversão seja qual for e mais tráfego com qualidade para o determinado site em
questão.
Foi feito análises em diversos trabalhos relacionados tendo como os principais o
estudo de como as search engines funcionam de Fábio Ricotta onde fala sobe como é feito os
algoritmos de rankeamento dos buscadores, outro trabalho foi sobre as ferramentas de buscas
na web, onde conta de como surgiu os primeiro diretórios e como foi a chegada dos primeiros
buscadores de Beatriz Cendón.
Para monitorar as palavras-chave, páginas indexadas, velocidade do site, links
apontados para o site, estatísticas de rastreamento do Googlebot3, foi usado uma ferramenta
fornecida pelo Google para webmasters, que se chama Google Webmasters Tools4 que
fornece relatórios detalhados sobre a visibilidade das páginas no Google, trazendo mais
2
Ele é um termo técnico para representar as páginas que exibem os de resultados em uma busca. São chamadas
de Search Engine Results Page ou em português, página de resultados de uma busca. As SERPS variam
conforme as palavras-chave e são compostas normalmente por resultados naturais que aparecem do lado
esquerdo da busca. Os padrões são de cada SERP são no máximo dez resultados por páginas (MARKETING DE
BUSCA, 2007).
3
Googlebot é o robô de rastreamento da web do Google (também chamado de "indexador"). O rastreamento é o
processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google
(GOOGLE, 2011).
4
As Ferramentas do Google para Webmasters oferecem um jeito fácil e gratuito de tornar seu site mais amigável
ao Google. Ele mostra para o usuário a forma que o Google o vê, também as quais das páginas estão inclusas no
índice do Google, os erros encontrados no rastreamento no site, ajuda a encontrar os termos de pesquisa que
listam seu site nos resultados e muito mais (GOOGLE, 2011).
17. 15
clareza entre o Google e o site, avisando quando se pode melhorar e no que está sendo feito de
forma errada, é como se fosse um canal de comunicação.
Para gerir relatórios de tráfego, que trata-se de quais palavras-chave que mais trouxe o
usuário até o site, perfil do usuário entre outros será usado à ferramenta Google Analytics.
Segundo o Google, (2005) o Google Analytics oferece uma “solução de análise da
web de cunho empresarial que fornece uma ótima visibilidade do tráfego e da eficiência do
marketing do seu website”, e também ajuda nas iniciativas de marketing para se preparar para
as conversões, e como os usuários chegaram ao site, quanto tempo ficou ajudando a melhorar
a experiência do visitante.
Portanto o Google Analytics é a ferramenta mais indicada para poder executar o
trabalho, pois abrange várias ferramentas e vários outros relatórios extras que ajudam no
estudo que está sendo feito.
Foi usado também técnicas de SEO OnPage que se dá a inserções no HTML dos sites,
mudança na forma do conteúdo, estruturação, linkagem interna entre outros, e também como
fator principal das técnicas de OffPage o trabalho de links externos em outros sites,
introdução de URL nos diretórios entre outros.
O presente estudo pode ser qualificado como pesquisa qualitativa e quantitativa, pois
irá trabalhar com números reais comparando o antes e o depois do tráfego, a pesquisa
quantitativa devido ao fato de que serão exibidos os números reais, já a qualitativa é aonde
será visto o valor dos resultados obtidos a fim de estabelecer se o presente estudo foi de fato
satisfatório.
Os resultados obtidos com o trabalho de SEO foram satisfatórios, devido ao fato que
ambos os sites começaram sem ter nenhuma visita e com a aplicação das técnicas o
crescimento foi considerável. No site de conteúdo que foi usado no estudo o número total
chegou a quase dez milhões de visitas únicas, onde o público alvo era de todo o Brasil de
forma não muito ramificada como o site de notícias que visava mais a região de Goiatuba e
região onde o público era bem definido, pois se tratava de um público menor, ainda sim
tiveram ótimos resultados com o trabalho de SEO trazendo novos visitantes para ambos os
sites.
18. 16
CAPÍTULO I - A WEB
Como diz Castells (2003) a internet é “como se fosse um tecido de nossas vidas”, ele
compara a tecnologia da informação hoje como sendo a eletricidade na era industrial, pois
pode-se dizer que a internet é equiparada a uma rede elétrica ligada ao motor elétrico, por sua
capacidade de espalhar a informação por todo o mundo.
A internet é um meio de comunicação que permite, pela primeira vez, a
comunicação de muitos com muitos, num momento escolhido, em escala global.
Assim como a difusão da máquina impressora no Ocidente criou o que MacLuhan
chamou de a “Galáxia de Gutenberg”, ingressamos agora num novo mundo de
comunicação: a Galáxia da internet. O uso da internet como sistema de comunicação
e forma de organização explodiu nos últimos anos do segundo milênio. No final de
1995, o primeiro ano de uso disseminado da World Wide web, havia cerca de 16
milhões de usuário de redes de comunicação por computador no mundo. No início
de 2001, eles eram mais de 400 milhões / previsões confiáveis apontam que haverá
cerca de um bilhão de usuários em 2005, e é possível que estejamos nos
aproximando da marca dos dois bilhões por volta de 2010, mesmo levando em conta
uma desaceleração da difusão da internet quando ela penetrar no mundo da pobreza
e do atraso tecnológico (CASTELLS, 2003 p. 08).
Complementando o que Castells (2003) disse, a internet vem crescendo rapidamente,
de uma forma jamais vista e vem sendo disseminada no mundo todo. A comunicação pela
primeira vez teve seu auge com a internet, pois com ela poderia ser rapidamente exposta à
população, isso facilita e ajuda as pessoas que talvez nunca saberiam de notícias tão
rapidamente como é propagado na web. O mesmo autor também teve sua participação em
prever o futuro da internet, como no texto diz, ele estimou que no ano de 2010 tivesse cerca
de dois bilhões de usuários conectados na rede espalhando informações entre si.
Além de ser uma estimativa alta, Castells (2003) não errou muito, pois em 2011 o
mundo conta com mais de 500 mil pessoas que entram pela primeira vez por dia na internet
levando em consideração este número, em 2012 pode chegar a estimativa de dois bilhões de
19. 17
usuários ligados na internet, F/Nazca (2011), além disso, a cada minuto é feito o upload 5de
mais de 48 horas de vídeo no Youtube afirma Aguiari (2011) e a cada segundo é criado um
blog na web, cerca de 70% das pessoas também consideram a internet indispensável em seus
afazeres do dia a dia, Reuters (2009).
Retomando F/Nasca (2011) o Brasil contém cerca de 81,3 milhões de internautas com
mais de 12 anos, dentre eles tem como acesso uma maioria a lan house com cerca de 30%
seguido da residência com 27% e também pode se destacar que o Brasil é o quinto país com
maior número de conexões com a internet.
Figura 1 - Modelos de Comunicações - Fonte: SPYER, 2007 Pag. 21
Uma comparação feita por Spyer (2007) pode descrever bem como é o universo da
internet comparado a outros meios de comunicação, olhando para a figura 1, pode-se ver três
quadrados caracterizando três meios de comunicação, sendo o de número 1 a informação
sendo propagada de uma pessoa para outra por meio do telefone, o quadrado de número dois
seria a televisão ou outros meio de difusão, que alcança milhares de pessoas, porém a
transmissão de dados é de apenas uma via, já o terceiro seria a internet, pois seria uma via de
5
Upload é o contrário de download, ou seja, é o ato de enviar um arquivo para a Internet. Quando você envia um
arquivo para um site, seja música, vídeo, texto, etc., está na verdade fazendo um upload. Ao abrir uma página,
mesmo sem perceber, estamos fazendo download e upload quase simultaneamente. Como? Ao acessar um site, o
texto e imagens começam a ser carregados para serem exibidos, ou seja, é o download do conteúdo. Quando a
página termina de carregar, um aviso é enviado ao servidor informando que tudo foi recebido corretamente,
portanto é o upload de informações (MARTINS, 2008).
20. 18
dois lados, portanto através dela pode-se conversar usar aplicativos como murais, redes
sociais, listas de discussão entre outros, seria muito mais envolvente e a informação melhor
distribuída.
Pode-se dizer que a internet tem um meio de compartilhamento melhor que mídias
convencionais devido à interação do usuário e o poder de compartilhamento que por esta vez
ganha mais espaço em redes sociais.
Em 2007, quase 1/3 dos usuários de internet eram da língua inglesa e o restante tinha
como segunda língua o inglês, portanto na época toda experiência inovadora se concentrava
entre os Estados Unidos e Inglaterra, desde então a web se concentra na língua inglesa
(SPYER, 2007).
Com a internet popularizando ela se tornou um dos meios mais eficientes para o
acesso à informação de vários assuntos como diz abaixo na citação.
A Internet hoje é sem dúvida o meio mais eficiente de se ter acesso à informação,
bem como prover os mais variados assuntos em menor tempo e maior abrangência,
com a popularização do computador e o fácil acesso aos meios de comunicação,
possibilitaram a expansão da internet bem como todos os serviços das mais variadas
espécies e finalidades. Como exemplo pode-se citar cursos de educação à distância e
compras online. Com o rápido crescimento do número de usuários na internet e a
facilidade de divulgar qualquer tipo de informação, cresceu também o volume de
dados fraudulentos colocando em dúvida a sua confiabilidade (KIRCHNER, 2009).
Como disse Kirchner (2009) a internet é bastante eficiente ao acesso a todo e qualquer
tipo de informação mesmo com toda esta facilidade ainda é preciso melhorar muito a inclusão
digital, porém melhorou muito, pois nos últimos anos teve um crescimento muito rápido em
números de usuários com computador ligado a internet, portanto há de se salientar que devido
a inúmeras informações vindas da internet, ainda deve se ter uma precaução com algumas
informações que podem ser enganosas e tomar mais cuidado ainda quando inserir alguns
dados pessoais em determinados sites, pois o roubo de dados está cada vez mais constante.
Kirchner (2009) complementa que a internet ajuda muito no termo de aprendizado,
pois com o investimento das empresas de telefonia veio também velocidades maiores de
internet, beneficiando pessoas que fazem cursos a distância ser mais intuitivos, participativos
através de conferências ao vivo com os professores direto de sua casa. A Oracle Corporation,
por exemplo, oferece cursos com aulas totalmente interativas com os alunos através de
videoconferência, audioconferência e programas de chat que por sua vez é usado para pessoas
conversarem entre si.
21. 19
Muita coisa mudou com o passar dos anos, hoje a Web está cada vez mais
participativa e aumentando cada vez mais o conteúdo inserido nela conforme citação:
Com os avanços tecnológicos recentes, houve uma potencialização da participação
dos usuários no que diz respeito à criação, compartilhamento e difusão de arquivos
na Internet. Cada vez mais os sites passam a se fundamentar em dados recolhidos e
postados (disponibilizados online) pelos próprios internautas. Assim, até mesmo as
plataformas e interfaces foram se transformando: alguns softwares tiveram seus
códigos-fonte abertos, o conteúdo passou a ser ouvido e visto no próprio site, o
design e o funcionamento se tornaram passíveis de modificações por parte dos
usuários, entre outras mudanças em curso (BRESSAN, 2007).
Com base nessas informações, é notável que a interação do usuário com os sites foram
incentivadas e se torna mais como uma tendência na web hoje, esse fato pode ser chamado de
Web 2.0, pois muda o conceito da internet como de antigamente, hoje a participação do
usuário dos sites é quase que necessário, pois é chamariz para que o leitor da página fique
mais apegado ao produto se for o caso, ou outros assuntos como fóruns de jogos, vídeos entre
outros. Outro modo que os internautas têm como de interação do usuário é a forma com que
ele tem de modificar o próprio design em determinados sites, fazendo com que ele deixe de
forma com que fique mais agradável possível.
1.1. Web 2.0
Segundo Bressam, (2007) “Web 2.0 se destaca na geração de serviços e aplicativos da
rede e a recursos, tecnologias e conceitos que permitem um maior grau de interatividade e
colaboração na utilização da internet”, portanto pode-se perceber que hoje em dia há diversos
sites e termos que mudaram para essa nova tendência. Abaixo na tabela nº1 são listados
alguns sites e definições que ao passar do tempo foram se adequando a este novo modelo de
negócio na internet:
22. 20
Tabela 1 - Conceito Web 2.0
Web 1.0 Web 2.0
DoubleClick Google AdSense
Ofoto Flickr
Akamai BitTorrent
mp3.com Napster
Britannica Online Wikipedia
personal websites blogging
evite upcoming.org and EVDB
domain name speculation search engine optimization
page views cost per click
screen scraping web services
publishing participation
content management systems wikis
directories (taxonomy) tagging ("folksonomy")
stickiness syndication
Fonte: http://radar.oreilly.com - O`Reilly, 2005
Finalizando o conceito de Web 2.0 O‟Reilly define que:
Web 2.0 é a rede como plataforma, abarcando todos os dispositivos conectados. As
aplicações Web 2.0 são aquelas que produzem a maioria das vantagens intrínsecas
de tal plataforma: distribuem o software como um serviço de atualização contínuo
que se torna melhor quanto mais pessoas o utilizam, consomem e transformam os
dados de múltiplas fontes - inclusive de usuários individuais - enquanto fornecem
seus próprios dados e serviços, de maneira a permitir modificações por outros
usuários, criando efeitos de rede através de uma „arquitetura participativa‟ e
superando a metáfora de página da Web 1.0 para proporcionar ricas experiências aos
usuários‟ (REILLY, 2005).
Com essa arquitetura participativa, modificações por parte do usuário, facilidade no
aprendizado a web 2.0 veio para melhorar e ajudar o usuário final a fim de proporcionar novas
experiências agradáveis.
Hoje em dia, um fator muito influente são as redes sociais virtuais, e empresas estão
cada vez mais aderindo a elas como forma de marketing comunitário, que se define entre a
participação do usuário com a marca ou produto atribuído, as principais formas e mais
23. 21
eficientes são os blogs, Facebook, Myspace, Twitter entre outras. Nesta onda de Web 2.0 as
empresas estão cada vez mais investindo em projetos voltados para as redes sociais, fazendo
de uma forma que pessoas se interessem pelos seus produtos a fim de trocar ideias em suas
páginas dentro da rede e compartilhando cada vez mais conteúdos atrativos para elas (HUNT,
2010).
Continuando, Hunt (2010) escreveu que para as empresas conseguirem um lugar no
mundo da Web 2.0, elas precisam se tonar um capitalista social que seria uma empresa que é
participativa com o seu público nas redes sociais, e isso tudo seria para tentar conseguir mais
confiança entre seus seguidores, e destaca também que para ter sucesso como Bill Gates,
precisa ter iniciativa e melhorar cada vez mais a interatividade e transparência com o seu
público alvo, além disso, Hunt (2010) ainda cita que “só existem realmente três maneiras de
construir um negócio ou fazer dinheiro on-line: pornografia, sorte e Whuffie”.
Whuffie foi criado para estipular uma métrica entre perfis de usuários para se
estabelecer um nível de reputação ou influência como diz abaixo:
O Whuffie, portanto, é a culminação da sua reputação, a influência, o capital de
conexão, o seu atual e potencial acesso a ideias, talentos e recursos, o acúmulo de
favores e realizações. Pequenas empresas não lucrativas, músicos, palestrantes e até
autores estão usando as redes sociais para criar o Whuffie e aumentar seus negócios
(HUNT, 2010).
Portanto o Whuffie seria sua reputação online, medida com base no que o usuário faz
na página de sua rede social, é medido pelas suas ideias e pelo seu favoritismo entre seus
amigos, se você ajuda ou não alguém com favores ou realizações, muitas pessoas usam este
sistema de reputação para estabelecer quem mais ajuda em determinado blog ou fórum para
enfim ser reconhecido pela sua participação.
1.2. Novos serviços na Web
Outro fator que a Web beneficiou foi a comodidade na hora de fazer compras. Ferreira
(2011) disse que quando a internet se popularizou juntamente com o e-commerce6 no Brasil e
6
Campano (2009. p.5) define comércio eletrônico ou e-commerce como uma forma de se realizar negócios entre
empresa e consumidor (B2C) e entre empresas (B2B), usando a internet como plataforma de troca de
informações, encomenda e realização de transações financeiras. Já para Laudon (2007), E-Commerce são as
transações comerciais realizadas digitalmente entre organizações e indivíduos ou entre duas ou mais
organizações.
24. 22
no mundo cresceu junto como um aliado ao outro. Nos últimos anos, as pessoas estão ficando
cada vez mais sem tempo para ir a lojas para comprar, com isso as lojas virtuais se
propagaram e hoje pode se contar com diversas lojas, inclusive leilões de mercadorias em
sites especializados.
O comércio eletrônico surgiu em 1995, quando o site Netscape.com, utilizou a
internet como um novo tipo de mídia para publicidade e efetuar vendas. Como toda
inovação comercial, o comércio eletrônico no ano de 2001 começou a despencar,
com isso várias empresas faliram, entretanto empresas como Amazon.com, eBay e
Google, entre outras, tiveram recorde em lucratividade. Segundo dados do e-bit, no
mesmo ano o setor já faturava R$ 0,5 bilhão. Nos Estados Unidos entre 2004 e 2005
houve um aumento de 170 milhões para 175 milhões de pessoas acessando a
internet. Em 2005 as venda do comércio eletrônico voltaram a crescer, tendo
aumento de mais de 25%. Nessa mesma época foi o início da popularização da
internet no Brasil, época que as redes sociais como o Orkut e o Messenger
chegavam ao país, iniciando um ciclo que dura até hoje, onde pessoas utilizam
menos serviços físicos, como ir ao banco pagar contas, comprar em lojas e utilizar
mais os serviços da internet. Em 2007, no Brasil, o setor já faturava R$ 6,3 bilhões,
um aumento de mais de 40%, com relação ao ano de 2006, informações foram
divulgadas pelo estudo exclusivo da 17ª edição do Relatório "WebShoppers"
realizado pela e-bit (FERREIRA, 2011).
Portanto o comércio eletrônico teve um grande avanço de 2004 para cá, fazendo com
que todos abrissem o olho para a internet, pois ali se via um grande potencial, alguns
comércios locais chegaram a falir devido à alta procura por produtos na web, que por sua vez
era uma novidade e que todos gostariam de estrear. Juntamente com o comércio eletrônico
crescendo aqui no Brasil estava sendo popularizada a internet em si, principalmente através de
redes sociais, como o Orkut e o Messenger que chegavam ao país naquela época. E isso fez
com que muitas pessoas deixassem de fazer o que fazia em lojas ou bancos para poder fazer
online, pois era mais rápido e de fácil acesso.
Spyer, (2007) notou que o site Craiglist seria um site inovador, pois ele dá mais
atenção ao usuário do que propriamente dito ganhar dinheiro e com isso conseguiu atrair mais
de 10 milhões de visitantes por mês. O site Craiglist, nada mais é que um site de classificados
gratuitos para pessoas que querem anunciar ou procurar empregos, moradias, serviços, vendas
de produtos usados, além de ter fóruns para se discutir sobre diversos assuntos.
25. 23
Figura 2 - Site Craiglist - Fonte: http://brasilia.pt.craigslist.org/ - Acessado em 01/11/2011
Com o espírito de tentar ajudar ao usuário sem fins lucrativos, apesar de que no final
das contas ainda eram lucrativos, surgiram na web diversos sites nos Estados Unidos e em
outros países classificados que geram este, beneficiam para o usuário o poder de anunciar e
procurar por algo sem custo algum. Depois dos classificados, começaram a surgir sites com
outras finalidades, porém com a mesma ideologia que era de não cobrar por serviços, a partir
daí a web começou a se tornar uma grande fonte de sites prestadores de serviços gratuitos,
como no exemplo dos classificados e são difíceis jornais locais que cobram por anúncios,
brigarem por espaço, pois na internet existem inúmeros sites de classificados gratuitos
(SPYER, 2007).
Portanto pode se perceber que a Web no Brasil e no mundo está em plena mudança e
sempre visando o foco no usuário, o crescimento também é algo considerável, pois bastaram
poucos anos para a internet se popularizar e juntamente os negócios online tornaram-se uma
ótima alternativa para empresas pequenas e de grande porte.
26. 24
CÁPITULO II - SITES DE BUSCA
Com a internet em crescimento, o número de páginas também cresceu e muito, desde
então para acessar algum endereço o usuário precisava saber o nome da página para encontrar,
ao passar dos anos foram criados os Sites de buscas que visam entregar a página com o
melhor conteúdo condizente à busca realizada pelo usuário.
2.1. Diretórios
Os diretórios foram os primeiros da internet a organizar as páginas, essa solução foi
introduzida quando os números de páginas na internet ainda eram considerados pequenos e a
forma com que trabalhavam não era automática, fazendo com que demorassem a cada
requisição das páginas, os diretórios são organizados por categorias e subcategorias, como
pode se ver na figura 3 (CENDÓN, 2001).
Os sites inseridos nos diretórios, na maioria das vezes, são colocados por seres
humanos, grande parte quando os webmasters submetem a url para ser incluído dentro das
categorias específicas em forma de formulário com o endereço do site também era inclusa
uma breve descrição do site, além de palavras-chave.
Quanto aos assuntos, nem todos os diretórios são genéricos como o Yahoo!, ou o
Britannica, que cobrem todos os assuntos. Alguns diretórios cobrem áreas
específicas e têm sido chamados de diretórios temáticos ou especializados. Existem,
por exemplo, diretórios especializados em imagens, jornais e revistas, software,
listas de discussão; outros coletam sites sobre assuntos específicos como saúde,
ciências, legislação, informática etc.; ainda outros listam ferramentas de busca de
países específicos ou para um público-alvo determinado (crianças, pesquisadores,
organizações não governamentais etc.). Devido à frequência com que novas
ferramentas de busca (diretórios e motores de busca) surgem ao mesmo tempo em
que outras caem em desuso, um novo tipo diretório passou a ser criado: os diretórios
de ferramentas de busca. Diretórios como FinderSeeker (http://www.finderseeker.
com/) ou Search.com (http://search.cnet.com/) têm o objetivo de listar ferramentas
de busca, para facilitar sua identificação (CENDÓN, 2001).
27. 25
Conforme falado, os diretórios foram um grande ápice da época, não existiam os
motores buscas e o usuário se recorria aos diretórios, que por sua vez, poderiam ter vários
assuntos ou até mesmo ser específico de alguma área, portanto depois que começou a surgir
os primeiros buscadores, os diretórios de links começaram a cair em desuso, pois os
resultados dos diretórios eram menos satisfatórios para o usuário. Na Figura 3 pode-se ver o
diretório DMOZ, que é responsável até hoje por fornecer informações para outros diretórios,
como se fosse uma fonte de links.
Figura 3 - Diretório DMOZ - Fonte: DMOZ - http://www.dmoz.org/
Os motores de buscas chegaram com uma forma diferente de tratar as páginas da web,
pois ele não usava intervenção humana e também não era dividido e subdivido por categorias,
eles usavam algoritmos em softwares chamados de robôs para identificar o site pela pesquisa
feita pelo usuário, com isso os buscadores poderiam alcançar um número muito maior de sites
em sua base de dados e o usuário por sua vez faria a busca do site escrevendo palavras-chave
28. 26
ou, às vezes, em linguagem natural (CENDÓN, 2001).
De alguns anos para cá, existiram vários buscadores com diferentes tipos de
algoritmos, tudo para diferenciar entre eles, a fim de trazer melhor experiência aos usuários. a
figura 4. Abaixo se pode ver os buscadores com a ordem de seus lançamentos:
Figura 4 - Evolução dos Search engines Fonte: Wikipédia - http://pt.wikipedia.org - Visitada em 30/10/2011
Cada motor de busca tinha seu algoritmo diferente um do outro para ter vantagem em
relação de melhores resultados, existem ótimas ferramentas na web, portanto destacam-se:
Yahoo, Bing, MSN Search, Alta vista, por isso nenhum tem o desempenho e qualidade do
Google (RICOTTA, 2007).
2.2. Google
Ricotta, (2007) diz sobre o Google que:
O Google atualiza sua base de informações diariamente, pois existe um crawler,
chamado de Googlebot, que busca por informações novas em todos os websites. Isso
é realmente interessante, pois cerca de 30 minutos após se publicar um artigo em um
blog já é possível encontrá-la no Google. Outros mecanismos de busca também
possuem crawlers, mas eles não são tão eficientes em termos de atualização e de
classificação de informações. (...) Outros dois fatores importantes do sucesso dos
motores de busca são a simplicidade e clareza. A combinação desses itens foi
aprimorada desde a concepção do Google. Devido a isso, é possível acessar um site
leve, sem poluição visual e cujas opções são facilmente localizáveis (RICOTTA,
2007).
Pode-se notar que algoritmo desenvolvido pelo Google faz com que o Googlebot
29. 27
percorra todo seu site em busca de informações novas em um curto período de tempo, fazendo
com que um conteúdo novo do seu site chegue ao Google cerca de 30 minutos após ser
publicado, lembrando que vários outros buscadores com a mesma funcionalidade, mais
nenhum supera o Google em termos de qualidade e eficiência. Outro fator que o Google faz
sucesso é o design minimalista que faz com que o usuário tenha uma experiência agradável ao
ter tudo que precisa facilmente (RICOTTA, 2007).
O Google também conta com um diferencial também que é chamado de PageRank.
Ricotta (2007) “trata-se de um algoritmo desenvolvido por Larry Page, um dos fundadores do
Google, que atribui uma pontuação a cada página web de acordo com a quantidade e a
qualidade dos links que apontem para ela” complementando, pode-se dizer que o (PR) é uma
avaliação da relevância da página, pois faz com que o Google some a quantidade de links que
a determinada página recebe de outros sites, visando sempre à qualidade de cada site que
envia o link, e ele tem o valor de zero até dez, sendo o dez o melhor visto pelo Google.
Para melhor entendimento quanto ao PR na figura 5 pode se perceber que sites que
contêm mais links direcionados são maiores no PR e quando um site de PR alto faz um link
para outro site de PR baixo, ele subitamente tem seu PR melhorado. Logo quanto maior o PR
de algum site, maior a relevância e confiança o Google tem por ele, fazendo com que seus
links também tenham esse mesmo valor do que sites que tenham PR baixo.
Figura 5 – Pagerank - Fonte: Mestre SEO - Acessado em 31/10/2011
Na Tabela 2 pode-se observar os sites que mais tem Pagerank alto no Google:
30. 28
Tabela 2 – Sites com maiores Pagerank de Agosto de 2011
Links do
Título PR Link do Yahoo! URL
Google
US Goverment
10 20.900 9.652.685 http://www.usa.gov/
website
Adobe - Adobe
Reader 10 141.000 3.403.720 http://get.adobe.com/reader/
Download
United States
Department of http://www.hhs.gov/ and
Health and 10 9.750 2.308.721 http://www.dhhs.gov both redirects to
Human same URL.
Services
Miibeian 10 70.300 841.149.899 http://www.miibeian.gov.cn/
Facebook 10 6.020 2.147.483.647 http://www.facebook.com/
Social
Bookmarking
10 59.300 254.366.507 http://www.addthis.com/bookmark.php
Sharing Button
Widget
Europeana 10 3.890 140.776 http://www.europeana.eu/portal/
EUA -
European
10 1.500 163.899 http://www.eua.be/
University
Association
Universitas 21 10 422 205.306 http://www.universitas21.com/
University of
10 1.490 654.703 http://universityofcalifornia.edu/
California
Google 10 39.900 1.362.935.280 http://www.Google.com/
Government Of
10 2.980 328.609 http://india.gov.in/
India
United States
Cable News 10 12.900 793.696 http://us.cnn.com/
Network
Piwik - Web
10 11.900 4.083.736 http://piwik.org/
analytics
Fonte: Search Engine Genie - http://www.searchenginegenie.com - Acessado em 31/10/2011
31. 29
Na Tabela 3 pode-se notar que os principais sites e mais linkados são sites do governo
ou serviços da web com popularidade como o Facebook.
Portanto, o Google desde que foi lançado, teve muitas modificações tanto no design do
site quanto no algoritmo. Recentemente pode se destacar três alterações significantes:
Caffeine, Florida Update e o mais impactante, o Panda Update que afetou cerca de 12% nas
buscas do Google nos EUA e 9% nas buscas em outros países (RICOTTA, 2011).
Esse novo Update no algoritmo do Google gerou muitas polêmicas, pois vários sites
que antes tinham milhares de visitas chegaram a perder até 90% de tráfego vindo do Google,
pois essa atualização tem como objetivo melhorar a experiência do usuário de todas as
formas, agora os critérios de rankeamento estão mais exigentes que antes, agora ele passa a
analisar o tempo médio que o usuário gasta na sua página, a taxa de rejeição, se tem muitos
anúncios que atrapalham o usuário, o site realmente tem o conteúdo pesquisado, tempo de
velocidade de abertura do site, se é conteúdo copiado de outros sites, facilidade para usuário
final, qualidade do conteúdo e outros (FAUSTINO, 2011).
Pode se concluir que os motores de busca vieram para facilitar a vida do usuário que
está a procura de determinado item na web, através de palavras-chave pesquisadas, os
buscadores lhe dão uma série de site a respeito e o Google por sua vez com seu inovador
algoritmo de rankeamento fez com que se destaca entre eles, pois faz o seu ranking através de
vários fatores como quantidade de links apontada para o site e principalmente a experiência
do usuário no site se é a agradável ou não.
32. 30
CÁPITULO III - SEO – SEARCH ENGINE OPTIMIZATION
Segundo Teixeira (2007), SEO uma técnica que faz a otimização de uma página (ou
até do site inteiro) para se tornar melhor compreendido pelas ferramentas de busca. Portanto é
necessário um estudo e implementação de técnicas de SEO em um site, pois da mesma forma
que o site pode ser bem compreendido pode também ser mal compreendido chegando a ser
rebaixado ou sofrer um banimento nas páginas de resultados de uma determinada busca.
Em meados da década de 90, antes do Google surgir, webmasters já se preocupavam
em divulgar seus sites em sistemas de busca. Nesse primeiro momento era apenas
necessário submeter uma url ou domínio por meio de um formulário dos buscadores.
Esses, por sua vez, enviavam seus spiders para percorrer as páginas, reconhecer os
links nas mesmas e indexar o seu conteúdo no banco de dados. Nessa época, para
identificar a importância de determinado termo dentro de uma página analisava-se
apenas o número de vezes que esse aparecia e sua localização. Portanto era comum
encontrar resultados com qualidade muito baixa, já que muitos webmasters
abusavam da quantidade de termos inseridos no conteúdo e obtinham bons rankings.
O termo “search engine optimization” passou a ser usado em 1997, segundo Danny
Sullivan, que cobre a área de sistemas de busca desde 95. Logo surge o Google e a
fotografia da indústria de busca sofre grandes mudanças: penalizações para o
emprego de técnicas antiéticas – também conhecidas como black hat, foco na
qualidade do conteúdo, popularidade e confiança medidas por meio de links e
qualidade de suas fontes (SANCHES, 2010).
O termo SEO nasceu quando houve necessidade de atrair mais visitas para um
determinado site, logo muitas pessoas usavam técnicas antiéticas para conseguir uma melhora
no rankeamento ficando a frente de outro site que poderia ser melhor para o usuário, foi a
onde os buscadores tentavam cada vez mais formas de identificar tais técnicas que hoje são
chamadas de Black Hat.
No início, os buscadores solicitavam aos donos de site para submeter à url ou domínio
por meio de formulário, que depois através de uma análise seriam aprovados ou não, depois
de aprovados os sistemas mandavam os chamados spiders para percorrer o conteúdo de todo o
site para dentro do seu índice de resultados. A importância na época era analisar apenas o
número de vezes que o site era solicitado na busca e sua localização, então devido ao baixo
33. 31
rigor nos tratamentos dos dados, muitos sites que eram visualizados na página de resultados
da busca feita pelo usuário tinha a qualidade muito baixa, fazendo com que o usuário que
7
requisitou a busca não ficasse satisfeito com os resultados, e também muitos webmasters
notaram que se eles espalhassem pelo site algumas palavras-chave que era de acordo com o
texto, eles melhoravam no ranking da busca feito pelo usuário, fazendo assim uma otimização
do site. Muitas vezes, os webmasters usavam de formas antiéticas para se beneficiar com o
sistema de busca, por isso quando chegou a empresa Google eles já vieram com alguns
sistemas de rankeamento melhores, pois trouxeram consigo o foco na qualidade, desde a
popularidade da página, a confiança medidas por links e qualidade das fontes atribuídas nas
páginas.
Inouye (2007) diz que, antigamente, o SEO definia em construção de links nos
diretórios, otimização para os Spiders, competição entre um site do mesmo nicho, troca de
links, otimização de links para batalhar para se obter melhor PageRank e também explica que
50% das tarefas dos buscadores como o Google era tarefa automatizada:
Diretórios foram os primeiros sistemas de busca criados. Também chamados de
catálogos, tem como característica a categorização e organização em tópicos. Estes
tópicos seguem uma estrutura lógica e são subdivididos por detalhamentos. Por
exemplo, a categoria esportes tem a subdivisão futebol que por sua vez pode ser
divida em profissional e amador. Normalmente os diretórios são feitos por pessoas,
diferente das ferramentas de busca que usam robôs como veremos a frente. Os
principais diretórios existentes são o DMOZ.org e o Yahoo! (TEIXEIRA, 2007)
Como Teixeira (2007) comentou, os diretórios de antigamente eram como se fossem
um catálogo, onde o usuário escolheria a categoria e dentro da mesma era subdivido em
tópicos e só assim a listagem de sites que normalmente era por letra alfabética, não trazendo
relevância nenhuma sobre o que o usuário realmente queria, outro detalhe é que esses
diretórios eram feitos por pessoas diferentemente dos motores de busca que usam algoritmos
para definir como auxiliar na pesquisa do usuário.
3.1. Técnicas OnPage e Offpage
Hoje em dia, o termo SEO está sendo bastante estudado e está sempre se preparando
para as novas tendências dos motores de busca e para conseguir resultados cada vez melhores
7
O Webmaster é um profissional capaz de realizar tarefas tanto de um webdesigner (elaboração do projeto
estético e funcional de um web site) quanto de um WebDeveloper ( que faz a parte da programação, como
sistemas de login, cadastro, área administrativa ) (WIKIPÉDIA, 2011).
34. 32
são feitas técnicas que podem se classificar como técnicas de OnPage e de OffPage, e onde
que se dá o trabalho de SEO e que um bom trabalho é feito de forma com que uma técnica
ajuda a outra, ajudando ao usuário final que fez a busca ter realmente o conteúdo que ele
pesquisou (MESTRESEO, 2011).
Segundo a Mestre SEO (2011), as técnicas atribuídas dentro do próprio site, onde são
feitas modificações no código HTML ou no CSS são chamadas de OnPage, pois são feitas
internamente no site, às vezes, sem que o usuário final as percebam, na maioria das vezes, são
feitas alterações na forma em que o Título é exibido, a quantidade de links nas páginas, quais
palavras-chave são aplicadas, a forma como elabora o título da página e até mesmo o nome do
site são fatores importantes.
Já as técnicas de OffPage a Mestre SEO (2011) classificam-se como sendo o trabalho
por fora do site, externamente, pois eles não estão ligados diretamente ao site, mas
lembrando-se de que para uma técnica de OffPage funcionar deve-se ter dado atenção
primeiramente às técnicas de OnPage, porque o site deve estar bem estruturado a fim de
receber visitantes.
Links de entrada (inbound links) são os links que outros sites apontam para uma
página do seu website. No início do PageRank, a regra era simples: quanto mais
links, melhor. Mas esta visão mudou bem desde a concepção inicial do algoritmo.
Ainda sim, a quantidade de links recebidos por uma página é uma métrica
importante utilizada para definir seu posicionamento em uma determinada pesquisa.
Eis a razão de tanta busca por links, de sempre querer mais links
(MESTRESEO,2011).
Pode-se perceber que os links apontados para seu site é uma das métricas mais
importantes para os motores de busca fazendo com que se destaca nas técnicas de OffPage, o
porquê da razão de ser importante se dá pelo fato de que é feito um ranking pelos motores de
busca procurando pelo site que contém mais popularidade, portanto um site que recebe muitos
links se dá na forma como sendo um site popularmente, pela quantidade de links que ele
recebe, lembrando que “não importa tanto quantos links você recebe, mas sim a quantidade
de domínios diferentes que apontam para o seu website” (MESTREOSEO, 2011):
Um exemplo simples para este caso é saber que um site que possui 1.000 links de
1.000 domínios diferentes, irá ranquear melhor do que um website que recebe 1.000
de 200 domínios diferentes. Logicamente neste exemplo estamos descartando todos
os outros fatores. De nada adianta receber muitos links e de vários domínios
diferentes se a qualidade dos websites ou páginas não possuem uma boa reputação.
Para isto é importante saber de quem você recebe um link, olhando os fatores
daquela página. A regra aqui é simples, é muito importante que o link que você
recebe seja de um site relacionado ao seu, que não esteja banido pelos Search
Engines, e que seja de conteúdo original (MESTRESEO, 2011).
35. 33
3.2. Black Hat
Muitos donos de site ou até empresas que fazem serviços de SEO usam de práticas
ilegais aos olhos dos buscadores e isso é chamado de Black Hat.
Black Hat SEO é o termo utilizado para caracterizar técnicas de SEO consideradas
“ilícitas” ou abusivas, ou seja, técnicas que aproveitam uma possível brecha nos
algoritmos de classificação de resultados ou exageram o uso de alguma
técnica White Hat SEO. Em oposição, o White Hat SEO é composto por técnicas
de SEO consideradas válidas por search engines (MESTRESEO, 2011).
Como SEO é uma vantagem para qualquer site, muitos webmasters usam técnicas de
Black Hat para poder se beneficiar de forma ilegal aos olhos dos buscadores, pois os
buscadores trabalham com algoritmo que por sua vez, pode ficar vulnerável a alguma brecha
fazendo com que sites que não deveriam ficar nas primeiras posições, ficam e prejudicam a
experiência do usuário final.
Alguns modos de Black Hat são bastante efetivos como os tais Keyword Stuffing que
se tratam de espalhar palavras-chave relacionadas às buscas dentro da página como, por
exemplo: “Notebook, notebooks, venda notebook, notebook hp, notebook novo…”, e às vezes
de alguma forma que o usuário não veja essas palavras, somente os algoritmos dos motores de
buscas, porém quando os buscadores percebem a prática, o site é penalizado de diversos
modos, mas a principal é a remoção do conteúdo do site nas Serps, fazendo com que perca
visitas (MESTREOSEO, 2011).
Do ano de 1997 até os dias de hoje, o SEO ficou muito mais complexo como Veloso
(2011) diz que hoje o profissional de SEO deve delinear vários tipos de estratégia,
principalmente em estratégias OffPage nas redes sociais que vem cada dia mais tomando
espaço na internet, e também hoje em dia qualquer palavra-chave está cada vez mais
concorrida e com vários profissionais de SEO se espalhando por aí deixa o trabalho mais
intenso e difícil.
Com base nessas informações pode-se concluir que os motores de busca precisam de
seus algoritmos para providenciar melhores resultados para o usuário, fazendo com que os
webmasters focassem um trabalho específico de SEO nas páginas a fim de subir seu
rankeamento nas Serps, trazendo assim mais visitantes ao seu site por meio de técnicas de
OnPage e OffPage aumentando seus lucros e conversões como por exemplo um cadastro ou
37. 35
CAPÍTULO IV - METODOLOGIA
4.1. Métodos de Análise e Classificação da Pesquisa
Este trabalho utilizou de pesquisa qualitativa pelo fato de comparar o antes e o depois
e analisando também alguns dados específicos, como o tempo de permanência no site entre
outros, e a quantitativa por também se tratar de analisar as estatísticas dos sites antes e depois
das técnicas de SEO, avaliar também se o estudo teve sucesso e analisar em especial alguns
dados reais abordados pela pesquisa.
O método de coleta das estatísticas foi como observação direta através de programas
específicos que nos dão todos e quaisquer dados significantes para a pesquisa. O estudo se
baseia também em uma pesquisa bibliográfica por se tratar de consultas realizadas em outras
bibliografias de domínio publico. Teve também como método de abordagem o dedutivo, pois
se trata de estudar as técnicas que serão aplicados e logo após a análise de forma particular
sobre os dados obtidos.
4.2. Tecnologias de Apoio.
Para construir os sites foi usada a tecnologia de programação PHP ligada ao banco de
dados MySQL usando o gerenciador de conteúdo chamado Wordpress.
PHP (um acrônimo recursivo para PHP: Hypertext Preprocessor) é uma linguagem
de script open source de uso geral, muito utilizada e especialmente guarnecida para
o desenvolvimento de aplicações Web embútivel dentro do HTML. Ao invés de
muitos comandos para mostrar HTML (como visto em C ou Perl), páginas PHP
contém HTML juntamente com códigos que fazem "alguma coisa" (neste caso,
mostra "Olá, Eu sou um script PHP!") O código PHP é delimitado por tags iniciais e
finais <?php e ?> que lhe permitem pular pra dentro e pra fora do "modo PHP"
(PHP, 2011).
38. 36
Conforme escrito, o PHP é de fácil compreensão, pois sempre quando usado é
delimitado por tags, ou seja, marcações na linguagem de programação sendo elas iniciais e
finais, trazendo consigo o HTML no documento, ajudando a identificar erros no HTML sem
ter muita experiência no próprio PHP, o PHP pode fazer qualquer coisa, pois é uma
linguagem de script do lado do servidor, portanto pode-se dizer que ele coleta dados de
formulários, criar e gerar páginas de conteúdo dinâmico, receber ou enviar cookies e muito
mais (PHP, 2011).
MySQL é um sistema que gerencia banco de dados em SQL, atualmente, é um dos
mais populares banco de dados do mundo, esse programa “pode ser usado em sistemas de
produção com alta carga e missão crítica bem como pode ser embutido em programa de uso
em massa”, ou seja, ele serve para gerenciar todo e qualquer tipo de informação gerada pelo
site, pois o site usa um sistema de gerenciamento de conteúdo, então tal sistema necessita de
um gerenciador de banco de dados eficiente e rápido e o MySQL é um dos mais usados
atualmente na web para sites de pequeno e grande porte (MYSQL, 2010).
Segundo Mullenweg (2010), “Wordpress (WP) é um sistema de gerenciamento de
conteúdo na web, escrito em PHP e executado em MySQL”. E por ser um gerenciador de
conteúdo pode-se denominar um CMS, o WP teve seu crescimento muito rápido devido a sua
licença que é de código aberto, a facilidade de uso e suas características como gerenciador de
conteúdo, além da customização que pode transformar desde um simples blog até mesmo um
portal de notícias.
Outra característica do WP é facilidade que tem de mudar de tema, instalar plug-ins
que customiza o gerenciador para de acordo com que o webmaster deseja comparado a outros
CMS que existem como o Joomla, Drupal, PHP Nuke, Xoops entre outros, o WP é o que mais
se encontra recursos disponíveis para modificar o site e, na maioria das vezes, consegue-se
esses recursos gratuitamente. Além de poder instalar o WP em servidor próprio, existe
também o serviço Wordpress.com, onde o usuário poderá criar blogs simples gratuitamente
sem pagar hospedagem ou domínio (MULLENWEG, 2010).
São usados servidores particulares e não gratuitos todos em ambiente Linux, o
Infomaníaco por ter mais conteúdo usa um VPS e o Goiatuba online servidor compartilhado.
VPS é denominado perfeito para sites que usam muitos recursos de servidor como
memória e CPU, o VPS é como um servidor compartilhado, portanto aloca a memória
contratada a fim de dar mais robustez ao seu espaço dentro do servidor. É como se fosse um
servidor dedicado virtual, pois você tem sua própria memória RAM, espaço e tráfego limitado
39. 37
ao seu plano, fora que poderá ter acesso ao root podendo personalizar o servidor de acordo
com as suas necessidades, ou até mesmo reiniciar o server a fim de evitar sobrecargas, isso
tudo você pode ter além do desempenho adequado ao seu site (GCMHOST, 2010).
Já a hospedagem compartilhada, como o nome já diz, seu site é hospedado com vários
outros sites, usando a mesma memória alocada e o mesmo CPU do servidor, é a mais usada
em todo o mundo devido ao fato de ter baixo custo, portanto se algum dos sites que tiverem
no mesmo servidor fazer uma sobrecarga, fará com que todos sejam afetados e a limitação de
CPU para cada site costuma ser de 2%, muito diferente do VPS, logo se tratando de custo x
benefício para sites pequenos é a melhor solução (SANCHES, 2011).
Para realizar consultas nas estatísticas do site para saber se o estudo foi feito com
sucesso, foi utilizado o Google Analytics. Esse sistema permite saber qual são as páginas mais
visitadas do site, qual o termo de pesquisa que foi realizada a pesquisa que fez com que o site
aparecesse, melhores palavras-chave, de onde vieram os visitantes, quais plataformas, o
tempo de permanência, a origem do tráfego, se ele veio do Google ou de outro buscador, entre
outros relatórios não menos importantes (TRAVARELLI, 2008).
O Google Analytics também verifica a taxa de rejeição de cada página do site,
analisando os usuários que entram e na mesma hora vão embora sem que haja alguma
interação ou tempo de visualizar o conteúdo seja pela aparência, qualidade, ou não ser
realmente o que estava procurando, através disso o webmaster poderá fazer um estudo para
melhorar o seu website a fim de trazer mais visitantes e ao mesmo tempo agradar o usuário
que vai ao seu site à procura de informações (TRAVARELLI, 2008).
Outra ferramenta de análise que foi usada é o Google Webmasters Tools ou GWT.
Com ele, pode-se visualizar como o Google visualiza o site, quantidade de pessoas que
encontraram o site através dos resultados das pesquisas e quantas que só realmente entraram,
tem alertas sobre qualquer alteração do seu site perante o Google, quais os sites que fazem um
link, quais palavras-chave são mais influentes dentro do seu website, tempo de carregamento,
diagnosticar problemas, Permite que você envie dados (sitemap, por exemplo) para ajudar na
indexação, fornece dados sobre a taxa de indexação, erros e muitas outras informações
coletadas sobre seu site (GOOGLE, 2010).
40. 38
Figura 6 - Modelo de Página principal do Google Analytics Fonte: Mxstudio - http://www.mxstudio.com.br/ -
acessado em 04/11/2011
O GWT é importante para saber a relação do site perante o Google, para os
webmasters perceber alguns pontos e ver no que o seu site realmente consegue ser bom, a fim
de traçar um plano de SEO efetivamente.
4.3. Site antes da aplicação das técnicas de SEO
O Infomaníaco em maio de 2008 começou não tendo nenhuma visita e através de
inserções de conteúdo começaram a ter cada vez mais visitas, portanto havia a necessidade de
melhorar ainda mais a visibilidade dele na internet, onde começou a inserção de técnicas de
SEO para alavancar o site em posições no Google em diversas palavras-chave.
Em 24 de setembro de 2008, foram colocadas em prática algumas técnicas de SEO que
41. 39
ajudou o site que até então não passava de 1000 visitas diárias.
Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 Fonte: Do Autor
Na figura 7, pode ser notado como era o site antes da aplicação das técnicas de SEO e
a maneira que foram subindo a quantidade de visitas.
E o site de notícias Goiatuba online como o Infomaníaco começou sem visitas e sem
atenção do Google, na figura abaixo podem-se ver os primeiros dias de visita do Goiatuba
online, antes da otimização de SEO.
Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 – Fonte: Do autor
Em ambos os sites do estudo, foi feito o mesmo trabalho de SEO, com as mesmas
técnicas e primeiramente foi desenvolvido o trabalho de organização de Arquitetura do site.
Ricotta (2010), diz que a “Arquitetura de sites é a maneira como o conteúdo é organizado ao
longo das páginas do site (home, categorias, subcategorias, etc.) e a forma como os conteúdos
do site são relacionados entre si”. Baseado nisso, foram feitos alguns ajustes nas categorias do
site a fim de centralizar o conteúdo para não haver uma dispersão dos dados, foram criadas
42. 40
categorias para fazer a segmentação ao foco principal do site.
4.4. Métodos
Começou-se então o trabalho de SEO OnPage onde são feitas alterações no layout e
no código HTML do site para uma melhor otimização para os motores de busca.
Conforme a figura 9 foi trabalhado o título do site dando mais ênfases nas palavras-
chave associadas ao nome do site, fazendo ter mais relevância na página inicial a respeitos das
palavras-chave respeitando o número de caracteres permitido.
Figura 9 - Titulo do site Infomaníaco - Fonte: Do Autor
Na figura 10 podem ser vistas três alterações no HTML que foram feitas para melhorar
o entendimento da página perante o Google.
Figura 10 - Técnicas de SEO - Fonte: www.Infomaníaco.com.br
Na Tag Meta Name Description foi colocada uma breve descrição do site, esta
descrição é muito importante, pois ela irá aparecer no resultado de busca do Google, como
sendo um chamariz do visitante para seu site, nela também deve conter palavras-chave para
mostrar o conteúdo que o site abrange.
Em Meta Name Keywords, são colocadas novamente as palavras-chave do site, dessa
vez para situar o site como sendo detentor das palavras-chave abordadas.
Uma das principais técnicas de SEO para se evitar conteúdo duplicado dentro site é o
uso da tag canonical. Marcel (2009), explica que conteúdo duplicado no site pode prejudicar
muito, pois existe um imenso número de acessar uma página e o Google vê isso como
conteúdo duplicado, ele ainda cita exemplo de como pode ser acessada uma página normal em
43. 41
diversas formas de digitar a url.
Figura 11 – Canonical - Fonte: http://www.mestreseo.com.br/ Acessado em 08/11/2011
A Tag Canonical é colocada em todas as páginas do site duplicadas direcionando para
a URL original como vemos na figura 11 o site Infomaníaco é redirecionado para
http://www.Infomaníaco.com.br/, portanto toda vez que o Google passar pelo site, ele vai
entender que a página principal é a que a canonical está apontando.
Foi alterada a forma com que o site abordava suas URL`s fazendo com que elas
ficassem mais claras para o visitante e para o Google, abaixo você pode ver na tabela 3 como
era as Url`s e como se tornaram depois da otimização de SEO.
Tabela 3 - Urls Amigáveis
Antes Depois
http://www.Infomaníaco.com.br/?p=213 http://www.Infomaníaco.com.br/dicas/
http://www.Infomaníaco.com.br/?p=456 http://www.Infomaníaco.com.br/downloads/
http://www.Infomaníaco.com.br/?p=879 http://www.Infomaníaco.com.br/notícias/
http://www.Infomaníaco.com.br/?p=486 http://www.Infomaníaco.com.br/tutoriais/
http://www.Infomaníaco.com.br/?p=159 http://www.Infomaníaco.com.br/games/
http://www.Infomaníaco.com.br/?p=357 http://www.Infomaníaco.com.br/videos/
Fonte: Do autor
Pode-se notar que depois da otimização das URL`s o usuário consegue identificar qual
o conteúdo ele está abrindo antes mesmo de terminar de abrir a página e antes isso era
impossível, e isso é muito relevante ao Google, pois adiciona mais palavras-chave ao seu
44. 42
conteúdo.
Outro fator importante na otimização OnPage que foi utilizado no site Infomaníaco
são as denominadas as headings tags, pois servem para atribuir tamanhos diferentes para o
texto, portanto o Google as vê como uma forma de separação de conteúdo do título com o
subtítulo e por subsequente.
Na figura 12 pode-se ver um exemplo clássico de utilização das headings tags de
forma efetiva em um determinado site.
O uso apropriado de heading tags pode ser exemplificado da seguinte maneira:
<h1>Infomaníaco – Site de Conteúdo</h1> Neste h1, ficou definido o tema
principal da página.
<h2>Conteúdo 1</h2> Já no texto do H2, algo mais específico, ou seja, uma
subseção do H1.
Figura 12 - Headings Tags - Fonte: www.mestreseo.com.br
Nas imagens do site foram feitas também alterações na forma com que cada imagem
fosse colocada conteúdo dentro das imagens nas tags Title e Alt.
O atributo “ALT” tem a sintaxe HTML: “<img src=”image.jpg” alt=”Descrição da
Imagem” />” a tag ALT é o comando usado para identificar o Alternate Text, o texto
alternativo que é exibido quando a imagem não é carregada.
Já o atributo “Títle” serve para atribuir o título à imagem para o Google identificar do
45. 43
que se trata a imagem e a sintaxe usada é seguinte: “<img src=”image.jpg” title=”Título da
Imagem” />” Essas tags adicionadas nas imagens ajudam e muito no desempenho do SEO em
sua página, pois agrega mais valor à palavra-chave que está sendo otimizada na página em
questão.
Foi usado no site o arquivo robots.txt que é usado pelo Google e outros buscadores
como forma de apresentação do site para o buscador, nele você pode impedir páginas restritas
ou com conteúdo duplicado de serem rastreadas pelos buscadores, fazendo uma espécie de
bloqueio entre os spiders e o seu site, outra vantagem do arquivo robots.txt é indicar o
caminho dos seus sitemaps. Abaixo na figura 13 pode se ver o robots.txt utilizado atualmente
no Infomaníaco.
Figura 13 - robots.txt – Fonte : Do autor
Outra vantagem do robots.txt é que ele pode indicar o caminho específico do sitemap.
Sitemap por sua vez tem um papel muito importante, pois indica para o Google e alguns
buscadores a quantidade de páginas a ser indexadas e quais são elas, também como a data de
publicação e a prioridade da página determinada referente ao conteúdo do site.
O arquivo de sitemap é feito em XML e ajuda os motores a buscar e a identificar
como é o site e deve seguir alguns padrões para facilitar a leitura dos buscadores nas páginas
do seu site. Abaixo na figura 14 pode ver um exemplo de como deve ser o arquivo
46. 44
sitemap.xml dentro do site.
Figura 14 - sitemap.xml - Fonte: www.mestreseo.com.br
Foi feito também um trabalho de Link Bulding, Ricotta (2010), disse que “Link
Building é o processo de aquisição de links para um determinado website com a finalidade de
aumentar a sua popularidade e relevância na Internet”.
Portanto foi feito esse trabalho através de dois tipos de links: links internos e links
externos, os internos visam linkar uma página do website a outra página dentro do próprio
site, já o externo é fazer o link para outros sites, que no caso seria outros sites linkando para
os websites do estudo.
Para fazer os links internos, usamos um plug-in junto ao WP para exibir na página
links relacionados ao mesmo conteúdo dentro do site, fazendo com que quando o Google
visitar esta determinada página ele passa pelos links e chegue até as outras páginas que foram
linkadas, dando mais autoridade naquele determinado assunto. Exemplo de link interno na
figura 15.
Os links externos têm um pouco mais de dificuldades, porém têm mais relevância para
o Google, pois é quando recebe links de outros sites e para isso o importante é fazer um
conteúdo original e atrativo a fim de que outros sites te linkam para mostrar o conteúdo, nos
websites em questão, foram feitas parcerias de links em outros sites, onde os sites em questão
linkavam um para o outro. Um exemplo de Link externo na figura 16.
47. 45
Figura 15 - Links internos – Fonte: www.mestreseo.com.br
Figura 16 - Links Externos - Fonte: www.mestreseo.com.br
Na sintaxe HTML os links têm a seguintes características: “<a
href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“, onde site de conteúdo é o
texto âncora, ou seja, o que aparecerá para o usuário. Na sintaxe ainda pode ser introduzida
alguns atributos como sendo um dos principais para o Google o nofollow. Ricotta (2010), diz
que “nofollow” é um atributo HTML utilizado para instruir aos mecanismos de busca que um
determinado link não deva constar no grafo de cálculo de rankeamento, ou seja, não passará
relevância. O seu objetivo é diminuir o efeito de técnicas de spam na Internet, tal como
comentários spam em blogs. Onde a sintaxe é usada como a seguir: “<a rel=“nofollow”
href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“.
E nos websites do estudo foi feito uma alteração nos links adicionando o atributo
nofollow onde apontavam para sites externos afim de não passar link juice para outros sites,
link juice que por sua vez significa a relevância de um site, então quando linkamos para outro
site sem o atributo nofollow está sendo passando também um pouco da relevância do seu site
para outro.
48. 46
Foi visado também não somente um domínio fazer vários links para o site do estudo, e
sim, vários domínios diferentes linkando, pois o Google entende que é melhor ter vários sites
te linkando do que somente um, os links externos também são analisados pelo Google
minuciosamente, pois vê diversas características dele para avaliar sua relevância até sua
página como, por exemplo, o Google vê se o link tem o texto âncora de acordo com o site
linkado, a autoridade do website que envia o link, relevância do contexto, se está com
nofollow, a profundidade da página, quantidade de links da página e a posição (RICOTTA,
2010).
Portanto nos sites do estudo foram feitos vários trabalhos de link Bulding como
escrever conteúdos originais e com qualidade, a inserção da URL dos sites nos principais
diretórios, cadastramos também os sites nas principais redes sociais, troca de links e parcerias,
submissão de artigos em outros websites parceiros, interação em fóruns do mesmo assunto,
tudo isso visando links apontados para os sites que estão sendo otimizados para o Google.
Depois de várias inserções de técnicas de SEO, alterações no código HTML, no
conteúdo, fatores externos trabalhados, os dois sites ficaram otimizados e preparados para o
Google para então efetivar o estudo.
49. 47
CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS
RESULTADOS
5.1. Site de Conteúdo
Através da análise dos sites foram identificadas quais técnicas de SEO apropriadas
para os sites e então foi feito a aplicação das mesmas, depois de um período os dois sites
conseguiram ganhar seu espaço na web de uma forma com que se destaca em seu nicho, o
Infomaníaco ao longo do tempo conseguiu a chegar a marca de 9.956.393 de visitas únicas,
no relatório contido na figura 17 feito no Google Analytics pode-se ver com mais clareza.
Figura 17 - Estatísticas de visitas do Infomaníaco - Fonte: Do autor
50. 48
Esse gráfico acima foi gerado do período de 24/09/2008 até 10/11/2011 onde pode ser
notado vários números significantes, o número de visitas únicas, ou seja, por IP foi de quase
10 milhões e que estas visitas únicas visualizaram cerca de 15.451.229 páginas, uma média de
1,55 páginas por visita.
Na figura 18 abaixo pode ser vista a quantidade das visitas que vieram de mecanismos
de pesquisa ou motor de busca.
Figura 18 - Origens de tráfego - Fonte: Do autor
Em todo esse período e com mais de nove milhões de visitas cerca de 8.026.368 de
visitas, ou 80.58% que o Infomaníaco teve foi vinda de mecanismos de pesquisa e
ramificando ainda mais, dentro desse número 78,42% veio do tráfego orgânico do Google,
muito do distante de outros buscadores.
Outro gráfico interessante é o de palavra-chave que mais recebeu visitas vindas do
Google, nele pode se ver que o Infomaníaco recebeu cerca de 7.807.752 visitas que vieram do
Google por meio de 929.757 palavras-chave, outro fator que foi encontrado no gráfico abaixo
é que ainda fala que as visitas vieram por um meio que não gerou custos para o Infomaníaco,
ou seja, o Google enviou 7.807.752 não para visitas, onde pode perceber a importância de
SEO para o site de conteúdo.
51. 49
Figura 19 - Visitas vindas do Google - Fonte: Do autor
Além disso, pode ser mensurado de que país esses visitantes vieram, estado e até
mesmo a cidade, nesse período o Infomaníaco recebeu visitas vindas em cerca de 186 países,
se destacando o Brasil, Portugal, Estados Unidos, Japão e Angola. No Brasil, o Infomaníaco
recebeu mais visitas vindas do sudeste conforme a figura abaixo:
Figura 20 - Cidades Brasileiras - Fonte: Do autor
52. 50
Por fim será mostrado um gráfico que ajuda mostrar o crescimento dentro de três anos
do Infomaníaco, abaixo na figura 21 pode se ver no ano de 2008 que o site não tinha
absolutamente nenhuma visita e que ao passar do tempo permaneceu em torno de menos de
5000 visitas, logo em setembro de 2008 quando foram aplicadas as primeiras técnicas de
SEO, pode já começar a ver o crescimento chegando a triplicar em alguns meses depois, e a
taxa de crescimento manteve a subir até mesmo no ano de 2010 aonde parou de crescer e se
manteve.
Na posição Y (vertical) é a quantidade de visitas únicas do site:
Figura 21 - Crescimento do Infomaníaco – Fonte: Do Autor
5.2. Site de notícias de Goiatuba e região
Já o site de notícias Goiatuba online em pouco tempo também teve números
significativos, onde pode se destacar a quantidade de visitas vindo do Google ou até mesmo
entrando diretamente no site.
53. 51
Figura 22 - Visitas do Goiatuba online - Fonte: Do autor
O gráfico 22 mostra as estatísticas de visita do Goiatuba online no período de
01/06/2011 até 10/11/2011, e nesse curto período de tempo, contabilizou-se cerca de 24.000
visitas únicas onde tais visitas acessaram 123.494 visualizações de páginas, uma média de
mais de cinco páginas por visita e com o tempo médio de 06h23min por visita.
Logo abaixo na figura 23 pode ser visto outro fator importante nos resultados obtidos,
o relatório aponta que cerca das mais 24.000 visitas únicas vieram dos resultados de pesquisa
do Google proveniente de um trabalho de SEO feito logo após o site ter sido construído.
54. 52
Figura 23 - Origens de Tráfego – Fonte: Do autor
Hoje em dia, as redes sociais também ajudam no trabalho de SEO, pode-se ver no
gráfico que o Facebook enviou cerca de 1.912 visitas únicas tornando-se a terceira melhor
fonte de tráfego do Goiatuba online, até mesmo na frente de outros motores de busca como o
Bing e Ask, ganhando também de outras redes sociais como Orkut e Twitter.
O Goiatuba online também teve um trabalho de SEO envolvendo a palavra-chave
“Goiatuba”, portanto para aparecer nessa pesquisa teve de ter um trabalho mais intenso, pois
os primeiros colocados do Google dessa palavra-chave quando pesquisado era o site da
prefeitura de Goiatuba contendo o domínio “http://www.goiatuba.go.gov.br/”, ou seja,
domínios com a extensão .gov.br tende a se ter mais autoridade em termos de SEO, pois o
Google entende que seja um site do governo e também outro site com bastante notoriedade é
o da Wikipédia falando sobre Goiatuba, que é um site bastante conhecido e relevante para o
Google, por sua vez, o Goiatuba online aos poucos foi crescendo no rankeamento com esta
palavra-chave. Quando começou a otimização, o Goiatuba online estava em 83º posição do
índice do Google referente à busca da palavra “Goiatuba”, aos poucos foi subindo o
rankeamento, primeiro para 30º posição, depois para 6º, até chegar ao primeiro lugar
conforme nos mostra a figura 24 abaixo.
55. 53
Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba" – Fonte: Do autor
Enfim neste ultimo gráfico é mostrado o crescimento tanto nas visitas quanto nas
visualizações de páginas que o Goiatuba online teve no período entre Maio e Novembro do
ano de 2011, pode observar a tendência de crescimento logo após a inserção das técnicas.
Na posição Y (vertical) é a quantidade de visitas e visualizações do site:
Figura 25 - Crescimento do Goiatuba Online – Fonte: Do autor