SlideShare uma empresa Scribd logo
1 de 63
INSTITUTO LUTERANO DE ENSINO SUPERIOR DE ITUMBIARA
                CURSO DE SISTEMAS DE INFORMAÇÃO




                  GUILHERME ROSA SILVA ROCHA




 AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
                             E REGIÃO




                      Itumbiara, dezembro de 2011.
GUILHERME ROSA SILVA ROCHA




 AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
                             E REGIÃO




                                    Monografia apresentada por Guilherme Rosa
                                    Silva Rocha ao curso de Sistemas de
                                    Informação do Instituto Luterano de Ensino
                                    Superior de Itumbiara, como um dos requisitos
                                    para obtenção do grau de Bacharel em
                                    Sistemas de Informação, orientado pelo
                                    Professor Especialista Daniel Humberto
                                    Carrara.




                      Itumbiara, dezembro de 2011.
Dados Internacionais de Catalogação na Publicação (CIP)


             Rocha, Guilherme Rosa Silva


             As Técnicas utilizadas em SEO e seu impacto no rankeamento do
             Google aplicadas em um site de Goiatuba e região / Guilherme Rosa
             Silva Rocha – Itumbiara: do autor, 2011.61 p.


             Monografia – TCC – Curso de Sistemas de Informações

             1. Otimização de sites. 2. Sistemas de Informação. I. Rocha,
             Guilherme Silva Rocha.

                                                        CDU-004.738.52


Catalogação na Fonte
Rosa Helena de Paula Rodrigues – CRB1 2022
AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO
GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA
                             E REGIÃO




                            GUILHERME ROSA SILVA ROCHA




  Monografia defendida e aprovada, em 15 de dezembro de 2011, pela banca examinadora:




Professor Especialista Daniel Humberto Carrara de Azevedo

Orientador e Professor do Curso de Sistemas de Informação




Professor Roger Amandio Luz

Professor e Coordenador do Curso de Sistemas de Informação




Professor Pedro Moises de Sousa

Professor do Curso de Sistemas de Informação
Dedico este trabalho à minha família, amigos, meu orientador e aos meus professores.
Gostaria de agradecer a todos que me ajudaram direto ou
indiretamente para a conclusão deste trabalho, a minha esposa
Jaqueline e a minha filha Maria Eduarda, juntamente com meus
amigos, Bruno, Vinicius e Ueder.
“Para ter sucesso, é necessário amar de verdade o que se faz.
Caso contrário, levando em conta apenas o lado racional, você
simplesmente desiste. É o que acontece com a maioria das
pessoas”.

                                                   Steve Jobs
RESUMO


A Web nos últimos anos cresceu rapidamente, fazendo com que o número de páginas
multiplicasse. Para facilitar a encontrar o conteúdo que o usuário necessita, foram criados os
chamados motores de buscas que ajudam a identificar o conteúdo que o usuário está a
procura, através das palavras chaves digitada no campo de pesquisa. Portanto o buscador tem
o papel de identificar qual é a página mais relevante para o usuário final, para isso foi
elaborado vários algoritmos a fim de estabelecer o ranking das páginas indexadas pelos
motores de buscas, fazendo com que haja uma concorrência entre uma página e outra, e para
os webmasters conseguir cada vez mais visita eles empenham no trabalho de SEO, o presente
estudo visa potencializar um site de conteúdo e um de notícias de Goiatuba e região para
receber mais visitas das pesquisas realizadas no buscador Google através de inserções de
técnicas de SEO em ambos. Tendo como justificativa o constante crescimento da internet e
descobrir se as técnicas de SEO são viáveis para alavancar visitas de algum determinado site,
com isso foi analisado o site e aplicado às técnicas de SEO apropriadas para o site. Foi tido
como resultado um número considerável, depois das inclusões de técnicas de SEO, o site de
conteúdo em um pouco mais de três anos teve resultados bastante satisfatórios em termos de
visitas vindas do Google através da otimização do site com as técnicas de SEO, o site de
notícias de Goiatuba e região em pouco tempo também teve bons resultados considerando ser
um site com um público bem especifico. Tendo como conclusão que um site que se aplicado
às técnicas de SEO adequadas consegue sim aumentar suas visitas vindo dos motores de
busca.


Palavras-chave: SEO. Motores de busca. Web.
ABSTRACT

The Web has grown rapidly in recent years, causing the number of pages multiplied. To make
it easier to find content that the user needs have been created so-called search engines that
help identify content that the user is looking through the keywords typed into the search field.
So the seeker's role is to identify what the page more relevant for the end user, for it was
developed several algorithms to establish the ranking of pages indexed by search engines, so
that there is a competition between a page and another, and webmasters can visit them more
engaged in the work of SEO, this study aims to enhance a content site and a news Goiatuba
and region to receive more visits from research carried out by the Google search engine
inserts techniques SEO in both. Having to justify the continued growth of the Internet and
find out if the SEO techniques are feasible to leverage a particular site visits, it was analyzed
with the site and applied to SEO techniques appropriate for the site. Was taken as a result a
considerable number, after the inclusion of SEO techniques, the site content in a little over
three years had satisfactory results in terms of visitors from Google by optimizing the site
with SEO techniques, the Goiatuba news site and region in a short time also had good results
considering that a site with a very specific audience. With the conclusion that a site that is
applied to the appropriate SEO techniques but can increase your visits coming from search
engines.
Keywords: SEO. Search Engines. Web
LISTA DE FIGURAS

Figura 1 - Modelos de Comunicações ....................................................................................................17
Figura 2 - Site Craiglist ..........................................................................................................................23
Figura 3 - Diretório DMOZ....................................................................................................................25
Figura 4 - Evolução dos Search engines ................................................................................................26
Figura 5 – Pagerank - Fonte: Mestre SEO .............................................................................................27
Figura 6 - Modelo de Página principal do Google Analytics .................................................................38
Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 .........................................................................39
Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 ...................................................................39
Figura 9 - Titulo do site Infomaníaco.....................................................................................................40
Figura 10 - Técnicas de SEO..................................................................................................................40
Figura 11 – Canonical ............................................................................................................................41
Figura 12 - Headings Tags .....................................................................................................................42
Figura 13 - robots.txt ..............................................................................................................................43
Figura 14 - sitemap.xml .........................................................................................................................44
Figura 15 - Links internos ......................................................................................................................45
Figura 16 - Links Externos .....................................................................................................................45
Figura 17 - Estatísticas de visitas do Infomaníaco .................................................................................47
Figura 18 - Origens de tráfego ...............................................................................................................48
Figura 19 - Visitas vindas do Google .....................................................................................................49
Figura 20 - Cidades Brasileiras ..............................................................................................................49
Figura 21 - Crescimento do Infomaníaco ...............................................................................................50
Figura 22 - Visitas do Goiatuba online ..................................................................................................51
Figura 23 - Origens de Tráfego ..............................................................................................................52
Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba"..............................................................53
Figura 25 - Crescimento do Goiatuba Online ........................................................................................53
LISTA DE TABELAS

Tabela 1 - Conceito Web 2.0 ................................................................................................................. 20
Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 ................................................................. 28
Tabela 3 - Urls Amigáveis .................................................................................................................... 41
10




                                                               SUMÁRIO
RESUMO ................................................................................................................................................ 6


ABSTRACT ............................................................................................................................................ 7


LISTA DE FIGURAS ............................................................................................................................. 8


LISTA DE TABELAS ............................................................................................................................ 9


SUMÁRIO ............................................................................................................................................ 10


INTRODUÇÃO .................................................................................................................................... 12

CAPÍTULO I - A WEB ......................................................................................................................... 16
 1.1. Web 2.0 ...................................................................................................................................... 19
 1.2. Novos serviços na Web .............................................................................................................. 21

CÁPITULO II - Sites de Busca ............................................................................................................. 24
 2.1. Diretórios.................................................................................................................................... 24
 2.2. Google ........................................................................................................................................ 26

CÁPITULO III - SEO – Search Engine Optimization .......................................................................... 30
 3.1. Técnicas OnPage e Offpage ....................................................................................................... 31
 3.2. Black Hat .................................................................................................................................... 33

CAPÍTULO IV - METODOLOGIA ..................................................................................................... 35
 4.1. Métodos de Análise e Classificação da Pesquisa ....................................................................... 35
 4.2. Tecnologias de Apoio................................................................................................................. 35
 4.3. Site antes da aplicação das técnicas de SEO .............................................................................. 38
 4.4. Métodos ...................................................................................................................................... 40

CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS ..................................... 47
 5.1. Site de Conteúdo ........................................................................................................................ 47
 5.2. Site de notícias de Goiatuba e região ......................................................................................... 50
 5.3. Discussão dos Resultados........................................................................................................... 54
11

CAPÍTULO VI - CONSIDERAÇÕES FINAIS .................................................................................... 56

REFERÊNCIAS BIBLIOGRÁFICAS .................................................................................................. 58
12




                                    INTRODUÇÃO

       Segundo Saatchi (2010), hoje em dia, o mundo gira em torno da internet, pois cada dia
que passa a Web está ficando cada vez mais cheia de recursos, serviços e entretenimento para
os usuários de computador, através da mesma pode se vender produtos, entrar em um chat,
conseguir um emprego, comprar carros, enfim pode se fazer quase tudo hoje em dia através da
internet, mas uma pequena loja virtual ou determinado serviço que começa na internet, tem
que procurar alguma forma para se destacar, e hoje em dia, existem algumas formas de
divulgação como o boca a boca, publicidade online, publicidade off-line entre outros.
       Portanto a maioria dos donos de sites recorre ao tráfego vindo de motores de busca
através da busca orgânica, pois, contudo os motores de busca contêm bilhões de páginas
indexadas e para destacar entre elas pode se fazer a inserção técnicas de SEO para que o site
se torne um dos primeiros nos resultados de busca dos motores de busca a fim de melhorar o
tráfego do site:


                       O significado de SEO é Search Engine Optimization. Em português, é conhecido
                       como Otimização de Sites, MOB e Otimização para Buscas. O SEO nada mais é do
                       que a otimização de uma página (ou até do site inteiro) para ser mais bem
                       compreendido pelas ferramentas de busca. A consequência da utilização das técnicas
                       de SEO é o melhor posicionamento de um site em uma página de resultados de uma
                       busca (TEIXEIRA, 2007).

       Então de acordo com o texto acima, pode se dizer que SEO é considerado como a
otimização de um determinado site que contém uma determinada palavra-chave de
contextualização para o motor de busca a fim de se tornar um dos primeiros resultados
naquela palavra-chave (TEIXEIRA, 2007).
       As primeiras técnicas de SEO surgiram logo após o lançamento dos primeiros
buscadores na Internet. Pessoas descobriram que era possível obter, para seus websites,
posições nas primeiras páginas dos buscadores quando internautas realizavam buscas por
informações. Para tanto, era necessário fazer alterações nos códigos HTML do site. Outras
13

técnicas utilizadas para obter as tais posições eram (e são até hoje) incluir links de referência
para a página de outros sites e possuir mais conteúdo em cada página.
        Se a intenção do proprietário é trazer cada vez mais tráfego com qualidade, investir em
SEO é uma ótima oportunidade, pois pode se conseguir um alto nível de tráfego com uma boa
conversão de resultados do que anunciar em uma revista onde poucos usuários irão converter
em uma venda ou cadastro seja qual for a métrica de conversão do determinado em questão
(RICOTTA, 2008).
        Hoje em dia, é possível citar vários motores de busca, portanto o seguinte estudo será
apenas do site Google1 em questão, pois o mesmo segundo a pesquisa feita pela Predicta, uma
empresa especializada em serviços de inteligência em marketing online aponta que 88,9% das
buscas no Brasil são realizadas no site de Pesquisa Google.
        O Google tem grande participação nas buscas, pois apresentam sempre resultados
adequados aos seus usuários devido ao sistema de ranking e de contextualização em cada
página indexada. Para uma página ter um bom rankeamento existem vários fatores que são
abordados pelo Google a fim de trazer o melhor resultado para o usuário, para isso o conteúdo
deve ser bastante relevante sobre o assunto.
        Segundo Ricotta:


                          Pagerank (PR) é a forma pela qual o Google procura representar a importância que
                          um site, ou página, tem para ele (Google) frente à Internet. Ele foi desenvolvido em
                          1995 na Universidade de Stanford por Larry Page, daí vem o nome “Page” Rank.
                          Basicamente o Pagerank é uma avaliação da relevância da página. Essa relevância é
                          divulgada em uma escala de zero a 10, mas sabe-se que o verdadeiro valor varia
                          dentro de uma escala logarítmica. Para calcular o valor do Pagerank, o Google
                          considera basicamente a quantidade de links que a página recebe. Funciona de modo
                          semelhante a uma eleição, onde cada link é como um voto endossando a qualidade
                          da página que recebe o link. Mas não basta ter uma grande quantidade de links para
                          ter um PR alto, a relação semântica entre as páginas é importante, bem como a
                          própria relevância da página que faz o link (RICOTTA, 2007).


        Através da classificação de 0 a 10 através do algoritmo do Page Rank, O Google ficou
conhecido por todo o mundo, pois na época realmente era o que tinha de mais relevante para
denominar a posição de cada site na pesquisa, segundo o Google hoje em dia não é somente
esse fator é colocado em pauta também a velocidade do site, links direcionados para o site,
estrutura HTML, popularidade do site, relevância com a pesquisa entre outros (RICOTTA,

1
  Além de ser uma empresa com inúmeros serviços, o motor de busca é o serviço mais popular da companhia e o
site mais acessado do mundo. De acordo com pesquisa de mercado publicado pela comScore, em novembro de
2009, o Google era o motor de busca dominante no mercado dos Estados Unidos, com uma quota de mercado de
65,6%. O Google indexa trilhões de páginas web, de modo que os usuários podem pesquisar as informações que
quiser, através do uso de palavras-chave e operadores (WIKIPÉDIA, 2011).
14

2007).
         Contudo esse estudo procura solucionar o seguinte problema: como melhorar tráfego
de um site de conteúdo e um site de notícias de Goiatuba e região aplicando técnicas de SEO?
         Esse estudo tem como objetivo geral melhorar a quantidade de visitas em um site de
conteúdo e um site de notícias de Goiatuba e região através da implementação de técnicas de
SEO para melhorar o posicionamento do site nas pesquisas do Google. Tendo como os
objetivos específicos fazer uma análise do site para que seja encontrado quais serão as
técnicas apropriadas para o site de conteúdo e um site de notícias de Goiatuba e região,
implementar tais técnicas de SEO para melhorar o tráfego de visitas, fazer o acompanhamento
dos sites juntamente com o Google para verificar se o presente estudo está sendo bem
desenvolvido e por fim uma análise nas estatísticas de tráfego dos sites para enfim verificar se
o estudo teve sucesso.
         A relevância desta monografia se justifica ao ponto que a Web está em pleno
crescimento e que a concorrência em diversos setores aumenta como disse Saatchi (2010), e
quem conseguir se beneficiar nas primeiras posições na SERP2 dos buscadores com certeza
terá mais conversão seja qual for e mais tráfego com qualidade para o determinado site em
questão.
         Foi feito análises em diversos trabalhos relacionados tendo como os principais o
estudo de como as search engines funcionam de Fábio Ricotta onde fala sobe como é feito os
algoritmos de rankeamento dos buscadores, outro trabalho foi sobre as ferramentas de buscas
na web, onde conta de como surgiu os primeiro diretórios e como foi a chegada dos primeiros
buscadores de Beatriz Cendón.
         Para monitorar as palavras-chave, páginas indexadas, velocidade do site, links
apontados para o site, estatísticas de rastreamento do Googlebot3, foi usado uma ferramenta
fornecida pelo Google para webmasters, que se chama Google Webmasters Tools4 que
fornece relatórios detalhados sobre a visibilidade das páginas no Google, trazendo mais


2
  Ele é um termo técnico para representar as páginas que exibem os de resultados em uma busca. São chamadas
de Search Engine Results Page ou em português, página de resultados de uma busca. As SERPS variam
conforme as palavras-chave e são compostas normalmente por resultados naturais que aparecem do lado
esquerdo da busca. Os padrões são de cada SERP são no máximo dez resultados por páginas (MARKETING DE
BUSCA, 2007).
3
  Googlebot é o robô de rastreamento da web do Google (também chamado de "indexador"). O rastreamento é o
processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google
(GOOGLE, 2011).
4
  As Ferramentas do Google para Webmasters oferecem um jeito fácil e gratuito de tornar seu site mais amigável
ao Google. Ele mostra para o usuário a forma que o Google o vê, também as quais das páginas estão inclusas no
índice do Google, os erros encontrados no rastreamento no site, ajuda a encontrar os termos de pesquisa que
listam seu site nos resultados e muito mais (GOOGLE, 2011).
15

clareza entre o Google e o site, avisando quando se pode melhorar e no que está sendo feito de
forma errada, é como se fosse um canal de comunicação.
         Para gerir relatórios de tráfego, que trata-se de quais palavras-chave que mais trouxe o
usuário até o site, perfil do usuário entre outros será usado à ferramenta Google Analytics.
         Segundo o Google, (2005) o Google Analytics oferece uma “solução de análise da
web de cunho empresarial que fornece uma ótima visibilidade do tráfego e da eficiência do
marketing do seu website”, e também ajuda nas iniciativas de marketing para se preparar para
as conversões, e como os usuários chegaram ao site, quanto tempo ficou ajudando a melhorar
a experiência do visitante.
         Portanto o Google Analytics é a ferramenta mais indicada para poder executar o
trabalho, pois abrange várias ferramentas e vários outros relatórios extras que ajudam no
estudo que está sendo feito.
         Foi usado também técnicas de SEO OnPage que se dá a inserções no HTML dos sites,
mudança na forma do conteúdo, estruturação, linkagem interna entre outros, e também como
fator principal das técnicas de OffPage o trabalho de links externos em outros sites,
introdução de URL nos diretórios entre outros.
         O presente estudo pode ser qualificado como pesquisa qualitativa e quantitativa, pois
irá trabalhar com números reais comparando o antes e o depois do tráfego, a pesquisa
quantitativa devido ao fato de que serão exibidos os números reais, já a qualitativa é aonde
será visto o valor dos resultados obtidos a fim de estabelecer se o presente estudo foi de fato
satisfatório.
         Os resultados obtidos com o trabalho de SEO foram satisfatórios, devido ao fato que
ambos os sites começaram sem ter nenhuma visita e com a aplicação das técnicas o
crescimento foi considerável. No site de conteúdo que foi usado no estudo o número total
chegou a quase dez milhões de visitas únicas, onde o público alvo era de todo o Brasil de
forma não muito ramificada como o site de notícias que visava mais a região de Goiatuba e
região onde o público era bem definido, pois se tratava de um público menor, ainda sim
tiveram ótimos resultados com o trabalho de SEO trazendo novos visitantes para ambos os
sites.
16




                               CAPÍTULO I - A WEB

       Como diz Castells (2003) a internet é “como se fosse um tecido de nossas vidas”, ele
compara a tecnologia da informação hoje como sendo a eletricidade na era industrial, pois
pode-se dizer que a internet é equiparada a uma rede elétrica ligada ao motor elétrico, por sua
capacidade de espalhar a informação por todo o mundo.


                       A internet é um meio de comunicação que permite, pela primeira vez, a
                       comunicação de muitos com muitos, num momento escolhido, em escala global.
                       Assim como a difusão da máquina impressora no Ocidente criou o que MacLuhan
                       chamou de a “Galáxia de Gutenberg”, ingressamos agora num novo mundo de
                       comunicação: a Galáxia da internet. O uso da internet como sistema de comunicação
                       e forma de organização explodiu nos últimos anos do segundo milênio. No final de
                       1995, o primeiro ano de uso disseminado da World Wide web, havia cerca de 16
                       milhões de usuário de redes de comunicação por computador no mundo. No início
                       de 2001, eles eram mais de 400 milhões / previsões confiáveis apontam que haverá
                       cerca de um bilhão de usuários em 2005, e é possível que estejamos nos
                       aproximando da marca dos dois bilhões por volta de 2010, mesmo levando em conta
                       uma desaceleração da difusão da internet quando ela penetrar no mundo da pobreza
                       e do atraso tecnológico (CASTELLS, 2003 p. 08).


       Complementando o que Castells (2003) disse, a internet vem crescendo rapidamente,
de uma forma jamais vista e vem sendo disseminada no mundo todo. A comunicação pela
primeira vez teve seu auge com a internet, pois com ela poderia ser rapidamente exposta à
população, isso facilita e ajuda as pessoas que talvez nunca saberiam de notícias tão
rapidamente como é propagado na web. O mesmo autor também teve sua participação em
prever o futuro da internet, como no texto diz, ele estimou que no ano de 2010 tivesse cerca
de dois bilhões de usuários conectados na rede espalhando informações entre si.
       Além de ser uma estimativa alta, Castells (2003) não errou muito, pois em 2011 o
mundo conta com mais de 500 mil pessoas que entram pela primeira vez por dia na internet
levando em consideração este número, em 2012 pode chegar a estimativa de dois bilhões de
17

usuários ligados na internet, F/Nazca (2011), além disso, a cada minuto é feito o upload 5de
mais de 48 horas de vídeo no Youtube afirma Aguiari (2011) e a cada segundo é criado um
blog na web, cerca de 70% das pessoas também consideram a internet indispensável em seus
afazeres do dia a dia, Reuters (2009).
        Retomando F/Nasca (2011) o Brasil contém cerca de 81,3 milhões de internautas com
mais de 12 anos, dentre eles tem como acesso uma maioria a lan house com cerca de 30%
seguido da residência com 27% e também pode se destacar que o Brasil é o quinto país com
maior número de conexões com a internet.




                     Figura 1 - Modelos de Comunicações - Fonte: SPYER, 2007 Pag. 21



        Uma comparação feita por Spyer (2007) pode descrever bem como é o universo da
internet comparado a outros meios de comunicação, olhando para a figura 1, pode-se ver três
quadrados caracterizando três meios de comunicação, sendo o de número 1 a informação
sendo propagada de uma pessoa para outra por meio do telefone, o quadrado de número dois
seria a televisão ou outros meio de difusão, que alcança milhares de pessoas, porém a
transmissão de dados é de apenas uma via, já o terceiro seria a internet, pois seria uma via de




5
  Upload é o contrário de download, ou seja, é o ato de enviar um arquivo para a Internet. Quando você envia um
arquivo para um site, seja música, vídeo, texto, etc., está na verdade fazendo um upload. Ao abrir uma página,
mesmo sem perceber, estamos fazendo download e upload quase simultaneamente. Como? Ao acessar um site, o
texto e imagens começam a ser carregados para serem exibidos, ou seja, é o download do conteúdo. Quando a
página termina de carregar, um aviso é enviado ao servidor informando que tudo foi recebido corretamente,
portanto é o upload de informações (MARTINS, 2008).
18

dois lados, portanto através dela pode-se conversar usar aplicativos como murais, redes
sociais, listas de discussão entre outros, seria muito mais envolvente e a informação melhor
distribuída.
       Pode-se dizer que a internet tem um meio de compartilhamento melhor que mídias
convencionais devido à interação do usuário e o poder de compartilhamento que por esta vez
ganha mais espaço em redes sociais.
       Em 2007, quase 1/3 dos usuários de internet eram da língua inglesa e o restante tinha
como segunda língua o inglês, portanto na época toda experiência inovadora se concentrava
entre os Estados Unidos e Inglaterra, desde então a web se concentra na língua inglesa
(SPYER, 2007).
       Com a internet popularizando ela se tornou um dos meios mais eficientes para o
acesso à informação de vários assuntos como diz abaixo na citação.


                        A Internet hoje é sem dúvida o meio mais eficiente de se ter acesso à informação,
                        bem como prover os mais variados assuntos em menor tempo e maior abrangência,
                        com a popularização do computador e o fácil acesso aos meios de comunicação,
                        possibilitaram a expansão da internet bem como todos os serviços das mais variadas
                        espécies e finalidades. Como exemplo pode-se citar cursos de educação à distância e
                        compras online. Com o rápido crescimento do número de usuários na internet e a
                        facilidade de divulgar qualquer tipo de informação, cresceu também o volume de
                        dados fraudulentos colocando em dúvida a sua confiabilidade (KIRCHNER, 2009).



       Como disse Kirchner (2009) a internet é bastante eficiente ao acesso a todo e qualquer
tipo de informação mesmo com toda esta facilidade ainda é preciso melhorar muito a inclusão
digital, porém melhorou muito, pois nos últimos anos teve um crescimento muito rápido em
números de usuários com computador ligado a internet, portanto há de se salientar que devido
a inúmeras informações vindas da internet, ainda deve se ter uma precaução com algumas
informações que podem ser enganosas e tomar mais cuidado ainda quando inserir alguns
dados pessoais em determinados sites, pois o roubo de dados está cada vez mais constante.
       Kirchner (2009) complementa que a internet ajuda muito no termo de aprendizado,
pois com o investimento das empresas de telefonia veio também velocidades maiores de
internet, beneficiando pessoas que fazem cursos a distância ser mais intuitivos, participativos
através de conferências ao vivo com os professores direto de sua casa. A Oracle Corporation,
por exemplo, oferece cursos com aulas totalmente interativas com os alunos através de
videoconferência, audioconferência e programas de chat que por sua vez é usado para pessoas
conversarem entre si.
19

       Muita coisa mudou com o passar dos anos, hoje a Web está cada vez mais
participativa e aumentando cada vez mais o conteúdo inserido nela conforme citação:


                       Com os avanços tecnológicos recentes, houve uma potencialização da participação
                       dos usuários no que diz respeito à criação, compartilhamento e difusão de arquivos
                       na Internet. Cada vez mais os sites passam a se fundamentar em dados recolhidos e
                       postados (disponibilizados online) pelos próprios internautas. Assim, até mesmo as
                       plataformas e interfaces foram se transformando: alguns softwares tiveram seus
                       códigos-fonte abertos, o conteúdo passou a ser ouvido e visto no próprio site, o
                       design e o funcionamento se tornaram passíveis de modificações por parte dos
                       usuários, entre outras mudanças em curso (BRESSAN, 2007).


       Com base nessas informações, é notável que a interação do usuário com os sites foram
incentivadas e se torna mais como uma tendência na web hoje, esse fato pode ser chamado de
Web 2.0, pois muda o conceito da internet como de antigamente, hoje a participação do
usuário dos sites é quase que necessário, pois é chamariz para que o leitor da página fique
mais apegado ao produto se for o caso, ou outros assuntos como fóruns de jogos, vídeos entre
outros. Outro modo que os internautas têm como de interação do usuário é a forma com que
ele tem de modificar o próprio design em determinados sites, fazendo com que ele deixe de
forma com que fique mais agradável possível.



1.1. Web 2.0


       Segundo Bressam, (2007) “Web 2.0 se destaca na geração de serviços e aplicativos da
rede e a recursos, tecnologias e conceitos que permitem um maior grau de interatividade e
colaboração na utilização da internet”, portanto pode-se perceber que hoje em dia há diversos
sites e termos que mudaram para essa nova tendência. Abaixo na tabela nº1 são listados
alguns sites e definições que ao passar do tempo foram se adequando a este novo modelo de
negócio na internet:
20




                                        Tabela 1 - Conceito Web 2.0

                              Web 1.0                             Web 2.0
                            DoubleClick                      Google AdSense
                               Ofoto                                  Flickr
                              Akamai                             BitTorrent
                             mp3.com                               Napster
                       Britannica Online                         Wikipedia
                       personal websites                          blogging
                                evite                   upcoming.org and EVDB
                   domain name speculation              search engine optimization
                             page views                         cost per click
                           screen scraping                      web services
                             publishing                         participation
                 content management systems                           wikis
                    directories (taxonomy)               tagging ("folksonomy")
                             stickiness                          syndication
                             Fonte: http://radar.oreilly.com - O`Reilly, 2005

       Finalizando o conceito de Web 2.0 O‟Reilly define que:


                       Web 2.0 é a rede como plataforma, abarcando todos os dispositivos conectados. As
                       aplicações Web 2.0 são aquelas que produzem a maioria das vantagens intrínsecas
                       de tal plataforma: distribuem o software como um serviço de atualização contínuo
                       que se torna melhor quanto mais pessoas o utilizam, consomem e transformam os
                       dados de múltiplas fontes - inclusive de usuários individuais - enquanto fornecem
                       seus próprios dados e serviços, de maneira a permitir modificações por outros
                       usuários, criando efeitos de rede através de uma „arquitetura participativa‟ e
                       superando a metáfora de página da Web 1.0 para proporcionar ricas experiências aos
                       usuários‟ (REILLY, 2005).



       Com essa arquitetura participativa, modificações por parte do usuário, facilidade no
aprendizado a web 2.0 veio para melhorar e ajudar o usuário final a fim de proporcionar novas
experiências agradáveis.
       Hoje em dia, um fator muito influente são as redes sociais virtuais, e empresas estão
cada vez mais aderindo a elas como forma de marketing comunitário, que se define entre a
participação do usuário com a marca ou produto atribuído, as principais formas e mais
21

eficientes são os blogs, Facebook, Myspace, Twitter entre outras. Nesta onda de Web 2.0 as
empresas estão cada vez mais investindo em projetos voltados para as redes sociais, fazendo
de uma forma que pessoas se interessem pelos seus produtos a fim de trocar ideias em suas
páginas dentro da rede e compartilhando cada vez mais conteúdos atrativos para elas (HUNT,
2010).
         Continuando, Hunt (2010) escreveu que para as empresas conseguirem um lugar no
mundo da Web 2.0, elas precisam se tonar um capitalista social que seria uma empresa que é
participativa com o seu público nas redes sociais, e isso tudo seria para tentar conseguir mais
confiança entre seus seguidores, e destaca também que para ter sucesso como Bill Gates,
precisa ter iniciativa e melhorar cada vez mais a interatividade e transparência com o seu
público alvo, além disso, Hunt (2010) ainda cita que “só existem realmente três maneiras de
construir um negócio ou fazer dinheiro on-line: pornografia, sorte e Whuffie”.
         Whuffie foi criado para estipular uma métrica entre perfis de usuários para se
estabelecer um nível de reputação ou influência como diz abaixo:


                          O Whuffie, portanto, é a culminação da sua reputação, a influência, o capital de
                          conexão, o seu atual e potencial acesso a ideias, talentos e recursos, o acúmulo de
                          favores e realizações. Pequenas empresas não lucrativas, músicos, palestrantes e até
                          autores estão usando as redes sociais para criar o Whuffie e aumentar seus negócios
                          (HUNT, 2010).



         Portanto o Whuffie seria sua reputação online, medida com base no que o usuário faz
na página de sua rede social, é medido pelas suas ideias e pelo seu favoritismo entre seus
amigos, se você ajuda ou não alguém com favores ou realizações, muitas pessoas usam este
sistema de reputação para estabelecer quem mais ajuda em determinado blog ou fórum para
enfim ser reconhecido pela sua participação.

1.2. Novos serviços na Web


         Outro fator que a Web beneficiou foi a comodidade na hora de fazer compras. Ferreira
(2011) disse que quando a internet se popularizou juntamente com o e-commerce6 no Brasil e


6
  Campano (2009. p.5) define comércio eletrônico ou e-commerce como uma forma de se realizar negócios entre
empresa e consumidor (B2C) e entre empresas (B2B), usando a internet como plataforma de troca de
informações, encomenda e realização de transações financeiras. Já para Laudon (2007), E-Commerce são as
transações comerciais realizadas digitalmente entre organizações e indivíduos ou entre duas ou mais
organizações.
22

no mundo cresceu junto como um aliado ao outro. Nos últimos anos, as pessoas estão ficando
cada vez mais sem tempo para ir a lojas para comprar, com isso as lojas virtuais se
propagaram e hoje pode se contar com diversas lojas, inclusive leilões de mercadorias em
sites especializados.

                        O comércio eletrônico surgiu em 1995, quando o site Netscape.com, utilizou a
                        internet como um novo tipo de mídia para publicidade e efetuar vendas. Como toda
                        inovação comercial, o comércio eletrônico no ano de 2001 começou a despencar,
                        com isso várias empresas faliram, entretanto empresas como Amazon.com, eBay e
                        Google, entre outras, tiveram recorde em lucratividade. Segundo dados do e-bit, no
                        mesmo ano o setor já faturava R$ 0,5 bilhão. Nos Estados Unidos entre 2004 e 2005
                        houve um aumento de 170 milhões para 175 milhões de pessoas acessando a
                        internet. Em 2005 as venda do comércio eletrônico voltaram a crescer, tendo
                        aumento de mais de 25%. Nessa mesma época foi o início da popularização da
                        internet no Brasil, época que as redes sociais como o Orkut e o Messenger
                        chegavam ao país, iniciando um ciclo que dura até hoje, onde pessoas utilizam
                        menos serviços físicos, como ir ao banco pagar contas, comprar em lojas e utilizar
                        mais os serviços da internet. Em 2007, no Brasil, o setor já faturava R$ 6,3 bilhões,
                        um aumento de mais de 40%, com relação ao ano de 2006, informações foram
                        divulgadas pelo estudo exclusivo da 17ª edição do Relatório "WebShoppers"
                        realizado pela e-bit (FERREIRA, 2011).

       Portanto o comércio eletrônico teve um grande avanço de 2004 para cá, fazendo com
que todos abrissem o olho para a internet, pois ali se via um grande potencial, alguns
comércios locais chegaram a falir devido à alta procura por produtos na web, que por sua vez
era uma novidade e que todos gostariam de estrear. Juntamente com o comércio eletrônico
crescendo aqui no Brasil estava sendo popularizada a internet em si, principalmente através de
redes sociais, como o Orkut e o Messenger que chegavam ao país naquela época. E isso fez
com que muitas pessoas deixassem de fazer o que fazia em lojas ou bancos para poder fazer
online, pois era mais rápido e de fácil acesso.
         Spyer, (2007) notou que o site Craiglist seria um site inovador, pois ele dá mais
atenção ao usuário do que propriamente dito ganhar dinheiro e com isso conseguiu atrair mais
de 10 milhões de visitantes por mês. O site Craiglist, nada mais é que um site de classificados
gratuitos para pessoas que querem anunciar ou procurar empregos, moradias, serviços, vendas
de produtos usados, além de ter fóruns para se discutir sobre diversos assuntos.
23




         Figura 2 - Site Craiglist - Fonte: http://brasilia.pt.craigslist.org/ - Acessado em 01/11/2011



       Com o espírito de tentar ajudar ao usuário sem fins lucrativos, apesar de que no final
das contas ainda eram lucrativos, surgiram na web diversos sites nos Estados Unidos e em
outros países classificados que geram este, beneficiam para o usuário o poder de anunciar e
procurar por algo sem custo algum. Depois dos classificados, começaram a surgir sites com
outras finalidades, porém com a mesma ideologia que era de não cobrar por serviços, a partir
daí a web começou a se tornar uma grande fonte de sites prestadores de serviços gratuitos,
como no exemplo dos classificados e são difíceis jornais locais que cobram por anúncios,
brigarem por espaço, pois na internet existem inúmeros sites de classificados gratuitos
(SPYER, 2007).
       Portanto pode se perceber que a Web no Brasil e no mundo está em plena mudança e
sempre visando o foco no usuário, o crescimento também é algo considerável, pois bastaram
poucos anos para a internet se popularizar e juntamente os negócios online tornaram-se uma
ótima alternativa para empresas pequenas e de grande porte.
24




                     CÁPITULO II - SITES DE BUSCA

       Com a internet em crescimento, o número de páginas também cresceu e muito, desde
então para acessar algum endereço o usuário precisava saber o nome da página para encontrar,
ao passar dos anos foram criados os Sites de buscas que visam entregar a página com o
melhor conteúdo condizente à busca realizada pelo usuário.

2.1. Diretórios


       Os diretórios foram os primeiros da internet a organizar as páginas, essa solução foi
introduzida quando os números de páginas na internet ainda eram considerados pequenos e a
forma com que trabalhavam não era automática, fazendo com que demorassem a cada
requisição das páginas, os diretórios são organizados por categorias e subcategorias, como
pode se ver na figura 3 (CENDÓN, 2001).
       Os sites inseridos nos diretórios, na maioria das vezes, são colocados por seres
humanos, grande parte quando os webmasters submetem a url para ser incluído dentro das
categorias específicas em forma de formulário com o endereço do site também era inclusa
uma breve descrição do site, além de palavras-chave.


                       Quanto aos assuntos, nem todos os diretórios são genéricos como o Yahoo!, ou o
                       Britannica, que cobrem todos os assuntos. Alguns diretórios cobrem áreas
                       específicas e têm sido chamados de diretórios temáticos ou especializados. Existem,
                       por exemplo, diretórios especializados em imagens, jornais e revistas, software,
                       listas de discussão; outros coletam sites sobre assuntos específicos como saúde,
                       ciências, legislação, informática etc.; ainda outros listam ferramentas de busca de
                       países específicos ou para um público-alvo determinado (crianças, pesquisadores,
                       organizações não governamentais etc.). Devido à frequência com que novas
                       ferramentas de busca (diretórios e motores de busca) surgem ao mesmo tempo em
                       que outras caem em desuso, um novo tipo diretório passou a ser criado: os diretórios
                       de ferramentas de busca. Diretórios como FinderSeeker (http://www.finderseeker.
                       com/) ou Search.com (http://search.cnet.com/) têm o objetivo de listar ferramentas
                       de busca, para facilitar sua identificação (CENDÓN, 2001).
25



       Conforme falado, os diretórios foram um grande ápice da época, não existiam os
motores buscas e o usuário se recorria aos diretórios, que por sua vez, poderiam ter vários
assuntos ou até mesmo ser específico de alguma área, portanto depois que começou a surgir
os primeiros buscadores, os diretórios de links começaram a cair em desuso, pois os
resultados dos diretórios eram menos satisfatórios para o usuário. Na Figura 3 pode-se ver o
diretório DMOZ, que é responsável até hoje por fornecer informações para outros diretórios,
como se fosse uma fonte de links.




                  Figura 3 - Diretório DMOZ - Fonte: DMOZ - http://www.dmoz.org/



       Os motores de buscas chegaram com uma forma diferente de tratar as páginas da web,
pois ele não usava intervenção humana e também não era dividido e subdivido por categorias,
eles usavam algoritmos em softwares chamados de robôs para identificar o site pela pesquisa
feita pelo usuário, com isso os buscadores poderiam alcançar um número muito maior de sites
em sua base de dados e o usuário por sua vez faria a busca do site escrevendo palavras-chave
26

ou, às vezes, em linguagem natural (CENDÓN, 2001).
        De alguns anos para cá, existiram vários buscadores com diferentes tipos de
algoritmos, tudo para diferenciar entre eles, a fim de trazer melhor experiência aos usuários. a
figura 4. Abaixo se pode ver os buscadores com a ordem de seus lançamentos:




  Figura 4 - Evolução dos Search engines Fonte: Wikipédia - http://pt.wikipedia.org - Visitada em 30/10/2011



        Cada motor de busca tinha seu algoritmo diferente um do outro para ter vantagem em
relação de melhores resultados, existem ótimas ferramentas na web, portanto destacam-se:
Yahoo, Bing, MSN Search, Alta vista, por isso nenhum tem o desempenho e qualidade do
Google (RICOTTA, 2007).

2.2. Google


        Ricotta, (2007) diz sobre o Google que:

                           O Google atualiza sua base de informações diariamente, pois existe um crawler,
                           chamado de Googlebot, que busca por informações novas em todos os websites. Isso
                           é realmente interessante, pois cerca de 30 minutos após se publicar um artigo em um
                           blog já é possível encontrá-la no Google. Outros mecanismos de busca também
                           possuem crawlers, mas eles não são tão eficientes em termos de atualização e de
                           classificação de informações. (...) Outros dois fatores importantes do sucesso dos
                           motores de busca são a simplicidade e clareza. A combinação desses itens foi
                           aprimorada desde a concepção do Google. Devido a isso, é possível acessar um site
                           leve, sem poluição visual e cujas opções são facilmente localizáveis (RICOTTA,
                           2007).


        Pode-se notar que algoritmo desenvolvido pelo Google faz com que o Googlebot
27

percorra todo seu site em busca de informações novas em um curto período de tempo, fazendo
com que um conteúdo novo do seu site chegue ao Google cerca de 30 minutos após ser
publicado, lembrando que vários outros buscadores com a mesma funcionalidade, mais
nenhum supera o Google em termos de qualidade e eficiência. Outro fator que o Google faz
sucesso é o design minimalista que faz com que o usuário tenha uma experiência agradável ao
ter tudo que precisa facilmente (RICOTTA, 2007).
       O Google também conta com um diferencial também que é chamado de PageRank.
Ricotta (2007) “trata-se de um algoritmo desenvolvido por Larry Page, um dos fundadores do
Google, que atribui uma pontuação a cada página web de acordo com a quantidade e a
qualidade dos links que apontem para ela” complementando, pode-se dizer que o (PR) é uma
avaliação da relevância da página, pois faz com que o Google some a quantidade de links que
a determinada página recebe de outros sites, visando sempre à qualidade de cada site que
envia o link, e ele tem o valor de zero até dez, sendo o dez o melhor visto pelo Google.
       Para melhor entendimento quanto ao PR na figura 5 pode se perceber que sites que
contêm mais links direcionados são maiores no PR e quando um site de PR alto faz um link
para outro site de PR baixo, ele subitamente tem seu PR melhorado. Logo quanto maior o PR
de algum site, maior a relevância e confiança o Google tem por ele, fazendo com que seus
links também tenham esse mesmo valor do que sites que tenham PR baixo.




                  Figura 5 – Pagerank - Fonte: Mestre SEO - Acessado em 31/10/2011



       Na Tabela 2 pode-se observar os sites que mais tem Pagerank alto no Google:
28


                       Tabela 2 – Sites com maiores Pagerank de Agosto de 2011

                        Links do
    Título        PR                 Link do Yahoo!                          URL
                        Google

US Goverment
                  10     20.900         9.652.685                    http://www.usa.gov/
   website

Adobe - Adobe
   Reader         10    141.000         3.403.720               http://get.adobe.com/reader/
  Download

United States
Department of                                                     http://www.hhs.gov/ and
 Health and       10      9.750         2.308.721          http://www.dhhs.gov both redirects to
   Human                                                                 same URL.
  Services

   Miibeian       10     70.300        841.149.899              http://www.miibeian.gov.cn/

  Facebook        10      6.020       2.147.483.647              http://www.facebook.com/

    Social
 Bookmarking
                  10     59.300        254.366.507        http://www.addthis.com/bookmark.php
Sharing Button
   Widget

  Europeana       10      3.890          140.776              http://www.europeana.eu/portal/

   EUA -
  European
                  10      1.500          163.899                     http://www.eua.be/
 University
 Association

Universitas 21    10       422           205.306               http://www.universitas21.com/

 University of
                  10      1.490          654.703              http://universityofcalifornia.edu/
  California

   Google         10     39.900       1.362.935.280               http://www.Google.com/

Government Of
                  10      2.980          328.609                      http://india.gov.in/
    India

United States
Cable News        10     12.900          793.696                      http://us.cnn.com/
 Network

 Piwik - Web
                  10     11.900         4.083.736                      http://piwik.org/
   analytics


       Fonte: Search Engine Genie - http://www.searchenginegenie.com - Acessado em 31/10/2011
29



       Na Tabela 3 pode-se notar que os principais sites e mais linkados são sites do governo
ou serviços da web com popularidade como o Facebook.
       Portanto, o Google desde que foi lançado, teve muitas modificações tanto no design do
site quanto no algoritmo. Recentemente pode se destacar três alterações significantes:
Caffeine, Florida Update e o mais impactante, o Panda Update que afetou cerca de 12% nas
buscas do Google nos EUA e 9% nas buscas em outros países (RICOTTA, 2011).
       Esse novo Update no algoritmo do Google gerou muitas polêmicas, pois vários sites
que antes tinham milhares de visitas chegaram a perder até 90% de tráfego vindo do Google,
pois essa atualização tem como objetivo melhorar a experiência do usuário de todas as
formas, agora os critérios de rankeamento estão mais exigentes que antes, agora ele passa a
analisar o tempo médio que o usuário gasta na sua página, a taxa de rejeição, se tem muitos
anúncios que atrapalham o usuário, o site realmente tem o conteúdo pesquisado, tempo de
velocidade de abertura do site, se é conteúdo copiado de outros sites, facilidade para usuário
final, qualidade do conteúdo e outros (FAUSTINO, 2011).
       Pode se concluir que os motores de busca vieram para facilitar a vida do usuário que
está a procura de determinado item na web, através de palavras-chave pesquisadas, os
buscadores lhe dão uma série de site a respeito e o Google por sua vez com seu inovador
algoritmo de rankeamento fez com que se destaca entre eles, pois faz o seu ranking através de
vários fatores como quantidade de links apontada para o site e principalmente a experiência
do usuário no site se é a agradável ou não.
30




  CÁPITULO III - SEO – SEARCH ENGINE OPTIMIZATION

       Segundo Teixeira (2007), SEO uma técnica que faz a otimização de uma página (ou
até do site inteiro) para se tornar melhor compreendido pelas ferramentas de busca. Portanto é
necessário um estudo e implementação de técnicas de SEO em um site, pois da mesma forma
que o site pode ser bem compreendido pode também ser mal compreendido chegando a ser
rebaixado ou sofrer um banimento nas páginas de resultados de uma determinada busca.


                       Em meados da década de 90, antes do Google surgir, webmasters já se preocupavam
                       em divulgar seus sites em sistemas de busca. Nesse primeiro momento era apenas
                       necessário submeter uma url ou domínio por meio de um formulário dos buscadores.
                       Esses, por sua vez, enviavam seus spiders para percorrer as páginas, reconhecer os
                       links nas mesmas e indexar o seu conteúdo no banco de dados. Nessa época, para
                       identificar a importância de determinado termo dentro de uma página analisava-se
                       apenas o número de vezes que esse aparecia e sua localização. Portanto era comum
                       encontrar resultados com qualidade muito baixa, já que muitos webmasters
                       abusavam da quantidade de termos inseridos no conteúdo e obtinham bons rankings.
                       O termo “search engine optimization” passou a ser usado em 1997, segundo Danny
                       Sullivan, que cobre a área de sistemas de busca desde 95. Logo surge o Google e a
                       fotografia da indústria de busca sofre grandes mudanças: penalizações para o
                       emprego de técnicas antiéticas – também conhecidas como black hat, foco na
                       qualidade do conteúdo, popularidade e confiança medidas por meio de links e
                       qualidade de suas fontes (SANCHES, 2010).


       O termo SEO nasceu quando houve necessidade de atrair mais visitas para um
determinado site, logo muitas pessoas usavam técnicas antiéticas para conseguir uma melhora
no rankeamento ficando a frente de outro site que poderia ser melhor para o usuário, foi a
onde os buscadores tentavam cada vez mais formas de identificar tais técnicas que hoje são
chamadas de Black Hat.
       No início, os buscadores solicitavam aos donos de site para submeter à url ou domínio
por meio de formulário, que depois através de uma análise seriam aprovados ou não, depois
de aprovados os sistemas mandavam os chamados spiders para percorrer o conteúdo de todo o
site para dentro do seu índice de resultados. A importância na época era analisar apenas o
número de vezes que o site era solicitado na busca e sua localização, então devido ao baixo
31

rigor nos tratamentos dos dados, muitos sites que eram visualizados na página de resultados
da busca feita pelo usuário tinha a qualidade muito baixa, fazendo com que o usuário que
                                                                                                           7
requisitou a busca não ficasse satisfeito com os resultados, e também muitos webmasters
notaram que se eles espalhassem pelo site algumas palavras-chave que era de acordo com o
texto, eles melhoravam no ranking da busca feito pelo usuário, fazendo assim uma otimização
do site. Muitas vezes, os webmasters usavam de formas antiéticas para se beneficiar com o
sistema de busca, por isso quando chegou a empresa Google eles já vieram com alguns
sistemas de rankeamento melhores, pois trouxeram consigo o foco na qualidade, desde a
popularidade da página, a confiança medidas por links e qualidade das fontes atribuídas nas
páginas.
        Inouye (2007) diz que, antigamente, o SEO definia em construção de links nos
diretórios, otimização para os Spiders, competição entre um site do mesmo nicho, troca de
links, otimização de links para batalhar para se obter melhor PageRank e também explica que
50% das tarefas dos buscadores como o Google era tarefa automatizada:


                          Diretórios foram os primeiros sistemas de busca criados. Também chamados de
                          catálogos, tem como característica a categorização e organização em tópicos. Estes
                          tópicos seguem uma estrutura lógica e são subdivididos por detalhamentos. Por
                          exemplo, a categoria esportes tem a subdivisão futebol que por sua vez pode ser
                          divida em profissional e amador. Normalmente os diretórios são feitos por pessoas,
                          diferente das ferramentas de busca que usam robôs como veremos a frente. Os
                          principais diretórios existentes são o DMOZ.org e o Yahoo! (TEIXEIRA, 2007)


        Como Teixeira (2007) comentou, os diretórios de antigamente eram como se fossem
um catálogo, onde o usuário escolheria a categoria e dentro da mesma era subdivido em
tópicos e só assim a listagem de sites que normalmente era por letra alfabética, não trazendo
relevância nenhuma sobre o que o usuário realmente queria, outro detalhe é que esses
diretórios eram feitos por pessoas diferentemente dos motores de busca que usam algoritmos
para definir como auxiliar na pesquisa do usuário.

3.1. Técnicas OnPage e Offpage


        Hoje em dia, o termo SEO está sendo bastante estudado e está sempre se preparando
para as novas tendências dos motores de busca e para conseguir resultados cada vez melhores


7
  O Webmaster é um profissional capaz de realizar tarefas tanto de um webdesigner (elaboração do projeto
estético e funcional de um web site) quanto de um WebDeveloper ( que faz a parte da programação, como
sistemas de login, cadastro, área administrativa ) (WIKIPÉDIA, 2011).
32

são feitas técnicas que podem se classificar como técnicas de OnPage e de OffPage, e onde
que se dá o trabalho de SEO e que um bom trabalho é feito de forma com que uma técnica
ajuda a outra, ajudando ao usuário final que fez a busca ter realmente o conteúdo que ele
pesquisou (MESTRESEO, 2011).
       Segundo a Mestre SEO (2011), as técnicas atribuídas dentro do próprio site, onde são
feitas modificações no código HTML ou no CSS são chamadas de OnPage, pois são feitas
internamente no site, às vezes, sem que o usuário final as percebam, na maioria das vezes, são
feitas alterações na forma em que o Título é exibido, a quantidade de links nas páginas, quais
palavras-chave são aplicadas, a forma como elabora o título da página e até mesmo o nome do
site são fatores importantes.
       Já as técnicas de OffPage a Mestre SEO (2011) classificam-se como sendo o trabalho
por fora do site, externamente, pois eles não estão ligados diretamente ao site, mas
lembrando-se de que para uma técnica de OffPage funcionar deve-se ter dado atenção
primeiramente às técnicas de OnPage, porque o site deve estar bem estruturado a fim de
receber visitantes.


                        Links de entrada (inbound links) são os links que outros sites apontam para uma
                        página do seu website. No início do PageRank, a regra era simples: quanto mais
                        links, melhor. Mas esta visão mudou bem desde a concepção inicial do algoritmo.
                        Ainda sim, a quantidade de links recebidos por uma página é uma métrica
                        importante utilizada para definir seu posicionamento em uma determinada pesquisa.
                        Eis a razão de tanta busca por links, de sempre querer mais links
                        (MESTRESEO,2011).


       Pode-se perceber que os links apontados para seu site é uma das métricas mais
importantes para os motores de busca fazendo com que se destaca nas técnicas de OffPage, o
porquê da razão de ser importante se dá pelo fato de que é feito um ranking pelos motores de
busca procurando pelo site que contém mais popularidade, portanto um site que recebe muitos
links se dá na forma como sendo um site popularmente, pela quantidade de links que ele
recebe, lembrando que “não importa tanto quantos links você recebe, mas sim a quantidade
de domínios diferentes que apontam para o seu website” (MESTREOSEO, 2011):

                        Um exemplo simples para este caso é saber que um site que possui 1.000 links de
                        1.000 domínios diferentes, irá ranquear melhor do que um website que recebe 1.000
                        de 200 domínios diferentes. Logicamente neste exemplo estamos descartando todos
                        os outros fatores. De nada adianta receber muitos links e de vários domínios
                        diferentes se a qualidade dos websites ou páginas não possuem uma boa reputação.
                        Para isto é importante saber de quem você recebe um link, olhando os fatores
                        daquela página. A regra aqui é simples, é muito importante que o link que você
                        recebe seja de um site relacionado ao seu, que não esteja banido pelos Search
                        Engines, e que seja de conteúdo original (MESTRESEO, 2011).
33




3.2. Black Hat


        Muitos donos de site ou até empresas que fazem serviços de SEO usam de práticas
ilegais aos olhos dos buscadores e isso é chamado de Black Hat.

                        Black Hat SEO é o termo utilizado para caracterizar técnicas de SEO consideradas
                        “ilícitas” ou abusivas, ou seja, técnicas que aproveitam uma possível brecha nos
                        algoritmos de classificação de resultados ou exageram o uso de alguma
                        técnica White Hat SEO. Em oposição, o White Hat SEO é composto por técnicas
                        de SEO consideradas válidas por search engines (MESTRESEO, 2011).



        Como SEO é uma vantagem para qualquer site, muitos webmasters usam técnicas de
Black Hat para poder se beneficiar de forma ilegal aos olhos dos buscadores, pois os
buscadores trabalham com algoritmo que por sua vez, pode ficar vulnerável a alguma brecha
fazendo com que sites que não deveriam ficar nas primeiras posições, ficam e prejudicam a
experiência do usuário final.
        Alguns modos de Black Hat são bastante efetivos como os tais Keyword Stuffing que
se tratam de espalhar palavras-chave relacionadas às buscas dentro da página como, por
exemplo: “Notebook, notebooks, venda notebook, notebook hp, notebook novo…”, e às vezes
de alguma forma que o usuário não veja essas palavras, somente os algoritmos dos motores de
buscas, porém quando os buscadores percebem a prática, o site é penalizado de diversos
modos, mas a principal é a remoção do conteúdo do site nas Serps, fazendo com que perca
visitas (MESTREOSEO, 2011).
        Do ano de 1997 até os dias de hoje, o SEO ficou muito mais complexo como Veloso
(2011) diz que hoje o profissional de SEO deve delinear vários tipos de estratégia,
principalmente em estratégias OffPage nas redes sociais que vem cada dia mais tomando
espaço na internet, e também hoje em dia qualquer palavra-chave está cada vez mais
concorrida e com vários profissionais de SEO se espalhando por aí deixa o trabalho mais
intenso e difícil.
        Com base nessas informações pode-se concluir que os motores de busca precisam de
seus algoritmos para providenciar melhores resultados para o usuário, fazendo com que os
webmasters focassem um trabalho específico de SEO nas páginas a fim de subir seu
rankeamento nas Serps, trazendo assim mais visitantes ao seu site por meio de técnicas de
OnPage e OffPage aumentando seus lucros e conversões como por exemplo um cadastro ou
34

até mesmo uma subscrição por e-mail.
35




                      CAPÍTULO IV - METODOLOGIA


4.1. Métodos de Análise e Classificação da Pesquisa


       Este trabalho utilizou de pesquisa qualitativa pelo fato de comparar o antes e o depois
e analisando também alguns dados específicos, como o tempo de permanência no site entre
outros, e a quantitativa por também se tratar de analisar as estatísticas dos sites antes e depois
das técnicas de SEO, avaliar também se o estudo teve sucesso e analisar em especial alguns
dados reais abordados pela pesquisa.
       O método de coleta das estatísticas foi como observação direta através de programas
específicos que nos dão todos e quaisquer dados significantes para a pesquisa. O estudo se
baseia também em uma pesquisa bibliográfica por se tratar de consultas realizadas em outras
bibliografias de domínio publico. Teve também como método de abordagem o dedutivo, pois
se trata de estudar as técnicas que serão aplicados e logo após a análise de forma particular
sobre os dados obtidos.

4.2. Tecnologias de Apoio.


       Para construir os sites foi usada a tecnologia de programação PHP ligada ao banco de
dados MySQL usando o gerenciador de conteúdo chamado Wordpress.


                          PHP (um acrônimo recursivo para PHP: Hypertext Preprocessor) é uma linguagem
                          de script open source de uso geral, muito utilizada e especialmente guarnecida para
                          o desenvolvimento de aplicações Web embútivel dentro do HTML. Ao invés de
                          muitos comandos para mostrar HTML (como visto em C ou Perl), páginas PHP
                          contém HTML juntamente com códigos que fazem "alguma coisa" (neste caso,
                          mostra "Olá, Eu sou um script PHP!") O código PHP é delimitado por tags iniciais e
                          finais <?php e ?> que lhe permitem pular pra dentro e pra fora do "modo PHP"
                          (PHP, 2011).
36



       Conforme escrito, o PHP é de fácil compreensão, pois sempre quando usado é
delimitado por tags, ou seja, marcações na linguagem de programação sendo elas iniciais e
finais, trazendo consigo o HTML no documento, ajudando a identificar erros no HTML sem
ter muita experiência no próprio PHP, o PHP pode fazer qualquer coisa, pois é uma
linguagem de script do lado do servidor, portanto pode-se dizer que ele coleta dados de
formulários, criar e gerar páginas de conteúdo dinâmico, receber ou enviar cookies e muito
mais (PHP, 2011).
       MySQL é um sistema que gerencia banco de dados em SQL, atualmente, é um dos
mais populares banco de dados do mundo, esse programa “pode ser usado em sistemas de
produção com alta carga e missão crítica bem como pode ser embutido em programa de uso
em massa”, ou seja, ele serve para gerenciar todo e qualquer tipo de informação gerada pelo
site, pois o site usa um sistema de gerenciamento de conteúdo, então tal sistema necessita de
um gerenciador de banco de dados eficiente e rápido e o MySQL é um dos mais usados
atualmente na web para sites de pequeno e grande porte (MYSQL, 2010).
       Segundo Mullenweg (2010), “Wordpress (WP) é um sistema de gerenciamento de
conteúdo na web, escrito em PHP e executado em MySQL”. E por ser um gerenciador de
conteúdo pode-se denominar um CMS, o WP teve seu crescimento muito rápido devido a sua
licença que é de código aberto, a facilidade de uso e suas características como gerenciador de
conteúdo, além da customização que pode transformar desde um simples blog até mesmo um
portal de notícias.
       Outra característica do WP é facilidade que tem de mudar de tema, instalar plug-ins
que customiza o gerenciador para de acordo com que o webmaster deseja comparado a outros
CMS que existem como o Joomla, Drupal, PHP Nuke, Xoops entre outros, o WP é o que mais
se encontra recursos disponíveis para modificar o site e, na maioria das vezes, consegue-se
esses recursos gratuitamente. Além de poder instalar o WP em servidor próprio, existe
também o serviço Wordpress.com, onde o usuário poderá criar blogs simples gratuitamente
sem pagar hospedagem ou domínio (MULLENWEG, 2010).
       São usados servidores particulares e não gratuitos todos em ambiente Linux, o
Infomaníaco por ter mais conteúdo usa um VPS e o Goiatuba online servidor compartilhado.
       VPS é denominado perfeito para sites que usam muitos recursos de servidor como
memória e CPU, o VPS é como um servidor compartilhado, portanto aloca a memória
contratada a fim de dar mais robustez ao seu espaço dentro do servidor. É como se fosse um
servidor dedicado virtual, pois você tem sua própria memória RAM, espaço e tráfego limitado
37

ao seu plano, fora que poderá ter acesso ao root podendo personalizar o servidor de acordo
com as suas necessidades, ou até mesmo reiniciar o server a fim de evitar sobrecargas, isso
tudo você pode ter além do desempenho adequado ao seu site (GCMHOST, 2010).
       Já a hospedagem compartilhada, como o nome já diz, seu site é hospedado com vários
outros sites, usando a mesma memória alocada e o mesmo CPU do servidor, é a mais usada
em todo o mundo devido ao fato de ter baixo custo, portanto se algum dos sites que tiverem
no mesmo servidor fazer uma sobrecarga, fará com que todos sejam afetados e a limitação de
CPU para cada site costuma ser de 2%, muito diferente do VPS, logo se tratando de custo x
benefício para sites pequenos é a melhor solução (SANCHES, 2011).
       Para realizar consultas nas estatísticas do site para saber se o estudo foi feito com
sucesso, foi utilizado o Google Analytics. Esse sistema permite saber qual são as páginas mais
visitadas do site, qual o termo de pesquisa que foi realizada a pesquisa que fez com que o site
aparecesse, melhores palavras-chave, de onde vieram os visitantes, quais plataformas, o
tempo de permanência, a origem do tráfego, se ele veio do Google ou de outro buscador, entre
outros relatórios não menos importantes (TRAVARELLI, 2008).
       O Google Analytics também verifica a taxa de rejeição de cada página do site,
analisando os usuários que entram e na mesma hora vão embora sem que haja alguma
interação ou tempo de visualizar o conteúdo seja pela aparência, qualidade, ou não ser
realmente o que estava procurando, através disso o webmaster poderá fazer um estudo para
melhorar o seu website a fim de trazer mais visitantes e ao mesmo tempo agradar o usuário
que vai ao seu site à procura de informações (TRAVARELLI, 2008).
       Outra ferramenta de análise que foi usada é o Google Webmasters Tools ou GWT.
Com ele, pode-se visualizar como o Google visualiza o site, quantidade de pessoas que
encontraram o site através dos resultados das pesquisas e quantas que só realmente entraram,
tem alertas sobre qualquer alteração do seu site perante o Google, quais os sites que fazem um
link, quais palavras-chave são mais influentes dentro do seu website, tempo de carregamento,
diagnosticar problemas, Permite que você envie dados (sitemap, por exemplo) para ajudar na
indexação, fornece dados sobre a taxa de indexação, erros e muitas outras informações
coletadas sobre seu site (GOOGLE, 2010).
38




 Figura 6 - Modelo de Página principal do Google Analytics Fonte: Mxstudio - http://www.mxstudio.com.br/ -
                                          acessado em 04/11/2011

       O GWT é importante para saber a relação do site perante o Google, para os
webmasters perceber alguns pontos e ver no que o seu site realmente consegue ser bom, a fim
de traçar um plano de SEO efetivamente.



4.3. Site antes da aplicação das técnicas de SEO


       O Infomaníaco em maio de 2008 começou não tendo nenhuma visita e através de
inserções de conteúdo começaram a ter cada vez mais visitas, portanto havia a necessidade de
melhorar ainda mais a visibilidade dele na internet, onde começou a inserção de técnicas de
SEO para alavancar o site em posições no Google em diversas palavras-chave.
       Em 24 de setembro de 2008, foram colocadas em prática algumas técnicas de SEO que
39

ajudou o site que até então não passava de 1000 visitas diárias.




                 Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 Fonte: Do Autor

       Na figura 7, pode ser notado como era o site antes da aplicação das técnicas de SEO e
a maneira que foram subindo a quantidade de visitas.
       E o site de notícias Goiatuba online como o Infomaníaco começou sem visitas e sem
atenção do Google, na figura abaixo podem-se ver os primeiros dias de visita do Goiatuba
online, antes da otimização de SEO.




               Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 – Fonte: Do autor

       Em ambos os sites do estudo, foi feito o mesmo trabalho de SEO, com as mesmas
técnicas e primeiramente foi desenvolvido o trabalho de organização de Arquitetura do site.
Ricotta (2010), diz que a “Arquitetura de sites é a maneira como o conteúdo é organizado ao
longo das páginas do site (home, categorias, subcategorias, etc.) e a forma como os conteúdos
do site são relacionados entre si”. Baseado nisso, foram feitos alguns ajustes nas categorias do
site a fim de centralizar o conteúdo para não haver uma dispersão dos dados, foram criadas
40

categorias para fazer a segmentação ao foco principal do site.

4.4. Métodos


       Começou-se então o trabalho de SEO OnPage onde são feitas alterações no layout e
no código HTML do site para uma melhor otimização para os motores de busca.
       Conforme a figura 9 foi trabalhado o título do site dando mais ênfases nas palavras-
chave associadas ao nome do site, fazendo ter mais relevância na página inicial a respeitos das
palavras-chave respeitando o número de caracteres permitido.




                        Figura 9 - Titulo do site Infomaníaco - Fonte: Do Autor


       Na figura 10 podem ser vistas três alterações no HTML que foram feitas para melhorar
o entendimento da página perante o Google.




                    Figura 10 - Técnicas de SEO - Fonte: www.Infomaníaco.com.br


       Na Tag Meta Name Description foi colocada uma breve descrição do site, esta
descrição é muito importante, pois ela irá aparecer no resultado de busca do Google, como
sendo um chamariz do visitante para seu site, nela também deve conter palavras-chave para
mostrar o conteúdo que o site abrange.
       Em Meta Name Keywords, são colocadas novamente as palavras-chave do site, dessa
vez para situar o site como sendo detentor das palavras-chave abordadas.
       Uma das principais técnicas de SEO para se evitar conteúdo duplicado dentro site é o
uso da tag canonical. Marcel (2009), explica que conteúdo duplicado no site pode prejudicar
muito, pois existe um imenso número de acessar uma página e o Google vê isso como
conteúdo duplicado, ele ainda cita exemplo de como pode ser acessada uma página normal em
41

diversas formas de digitar a url.




             Figura 11 – Canonical - Fonte: http://www.mestreseo.com.br/ Acessado em 08/11/2011


         A Tag Canonical é colocada em todas as páginas do site duplicadas direcionando para
a URL original como vemos na figura 11 o site Infomaníaco é redirecionado para
http://www.Infomaníaco.com.br/, portanto toda vez que o Google passar pelo site, ele vai
entender que a página principal é a que a canonical está apontando.
         Foi alterada a forma com que o site abordava suas URL`s fazendo com que elas
ficassem mais claras para o visitante e para o Google, abaixo você pode ver na tabela 3 como
era as Url`s e como se tornaram depois da otimização de SEO.


Tabela 3 - Urls Amigáveis

                        Antes                                               Depois
http://www.Infomaníaco.com.br/?p=213                  http://www.Infomaníaco.com.br/dicas/
http://www.Infomaníaco.com.br/?p=456                  http://www.Infomaníaco.com.br/downloads/
http://www.Infomaníaco.com.br/?p=879                  http://www.Infomaníaco.com.br/notícias/
http://www.Infomaníaco.com.br/?p=486                  http://www.Infomaníaco.com.br/tutoriais/
http://www.Infomaníaco.com.br/?p=159                  http://www.Infomaníaco.com.br/games/
http://www.Infomaníaco.com.br/?p=357                  http://www.Infomaníaco.com.br/videos/
Fonte: Do autor
         Pode-se notar que depois da otimização das URL`s o usuário consegue identificar qual
o conteúdo ele está abrindo antes mesmo de terminar de abrir a página e antes isso era
impossível, e isso é muito relevante ao Google, pois adiciona mais palavras-chave ao seu
42

conteúdo.
       Outro fator importante na otimização OnPage que foi utilizado no site Infomaníaco
são as denominadas as headings tags, pois servem para atribuir tamanhos diferentes para o
texto, portanto o Google as vê como uma forma de separação de conteúdo do título com o
subtítulo e por subsequente.
       Na figura 12 pode-se ver um exemplo clássico de utilização das headings tags de
forma efetiva em um determinado site.
       O uso apropriado de heading tags pode ser exemplificado da seguinte maneira:
               <h1>Infomaníaco – Site de Conteúdo</h1> Neste h1, ficou definido o tema
                principal da página.
               <h2>Conteúdo 1</h2> Já no texto do H2, algo mais específico, ou seja, uma
                subseção do H1.




                       Figura 12 - Headings Tags - Fonte: www.mestreseo.com.br



       Nas imagens do site foram feitas também alterações na forma com que cada imagem
fosse colocada conteúdo dentro das imagens nas tags Title e Alt.
       O atributo “ALT” tem a sintaxe HTML: “<img src=”image.jpg” alt=”Descrição da
Imagem” />” a tag ALT é o comando usado para identificar o Alternate Text, o texto
alternativo que é exibido quando a imagem não é carregada.
       Já o atributo “Títle” serve para atribuir o título à imagem para o Google identificar do
43

que se trata a imagem e a sintaxe usada é seguinte: “<img src=”image.jpg” title=”Título da
Imagem” />” Essas tags adicionadas nas imagens ajudam e muito no desempenho do SEO em
sua página, pois agrega mais valor à palavra-chave que está sendo otimizada na página em
questão.
       Foi usado no site o arquivo robots.txt que é usado pelo Google e outros buscadores
como forma de apresentação do site para o buscador, nele você pode impedir páginas restritas
ou com conteúdo duplicado de serem rastreadas pelos buscadores, fazendo uma espécie de
bloqueio entre os spiders e o seu site, outra vantagem do arquivo robots.txt é indicar o
caminho dos seus sitemaps. Abaixo na figura 13 pode se ver o robots.txt utilizado atualmente
no Infomaníaco.




                              Figura 13 - robots.txt – Fonte : Do autor

       Outra vantagem do robots.txt é que ele pode indicar o caminho específico do sitemap.
Sitemap por sua vez tem um papel muito importante, pois indica para o Google e alguns
buscadores a quantidade de páginas a ser indexadas e quais são elas, também como a data de
publicação e a prioridade da página determinada referente ao conteúdo do site.
       O arquivo de sitemap é feito em XML e ajuda os motores a buscar e a identificar
como é o site e deve seguir alguns padrões para facilitar a leitura dos buscadores nas páginas
do seu site. Abaixo na figura 14 pode ver um exemplo de como deve ser o arquivo
44

sitemap.xml dentro do site.




                         Figura 14 - sitemap.xml - Fonte: www.mestreseo.com.br



       Foi feito também um trabalho de Link Bulding, Ricotta (2010), disse que “Link
Building é o processo de aquisição de links para um determinado website com a finalidade de
aumentar a sua popularidade e relevância na Internet”.
       Portanto foi feito esse trabalho através de dois tipos de links: links internos e links
externos, os internos visam linkar uma página do website a outra página dentro do próprio
site, já o externo é fazer o link para outros sites, que no caso seria outros sites linkando para
os websites do estudo.
       Para fazer os links internos, usamos um plug-in junto ao WP para exibir na página
links relacionados ao mesmo conteúdo dentro do site, fazendo com que quando o Google
visitar esta determinada página ele passa pelos links e chegue até as outras páginas que foram
linkadas, dando mais autoridade naquele determinado assunto. Exemplo de link interno na
figura 15.
       Os links externos têm um pouco mais de dificuldades, porém têm mais relevância para
o Google, pois é quando recebe links de outros sites e para isso o importante é fazer um
conteúdo original e atrativo a fim de que outros sites te linkam para mostrar o conteúdo, nos
websites em questão, foram feitas parcerias de links em outros sites, onde os sites em questão
linkavam um para o outro. Um exemplo de Link externo na figura 16.
45




                        Figura 15 - Links internos – Fonte: www.mestreseo.com.br




                        Figura 16 - Links Externos - Fonte: www.mestreseo.com.br



       Na     sintaxe   HTML        os     links     têm     a     seguintes       características:   “<a
href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“, onde site de conteúdo é o
texto âncora, ou seja, o que aparecerá para o usuário. Na sintaxe ainda pode ser introduzida
alguns atributos como sendo um dos principais para o Google o nofollow. Ricotta (2010), diz
que “nofollow” é um atributo HTML utilizado para instruir aos mecanismos de busca que um
determinado link não deva constar no grafo de cálculo de rankeamento, ou seja, não passará
relevância. O seu objetivo é diminuir o efeito de técnicas de spam na Internet, tal como
comentários spam em blogs. Onde a sintaxe é usada como a seguir: “<a rel=“nofollow”
href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“.
       E nos websites do estudo foi feito uma alteração nos links adicionando o atributo
nofollow onde apontavam para sites externos afim de não passar link juice para outros sites,
link juice que por sua vez significa a relevância de um site, então quando linkamos para outro
site sem o atributo nofollow está sendo passando também um pouco da relevância do seu site
para outro.
46

         Foi visado também não somente um domínio fazer vários links para o site do estudo, e
sim, vários domínios diferentes linkando, pois o Google entende que é melhor ter vários sites
te linkando do que somente um, os links externos também são analisados pelo Google
minuciosamente, pois vê diversas características dele para avaliar sua relevância até sua
página como, por exemplo, o Google vê se o link tem o texto âncora de acordo com o site
linkado, a autoridade do website que envia o link, relevância do contexto, se está com
nofollow, a profundidade da página, quantidade de links da página e a posição (RICOTTA,
2010).
         Portanto nos sites do estudo foram feitos vários trabalhos de link Bulding como
escrever conteúdos originais e com qualidade, a inserção da URL dos sites nos principais
diretórios, cadastramos também os sites nas principais redes sociais, troca de links e parcerias,
submissão de artigos em outros websites parceiros, interação em fóruns do mesmo assunto,
tudo isso visando links apontados para os sites que estão sendo otimizados para o Google.
         Depois de várias inserções de técnicas de SEO, alterações no código HTML, no
conteúdo, fatores externos trabalhados, os dois sites ficaram otimizados e preparados para o
Google para então efetivar o estudo.
47




      CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS
                      RESULTADOS


5.1. Site de Conteúdo


       Através da análise dos sites foram identificadas quais técnicas de SEO apropriadas
para os sites e então foi feito a aplicação das mesmas, depois de um período os dois sites
conseguiram ganhar seu espaço na web de uma forma com que se destaca em seu nicho, o
Infomaníaco ao longo do tempo conseguiu a chegar a marca de 9.956.393 de visitas únicas,
no relatório contido na figura 17 feito no Google Analytics pode-se ver com mais clareza.




                   Figura 17 - Estatísticas de visitas do Infomaníaco - Fonte: Do autor
48

       Esse gráfico acima foi gerado do período de 24/09/2008 até 10/11/2011 onde pode ser
notado vários números significantes, o número de visitas únicas, ou seja, por IP foi de quase
10 milhões e que estas visitas únicas visualizaram cerca de 15.451.229 páginas, uma média de
1,55 páginas por visita.
       Na figura 18 abaixo pode ser vista a quantidade das visitas que vieram de mecanismos
de pesquisa ou motor de busca.




                           Figura 18 - Origens de tráfego - Fonte: Do autor



       Em todo esse período e com mais de nove milhões de visitas cerca de 8.026.368 de
visitas, ou 80.58% que o Infomaníaco teve foi vinda de mecanismos de pesquisa e
ramificando ainda mais, dentro desse número 78,42% veio do tráfego orgânico do Google,
muito do distante de outros buscadores.
       Outro gráfico interessante é o de palavra-chave que mais recebeu visitas vindas do
Google, nele pode se ver que o Infomaníaco recebeu cerca de 7.807.752 visitas que vieram do
Google por meio de 929.757 palavras-chave, outro fator que foi encontrado no gráfico abaixo
é que ainda fala que as visitas vieram por um meio que não gerou custos para o Infomaníaco,
ou seja, o Google enviou 7.807.752 não para visitas, onde pode perceber a importância de
SEO para o site de conteúdo.
49




                        Figura 19 - Visitas vindas do Google - Fonte: Do autor



       Além disso, pode ser mensurado de que país esses visitantes vieram, estado e até
mesmo a cidade, nesse período o Infomaníaco recebeu visitas vindas em cerca de 186 países,
se destacando o Brasil, Portugal, Estados Unidos, Japão e Angola. No Brasil, o Infomaníaco
recebeu mais visitas vindas do sudeste conforme a figura abaixo:




                          Figura 20 - Cidades Brasileiras - Fonte: Do autor
50

       Por fim será mostrado um gráfico que ajuda mostrar o crescimento dentro de três anos
do Infomaníaco, abaixo na figura 21 pode se ver no ano de 2008 que o site não tinha
absolutamente nenhuma visita e que ao passar do tempo permaneceu em torno de menos de
5000 visitas, logo em setembro de 2008 quando foram aplicadas as primeiras técnicas de
SEO, pode já começar a ver o crescimento chegando a triplicar em alguns meses depois, e a
taxa de crescimento manteve a subir até mesmo no ano de 2010 aonde parou de crescer e se
manteve.
       Na posição Y (vertical) é a quantidade de visitas únicas do site:




                      Figura 21 - Crescimento do Infomaníaco – Fonte: Do Autor




5.2. Site de notícias de Goiatuba e região


       Já o site de notícias Goiatuba online em pouco tempo também teve números
significativos, onde pode se destacar a quantidade de visitas vindo do Google ou até mesmo
entrando diretamente no site.
51




                       Figura 22 - Visitas do Goiatuba online - Fonte: Do autor




       O gráfico 22 mostra as estatísticas de visita do Goiatuba online no período de
01/06/2011 até 10/11/2011, e nesse curto período de tempo, contabilizou-se cerca de 24.000
visitas únicas onde tais visitas acessaram 123.494 visualizações de páginas, uma média de
mais de cinco páginas por visita e com o tempo médio de 06h23min por visita.
       Logo abaixo na figura 23 pode ser visto outro fator importante nos resultados obtidos,
o relatório aponta que cerca das mais 24.000 visitas únicas vieram dos resultados de pesquisa
do Google proveniente de um trabalho de SEO feito logo após o site ter sido construído.
52




                         Figura 23 - Origens de Tráfego – Fonte: Do autor



       Hoje em dia, as redes sociais também ajudam no trabalho de SEO, pode-se ver no
gráfico que o Facebook enviou cerca de 1.912 visitas únicas tornando-se a terceira melhor
fonte de tráfego do Goiatuba online, até mesmo na frente de outros motores de busca como o
Bing e Ask, ganhando também de outras redes sociais como Orkut e Twitter.
       O Goiatuba online também teve um trabalho de SEO envolvendo a palavra-chave
“Goiatuba”, portanto para aparecer nessa pesquisa teve de ter um trabalho mais intenso, pois
os primeiros colocados do Google dessa palavra-chave quando pesquisado era o site da
prefeitura de Goiatuba contendo o domínio “http://www.goiatuba.go.gov.br/”, ou seja,
domínios com a extensão .gov.br tende a se ter mais autoridade em termos de SEO, pois o
Google entende que seja um site do governo e também outro site com bastante notoriedade é
o da Wikipédia falando sobre Goiatuba, que é um site bastante conhecido e relevante para o
Google, por sua vez, o Goiatuba online aos poucos foi crescendo no rankeamento com esta
palavra-chave. Quando começou a otimização, o Goiatuba online estava em 83º posição do
índice do Google referente à busca da palavra “Goiatuba”, aos poucos foi subindo o
rankeamento, primeiro para 30º posição, depois para 6º, até chegar ao primeiro lugar
conforme nos mostra a figura 24 abaixo.
53




             Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba" – Fonte: Do autor

       Enfim neste ultimo gráfico é mostrado o crescimento tanto nas visitas quanto nas
visualizações de páginas que o Goiatuba online teve no período entre Maio e Novembro do
ano de 2011, pode observar a tendência de crescimento logo após a inserção das técnicas.
       Na posição Y (vertical) é a quantidade de visitas e visualizações do site:




                    Figura 25 - Crescimento do Goiatuba Online – Fonte: Do autor
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo
Técnicas  em sites de notícias e conteúdo

Mais conteúdo relacionado

Semelhante a Técnicas em sites de notícias e conteúdo

Aula 3 - O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...
Aula 3 -  O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...Aula 3 -  O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...
Aula 3 - O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...Pedro Cordier
 
Growth Hacking: Como o SEO se encaixa nessa história?
Growth Hacking: Como o SEO se encaixa nessa história?Growth Hacking: Como o SEO se encaixa nessa história?
Growth Hacking: Como o SEO se encaixa nessa história?Felipe Bazon
 
28-ferramentas-de-growth.pdf
28-ferramentas-de-growth.pdf28-ferramentas-de-growth.pdf
28-ferramentas-de-growth.pdfJailson Rodrigues
 
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do Google
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do GoogleEbook SEO - 16 erros que impedem seu site de estar na primeira página do Google
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do GoogleFelipe Pereira
 
SEO como ferramenta de Growth Hacking
SEO como ferramenta de Growth HackingSEO como ferramenta de Growth Hacking
SEO como ferramenta de Growth Hackingsemrush_webinars
 
SEO Como Ferramenta de Growth Hacking
SEO Como Ferramenta de Growth HackingSEO Como Ferramenta de Growth Hacking
SEO Como Ferramenta de Growth HackingFelipe Bazon
 
Palestra de Marketing Digital - SEO (Otimização de Sites) e Google Adwords
Palestra de Marketing Digital  - SEO (Otimização de Sites) e Google AdwordsPalestra de Marketing Digital  - SEO (Otimização de Sites) e Google Adwords
Palestra de Marketing Digital - SEO (Otimização de Sites) e Google AdwordsIsaac Batista
 
Estratégias em marketing de busca com foco em SEO e links patrocinados
Estratégias em marketing de busca com foco em SEO e links patrocinadosEstratégias em marketing de busca com foco em SEO e links patrocinados
Estratégias em marketing de busca com foco em SEO e links patrocinadosIsaac Batista
 
Master class de SEO do Básico ao Avançado em 50min
Master class de SEO do Básico ao Avançado em 50minMaster class de SEO do Básico ao Avançado em 50min
Master class de SEO do Básico ao Avançado em 50minFelipe Bazon
 
Módulo Google Analytics - Maio 16
Módulo Google Analytics - Maio 16Módulo Google Analytics - Maio 16
Módulo Google Analytics - Maio 16Marcelo Ribeiro
 
Análise de sites e mídia digital eneste
Análise de sites e mídia digital   enesteAnálise de sites e mídia digital   eneste
Análise de sites e mídia digital enesteAndré Folli
 
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA Consulting
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA ConsultingEstudo do Mercado de Web Analytics no Brasil - 2009 - WA Consulting
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA ConsultingMarcelo Azeredo
 
Metodologia para Avaliação de Sites
Metodologia para Avaliação de SitesMetodologia para Avaliação de Sites
Metodologia para Avaliação de SitesSimone Cervantes
 
Web Analytics - Uma Visão Brasileira 1
Web Analytics - Uma Visão Brasileira 1Web Analytics - Uma Visão Brasileira 1
Web Analytics - Uma Visão Brasileira 1Marcelo Azeredo
 
Webanalytics Uma Visao Brasileira
Webanalytics Uma Visao BrasileiraWebanalytics Uma Visao Brasileira
Webanalytics Uma Visao BrasileiraIsrael Degasperi
 
Web Analytics Uma Visão Brasileira
Web Analytics Uma Visão BrasileiraWeb Analytics Uma Visão Brasileira
Web Analytics Uma Visão Brasileiraguest3da3cf
 
Web Analytics Uma Visão Brasileira
Web Analytics Uma Visão BrasileiraWeb Analytics Uma Visão Brasileira
Web Analytics Uma Visão BrasileiraRodrigo Polacco
 

Semelhante a Técnicas em sites de notícias e conteúdo (20)

Apresentação SEO
Apresentação SEOApresentação SEO
Apresentação SEO
 
Google it
Google itGoogle it
Google it
 
Aula 3 - O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...
Aula 3 -  O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...Aula 3 -  O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...
Aula 3 - O Marketing de Busca e Suas Ferramentas - Disciplina Planejamento E...
 
Growth Hacking: Como o SEO se encaixa nessa história?
Growth Hacking: Como o SEO se encaixa nessa história?Growth Hacking: Como o SEO se encaixa nessa história?
Growth Hacking: Como o SEO se encaixa nessa história?
 
28-ferramentas-de-growth.pdf
28-ferramentas-de-growth.pdf28-ferramentas-de-growth.pdf
28-ferramentas-de-growth.pdf
 
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do Google
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do GoogleEbook SEO - 16 erros que impedem seu site de estar na primeira página do Google
Ebook SEO - 16 erros que impedem seu site de estar na primeira página do Google
 
SEO como ferramenta de Growth Hacking
SEO como ferramenta de Growth HackingSEO como ferramenta de Growth Hacking
SEO como ferramenta de Growth Hacking
 
SEO Como Ferramenta de Growth Hacking
SEO Como Ferramenta de Growth HackingSEO Como Ferramenta de Growth Hacking
SEO Como Ferramenta de Growth Hacking
 
Palestra de Marketing Digital - SEO (Otimização de Sites) e Google Adwords
Palestra de Marketing Digital  - SEO (Otimização de Sites) e Google AdwordsPalestra de Marketing Digital  - SEO (Otimização de Sites) e Google Adwords
Palestra de Marketing Digital - SEO (Otimização de Sites) e Google Adwords
 
Estratégias em marketing de busca com foco em SEO e links patrocinados
Estratégias em marketing de busca com foco em SEO e links patrocinadosEstratégias em marketing de busca com foco em SEO e links patrocinados
Estratégias em marketing de busca com foco em SEO e links patrocinados
 
Master class de SEO do Básico ao Avançado em 50min
Master class de SEO do Básico ao Avançado em 50minMaster class de SEO do Básico ao Avançado em 50min
Master class de SEO do Básico ao Avançado em 50min
 
Módulo Google Analytics - Maio 16
Módulo Google Analytics - Maio 16Módulo Google Analytics - Maio 16
Módulo Google Analytics - Maio 16
 
Análise de sites e mídia digital eneste
Análise de sites e mídia digital   enesteAnálise de sites e mídia digital   eneste
Análise de sites e mídia digital eneste
 
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA Consulting
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA ConsultingEstudo do Mercado de Web Analytics no Brasil - 2009 - WA Consulting
Estudo do Mercado de Web Analytics no Brasil - 2009 - WA Consulting
 
Metodologia para Avaliação de Sites
Metodologia para Avaliação de SitesMetodologia para Avaliação de Sites
Metodologia para Avaliação de Sites
 
Web Analytics - Uma Visão Brasileira 1
Web Analytics - Uma Visão Brasileira 1Web Analytics - Uma Visão Brasileira 1
Web Analytics - Uma Visão Brasileira 1
 
Webanalytics Uma Visao Brasileira
Webanalytics Uma Visao BrasileiraWebanalytics Uma Visao Brasileira
Webanalytics Uma Visao Brasileira
 
Webanalytics uma visao_brasileira_1
Webanalytics uma visao_brasileira_1Webanalytics uma visao_brasileira_1
Webanalytics uma visao_brasileira_1
 
Web Analytics Uma Visão Brasileira
Web Analytics Uma Visão BrasileiraWeb Analytics Uma Visão Brasileira
Web Analytics Uma Visão Brasileira
 
Web Analytics Uma Visão Brasileira
Web Analytics Uma Visão BrasileiraWeb Analytics Uma Visão Brasileira
Web Analytics Uma Visão Brasileira
 

Técnicas em sites de notícias e conteúdo

  • 1. INSTITUTO LUTERANO DE ENSINO SUPERIOR DE ITUMBIARA CURSO DE SISTEMAS DE INFORMAÇÃO GUILHERME ROSA SILVA ROCHA AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO Itumbiara, dezembro de 2011.
  • 2. GUILHERME ROSA SILVA ROCHA AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO Monografia apresentada por Guilherme Rosa Silva Rocha ao curso de Sistemas de Informação do Instituto Luterano de Ensino Superior de Itumbiara, como um dos requisitos para obtenção do grau de Bacharel em Sistemas de Informação, orientado pelo Professor Especialista Daniel Humberto Carrara. Itumbiara, dezembro de 2011.
  • 3. Dados Internacionais de Catalogação na Publicação (CIP) Rocha, Guilherme Rosa Silva As Técnicas utilizadas em SEO e seu impacto no rankeamento do Google aplicadas em um site de Goiatuba e região / Guilherme Rosa Silva Rocha – Itumbiara: do autor, 2011.61 p. Monografia – TCC – Curso de Sistemas de Informações 1. Otimização de sites. 2. Sistemas de Informação. I. Rocha, Guilherme Silva Rocha. CDU-004.738.52 Catalogação na Fonte Rosa Helena de Paula Rodrigues – CRB1 2022
  • 4. AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DO GOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO GUILHERME ROSA SILVA ROCHA Monografia defendida e aprovada, em 15 de dezembro de 2011, pela banca examinadora: Professor Especialista Daniel Humberto Carrara de Azevedo Orientador e Professor do Curso de Sistemas de Informação Professor Roger Amandio Luz Professor e Coordenador do Curso de Sistemas de Informação Professor Pedro Moises de Sousa Professor do Curso de Sistemas de Informação
  • 5. Dedico este trabalho à minha família, amigos, meu orientador e aos meus professores.
  • 6. Gostaria de agradecer a todos que me ajudaram direto ou indiretamente para a conclusão deste trabalho, a minha esposa Jaqueline e a minha filha Maria Eduarda, juntamente com meus amigos, Bruno, Vinicius e Ueder.
  • 7. “Para ter sucesso, é necessário amar de verdade o que se faz. Caso contrário, levando em conta apenas o lado racional, você simplesmente desiste. É o que acontece com a maioria das pessoas”. Steve Jobs
  • 8. RESUMO A Web nos últimos anos cresceu rapidamente, fazendo com que o número de páginas multiplicasse. Para facilitar a encontrar o conteúdo que o usuário necessita, foram criados os chamados motores de buscas que ajudam a identificar o conteúdo que o usuário está a procura, através das palavras chaves digitada no campo de pesquisa. Portanto o buscador tem o papel de identificar qual é a página mais relevante para o usuário final, para isso foi elaborado vários algoritmos a fim de estabelecer o ranking das páginas indexadas pelos motores de buscas, fazendo com que haja uma concorrência entre uma página e outra, e para os webmasters conseguir cada vez mais visita eles empenham no trabalho de SEO, o presente estudo visa potencializar um site de conteúdo e um de notícias de Goiatuba e região para receber mais visitas das pesquisas realizadas no buscador Google através de inserções de técnicas de SEO em ambos. Tendo como justificativa o constante crescimento da internet e descobrir se as técnicas de SEO são viáveis para alavancar visitas de algum determinado site, com isso foi analisado o site e aplicado às técnicas de SEO apropriadas para o site. Foi tido como resultado um número considerável, depois das inclusões de técnicas de SEO, o site de conteúdo em um pouco mais de três anos teve resultados bastante satisfatórios em termos de visitas vindas do Google através da otimização do site com as técnicas de SEO, o site de notícias de Goiatuba e região em pouco tempo também teve bons resultados considerando ser um site com um público bem especifico. Tendo como conclusão que um site que se aplicado às técnicas de SEO adequadas consegue sim aumentar suas visitas vindo dos motores de busca. Palavras-chave: SEO. Motores de busca. Web.
  • 9. ABSTRACT The Web has grown rapidly in recent years, causing the number of pages multiplied. To make it easier to find content that the user needs have been created so-called search engines that help identify content that the user is looking through the keywords typed into the search field. So the seeker's role is to identify what the page more relevant for the end user, for it was developed several algorithms to establish the ranking of pages indexed by search engines, so that there is a competition between a page and another, and webmasters can visit them more engaged in the work of SEO, this study aims to enhance a content site and a news Goiatuba and region to receive more visits from research carried out by the Google search engine inserts techniques SEO in both. Having to justify the continued growth of the Internet and find out if the SEO techniques are feasible to leverage a particular site visits, it was analyzed with the site and applied to SEO techniques appropriate for the site. Was taken as a result a considerable number, after the inclusion of SEO techniques, the site content in a little over three years had satisfactory results in terms of visitors from Google by optimizing the site with SEO techniques, the Goiatuba news site and region in a short time also had good results considering that a site with a very specific audience. With the conclusion that a site that is applied to the appropriate SEO techniques but can increase your visits coming from search engines. Keywords: SEO. Search Engines. Web
  • 10. LISTA DE FIGURAS Figura 1 - Modelos de Comunicações ....................................................................................................17 Figura 2 - Site Craiglist ..........................................................................................................................23 Figura 3 - Diretório DMOZ....................................................................................................................25 Figura 4 - Evolução dos Search engines ................................................................................................26 Figura 5 – Pagerank - Fonte: Mestre SEO .............................................................................................27 Figura 6 - Modelo de Página principal do Google Analytics .................................................................38 Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 .........................................................................39 Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 ...................................................................39 Figura 9 - Titulo do site Infomaníaco.....................................................................................................40 Figura 10 - Técnicas de SEO..................................................................................................................40 Figura 11 – Canonical ............................................................................................................................41 Figura 12 - Headings Tags .....................................................................................................................42 Figura 13 - robots.txt ..............................................................................................................................43 Figura 14 - sitemap.xml .........................................................................................................................44 Figura 15 - Links internos ......................................................................................................................45 Figura 16 - Links Externos .....................................................................................................................45 Figura 17 - Estatísticas de visitas do Infomaníaco .................................................................................47 Figura 18 - Origens de tráfego ...............................................................................................................48 Figura 19 - Visitas vindas do Google .....................................................................................................49 Figura 20 - Cidades Brasileiras ..............................................................................................................49 Figura 21 - Crescimento do Infomaníaco ...............................................................................................50 Figura 22 - Visitas do Goiatuba online ..................................................................................................51 Figura 23 - Origens de Tráfego ..............................................................................................................52 Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba"..............................................................53 Figura 25 - Crescimento do Goiatuba Online ........................................................................................53
  • 11. LISTA DE TABELAS Tabela 1 - Conceito Web 2.0 ................................................................................................................. 20 Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 ................................................................. 28 Tabela 3 - Urls Amigáveis .................................................................................................................... 41
  • 12. 10 SUMÁRIO RESUMO ................................................................................................................................................ 6 ABSTRACT ............................................................................................................................................ 7 LISTA DE FIGURAS ............................................................................................................................. 8 LISTA DE TABELAS ............................................................................................................................ 9 SUMÁRIO ............................................................................................................................................ 10 INTRODUÇÃO .................................................................................................................................... 12 CAPÍTULO I - A WEB ......................................................................................................................... 16 1.1. Web 2.0 ...................................................................................................................................... 19 1.2. Novos serviços na Web .............................................................................................................. 21 CÁPITULO II - Sites de Busca ............................................................................................................. 24 2.1. Diretórios.................................................................................................................................... 24 2.2. Google ........................................................................................................................................ 26 CÁPITULO III - SEO – Search Engine Optimization .......................................................................... 30 3.1. Técnicas OnPage e Offpage ....................................................................................................... 31 3.2. Black Hat .................................................................................................................................... 33 CAPÍTULO IV - METODOLOGIA ..................................................................................................... 35 4.1. Métodos de Análise e Classificação da Pesquisa ....................................................................... 35 4.2. Tecnologias de Apoio................................................................................................................. 35 4.3. Site antes da aplicação das técnicas de SEO .............................................................................. 38 4.4. Métodos ...................................................................................................................................... 40 CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS ..................................... 47 5.1. Site de Conteúdo ........................................................................................................................ 47 5.2. Site de notícias de Goiatuba e região ......................................................................................... 50 5.3. Discussão dos Resultados........................................................................................................... 54
  • 13. 11 CAPÍTULO VI - CONSIDERAÇÕES FINAIS .................................................................................... 56 REFERÊNCIAS BIBLIOGRÁFICAS .................................................................................................. 58
  • 14. 12 INTRODUÇÃO Segundo Saatchi (2010), hoje em dia, o mundo gira em torno da internet, pois cada dia que passa a Web está ficando cada vez mais cheia de recursos, serviços e entretenimento para os usuários de computador, através da mesma pode se vender produtos, entrar em um chat, conseguir um emprego, comprar carros, enfim pode se fazer quase tudo hoje em dia através da internet, mas uma pequena loja virtual ou determinado serviço que começa na internet, tem que procurar alguma forma para se destacar, e hoje em dia, existem algumas formas de divulgação como o boca a boca, publicidade online, publicidade off-line entre outros. Portanto a maioria dos donos de sites recorre ao tráfego vindo de motores de busca através da busca orgânica, pois, contudo os motores de busca contêm bilhões de páginas indexadas e para destacar entre elas pode se fazer a inserção técnicas de SEO para que o site se torne um dos primeiros nos resultados de busca dos motores de busca a fim de melhorar o tráfego do site: O significado de SEO é Search Engine Optimization. Em português, é conhecido como Otimização de Sites, MOB e Otimização para Buscas. O SEO nada mais é do que a otimização de uma página (ou até do site inteiro) para ser mais bem compreendido pelas ferramentas de busca. A consequência da utilização das técnicas de SEO é o melhor posicionamento de um site em uma página de resultados de uma busca (TEIXEIRA, 2007). Então de acordo com o texto acima, pode se dizer que SEO é considerado como a otimização de um determinado site que contém uma determinada palavra-chave de contextualização para o motor de busca a fim de se tornar um dos primeiros resultados naquela palavra-chave (TEIXEIRA, 2007). As primeiras técnicas de SEO surgiram logo após o lançamento dos primeiros buscadores na Internet. Pessoas descobriram que era possível obter, para seus websites, posições nas primeiras páginas dos buscadores quando internautas realizavam buscas por informações. Para tanto, era necessário fazer alterações nos códigos HTML do site. Outras
  • 15. 13 técnicas utilizadas para obter as tais posições eram (e são até hoje) incluir links de referência para a página de outros sites e possuir mais conteúdo em cada página. Se a intenção do proprietário é trazer cada vez mais tráfego com qualidade, investir em SEO é uma ótima oportunidade, pois pode se conseguir um alto nível de tráfego com uma boa conversão de resultados do que anunciar em uma revista onde poucos usuários irão converter em uma venda ou cadastro seja qual for a métrica de conversão do determinado em questão (RICOTTA, 2008). Hoje em dia, é possível citar vários motores de busca, portanto o seguinte estudo será apenas do site Google1 em questão, pois o mesmo segundo a pesquisa feita pela Predicta, uma empresa especializada em serviços de inteligência em marketing online aponta que 88,9% das buscas no Brasil são realizadas no site de Pesquisa Google. O Google tem grande participação nas buscas, pois apresentam sempre resultados adequados aos seus usuários devido ao sistema de ranking e de contextualização em cada página indexada. Para uma página ter um bom rankeamento existem vários fatores que são abordados pelo Google a fim de trazer o melhor resultado para o usuário, para isso o conteúdo deve ser bastante relevante sobre o assunto. Segundo Ricotta: Pagerank (PR) é a forma pela qual o Google procura representar a importância que um site, ou página, tem para ele (Google) frente à Internet. Ele foi desenvolvido em 1995 na Universidade de Stanford por Larry Page, daí vem o nome “Page” Rank. Basicamente o Pagerank é uma avaliação da relevância da página. Essa relevância é divulgada em uma escala de zero a 10, mas sabe-se que o verdadeiro valor varia dentro de uma escala logarítmica. Para calcular o valor do Pagerank, o Google considera basicamente a quantidade de links que a página recebe. Funciona de modo semelhante a uma eleição, onde cada link é como um voto endossando a qualidade da página que recebe o link. Mas não basta ter uma grande quantidade de links para ter um PR alto, a relação semântica entre as páginas é importante, bem como a própria relevância da página que faz o link (RICOTTA, 2007). Através da classificação de 0 a 10 através do algoritmo do Page Rank, O Google ficou conhecido por todo o mundo, pois na época realmente era o que tinha de mais relevante para denominar a posição de cada site na pesquisa, segundo o Google hoje em dia não é somente esse fator é colocado em pauta também a velocidade do site, links direcionados para o site, estrutura HTML, popularidade do site, relevância com a pesquisa entre outros (RICOTTA, 1 Além de ser uma empresa com inúmeros serviços, o motor de busca é o serviço mais popular da companhia e o site mais acessado do mundo. De acordo com pesquisa de mercado publicado pela comScore, em novembro de 2009, o Google era o motor de busca dominante no mercado dos Estados Unidos, com uma quota de mercado de 65,6%. O Google indexa trilhões de páginas web, de modo que os usuários podem pesquisar as informações que quiser, através do uso de palavras-chave e operadores (WIKIPÉDIA, 2011).
  • 16. 14 2007). Contudo esse estudo procura solucionar o seguinte problema: como melhorar tráfego de um site de conteúdo e um site de notícias de Goiatuba e região aplicando técnicas de SEO? Esse estudo tem como objetivo geral melhorar a quantidade de visitas em um site de conteúdo e um site de notícias de Goiatuba e região através da implementação de técnicas de SEO para melhorar o posicionamento do site nas pesquisas do Google. Tendo como os objetivos específicos fazer uma análise do site para que seja encontrado quais serão as técnicas apropriadas para o site de conteúdo e um site de notícias de Goiatuba e região, implementar tais técnicas de SEO para melhorar o tráfego de visitas, fazer o acompanhamento dos sites juntamente com o Google para verificar se o presente estudo está sendo bem desenvolvido e por fim uma análise nas estatísticas de tráfego dos sites para enfim verificar se o estudo teve sucesso. A relevância desta monografia se justifica ao ponto que a Web está em pleno crescimento e que a concorrência em diversos setores aumenta como disse Saatchi (2010), e quem conseguir se beneficiar nas primeiras posições na SERP2 dos buscadores com certeza terá mais conversão seja qual for e mais tráfego com qualidade para o determinado site em questão. Foi feito análises em diversos trabalhos relacionados tendo como os principais o estudo de como as search engines funcionam de Fábio Ricotta onde fala sobe como é feito os algoritmos de rankeamento dos buscadores, outro trabalho foi sobre as ferramentas de buscas na web, onde conta de como surgiu os primeiro diretórios e como foi a chegada dos primeiros buscadores de Beatriz Cendón. Para monitorar as palavras-chave, páginas indexadas, velocidade do site, links apontados para o site, estatísticas de rastreamento do Googlebot3, foi usado uma ferramenta fornecida pelo Google para webmasters, que se chama Google Webmasters Tools4 que fornece relatórios detalhados sobre a visibilidade das páginas no Google, trazendo mais 2 Ele é um termo técnico para representar as páginas que exibem os de resultados em uma busca. São chamadas de Search Engine Results Page ou em português, página de resultados de uma busca. As SERPS variam conforme as palavras-chave e são compostas normalmente por resultados naturais que aparecem do lado esquerdo da busca. Os padrões são de cada SERP são no máximo dez resultados por páginas (MARKETING DE BUSCA, 2007). 3 Googlebot é o robô de rastreamento da web do Google (também chamado de "indexador"). O rastreamento é o processo pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google (GOOGLE, 2011). 4 As Ferramentas do Google para Webmasters oferecem um jeito fácil e gratuito de tornar seu site mais amigável ao Google. Ele mostra para o usuário a forma que o Google o vê, também as quais das páginas estão inclusas no índice do Google, os erros encontrados no rastreamento no site, ajuda a encontrar os termos de pesquisa que listam seu site nos resultados e muito mais (GOOGLE, 2011).
  • 17. 15 clareza entre o Google e o site, avisando quando se pode melhorar e no que está sendo feito de forma errada, é como se fosse um canal de comunicação. Para gerir relatórios de tráfego, que trata-se de quais palavras-chave que mais trouxe o usuário até o site, perfil do usuário entre outros será usado à ferramenta Google Analytics. Segundo o Google, (2005) o Google Analytics oferece uma “solução de análise da web de cunho empresarial que fornece uma ótima visibilidade do tráfego e da eficiência do marketing do seu website”, e também ajuda nas iniciativas de marketing para se preparar para as conversões, e como os usuários chegaram ao site, quanto tempo ficou ajudando a melhorar a experiência do visitante. Portanto o Google Analytics é a ferramenta mais indicada para poder executar o trabalho, pois abrange várias ferramentas e vários outros relatórios extras que ajudam no estudo que está sendo feito. Foi usado também técnicas de SEO OnPage que se dá a inserções no HTML dos sites, mudança na forma do conteúdo, estruturação, linkagem interna entre outros, e também como fator principal das técnicas de OffPage o trabalho de links externos em outros sites, introdução de URL nos diretórios entre outros. O presente estudo pode ser qualificado como pesquisa qualitativa e quantitativa, pois irá trabalhar com números reais comparando o antes e o depois do tráfego, a pesquisa quantitativa devido ao fato de que serão exibidos os números reais, já a qualitativa é aonde será visto o valor dos resultados obtidos a fim de estabelecer se o presente estudo foi de fato satisfatório. Os resultados obtidos com o trabalho de SEO foram satisfatórios, devido ao fato que ambos os sites começaram sem ter nenhuma visita e com a aplicação das técnicas o crescimento foi considerável. No site de conteúdo que foi usado no estudo o número total chegou a quase dez milhões de visitas únicas, onde o público alvo era de todo o Brasil de forma não muito ramificada como o site de notícias que visava mais a região de Goiatuba e região onde o público era bem definido, pois se tratava de um público menor, ainda sim tiveram ótimos resultados com o trabalho de SEO trazendo novos visitantes para ambos os sites.
  • 18. 16 CAPÍTULO I - A WEB Como diz Castells (2003) a internet é “como se fosse um tecido de nossas vidas”, ele compara a tecnologia da informação hoje como sendo a eletricidade na era industrial, pois pode-se dizer que a internet é equiparada a uma rede elétrica ligada ao motor elétrico, por sua capacidade de espalhar a informação por todo o mundo. A internet é um meio de comunicação que permite, pela primeira vez, a comunicação de muitos com muitos, num momento escolhido, em escala global. Assim como a difusão da máquina impressora no Ocidente criou o que MacLuhan chamou de a “Galáxia de Gutenberg”, ingressamos agora num novo mundo de comunicação: a Galáxia da internet. O uso da internet como sistema de comunicação e forma de organização explodiu nos últimos anos do segundo milênio. No final de 1995, o primeiro ano de uso disseminado da World Wide web, havia cerca de 16 milhões de usuário de redes de comunicação por computador no mundo. No início de 2001, eles eram mais de 400 milhões / previsões confiáveis apontam que haverá cerca de um bilhão de usuários em 2005, e é possível que estejamos nos aproximando da marca dos dois bilhões por volta de 2010, mesmo levando em conta uma desaceleração da difusão da internet quando ela penetrar no mundo da pobreza e do atraso tecnológico (CASTELLS, 2003 p. 08). Complementando o que Castells (2003) disse, a internet vem crescendo rapidamente, de uma forma jamais vista e vem sendo disseminada no mundo todo. A comunicação pela primeira vez teve seu auge com a internet, pois com ela poderia ser rapidamente exposta à população, isso facilita e ajuda as pessoas que talvez nunca saberiam de notícias tão rapidamente como é propagado na web. O mesmo autor também teve sua participação em prever o futuro da internet, como no texto diz, ele estimou que no ano de 2010 tivesse cerca de dois bilhões de usuários conectados na rede espalhando informações entre si. Além de ser uma estimativa alta, Castells (2003) não errou muito, pois em 2011 o mundo conta com mais de 500 mil pessoas que entram pela primeira vez por dia na internet levando em consideração este número, em 2012 pode chegar a estimativa de dois bilhões de
  • 19. 17 usuários ligados na internet, F/Nazca (2011), além disso, a cada minuto é feito o upload 5de mais de 48 horas de vídeo no Youtube afirma Aguiari (2011) e a cada segundo é criado um blog na web, cerca de 70% das pessoas também consideram a internet indispensável em seus afazeres do dia a dia, Reuters (2009). Retomando F/Nasca (2011) o Brasil contém cerca de 81,3 milhões de internautas com mais de 12 anos, dentre eles tem como acesso uma maioria a lan house com cerca de 30% seguido da residência com 27% e também pode se destacar que o Brasil é o quinto país com maior número de conexões com a internet. Figura 1 - Modelos de Comunicações - Fonte: SPYER, 2007 Pag. 21 Uma comparação feita por Spyer (2007) pode descrever bem como é o universo da internet comparado a outros meios de comunicação, olhando para a figura 1, pode-se ver três quadrados caracterizando três meios de comunicação, sendo o de número 1 a informação sendo propagada de uma pessoa para outra por meio do telefone, o quadrado de número dois seria a televisão ou outros meio de difusão, que alcança milhares de pessoas, porém a transmissão de dados é de apenas uma via, já o terceiro seria a internet, pois seria uma via de 5 Upload é o contrário de download, ou seja, é o ato de enviar um arquivo para a Internet. Quando você envia um arquivo para um site, seja música, vídeo, texto, etc., está na verdade fazendo um upload. Ao abrir uma página, mesmo sem perceber, estamos fazendo download e upload quase simultaneamente. Como? Ao acessar um site, o texto e imagens começam a ser carregados para serem exibidos, ou seja, é o download do conteúdo. Quando a página termina de carregar, um aviso é enviado ao servidor informando que tudo foi recebido corretamente, portanto é o upload de informações (MARTINS, 2008).
  • 20. 18 dois lados, portanto através dela pode-se conversar usar aplicativos como murais, redes sociais, listas de discussão entre outros, seria muito mais envolvente e a informação melhor distribuída. Pode-se dizer que a internet tem um meio de compartilhamento melhor que mídias convencionais devido à interação do usuário e o poder de compartilhamento que por esta vez ganha mais espaço em redes sociais. Em 2007, quase 1/3 dos usuários de internet eram da língua inglesa e o restante tinha como segunda língua o inglês, portanto na época toda experiência inovadora se concentrava entre os Estados Unidos e Inglaterra, desde então a web se concentra na língua inglesa (SPYER, 2007). Com a internet popularizando ela se tornou um dos meios mais eficientes para o acesso à informação de vários assuntos como diz abaixo na citação. A Internet hoje é sem dúvida o meio mais eficiente de se ter acesso à informação, bem como prover os mais variados assuntos em menor tempo e maior abrangência, com a popularização do computador e o fácil acesso aos meios de comunicação, possibilitaram a expansão da internet bem como todos os serviços das mais variadas espécies e finalidades. Como exemplo pode-se citar cursos de educação à distância e compras online. Com o rápido crescimento do número de usuários na internet e a facilidade de divulgar qualquer tipo de informação, cresceu também o volume de dados fraudulentos colocando em dúvida a sua confiabilidade (KIRCHNER, 2009). Como disse Kirchner (2009) a internet é bastante eficiente ao acesso a todo e qualquer tipo de informação mesmo com toda esta facilidade ainda é preciso melhorar muito a inclusão digital, porém melhorou muito, pois nos últimos anos teve um crescimento muito rápido em números de usuários com computador ligado a internet, portanto há de se salientar que devido a inúmeras informações vindas da internet, ainda deve se ter uma precaução com algumas informações que podem ser enganosas e tomar mais cuidado ainda quando inserir alguns dados pessoais em determinados sites, pois o roubo de dados está cada vez mais constante. Kirchner (2009) complementa que a internet ajuda muito no termo de aprendizado, pois com o investimento das empresas de telefonia veio também velocidades maiores de internet, beneficiando pessoas que fazem cursos a distância ser mais intuitivos, participativos através de conferências ao vivo com os professores direto de sua casa. A Oracle Corporation, por exemplo, oferece cursos com aulas totalmente interativas com os alunos através de videoconferência, audioconferência e programas de chat que por sua vez é usado para pessoas conversarem entre si.
  • 21. 19 Muita coisa mudou com o passar dos anos, hoje a Web está cada vez mais participativa e aumentando cada vez mais o conteúdo inserido nela conforme citação: Com os avanços tecnológicos recentes, houve uma potencialização da participação dos usuários no que diz respeito à criação, compartilhamento e difusão de arquivos na Internet. Cada vez mais os sites passam a se fundamentar em dados recolhidos e postados (disponibilizados online) pelos próprios internautas. Assim, até mesmo as plataformas e interfaces foram se transformando: alguns softwares tiveram seus códigos-fonte abertos, o conteúdo passou a ser ouvido e visto no próprio site, o design e o funcionamento se tornaram passíveis de modificações por parte dos usuários, entre outras mudanças em curso (BRESSAN, 2007). Com base nessas informações, é notável que a interação do usuário com os sites foram incentivadas e se torna mais como uma tendência na web hoje, esse fato pode ser chamado de Web 2.0, pois muda o conceito da internet como de antigamente, hoje a participação do usuário dos sites é quase que necessário, pois é chamariz para que o leitor da página fique mais apegado ao produto se for o caso, ou outros assuntos como fóruns de jogos, vídeos entre outros. Outro modo que os internautas têm como de interação do usuário é a forma com que ele tem de modificar o próprio design em determinados sites, fazendo com que ele deixe de forma com que fique mais agradável possível. 1.1. Web 2.0 Segundo Bressam, (2007) “Web 2.0 se destaca na geração de serviços e aplicativos da rede e a recursos, tecnologias e conceitos que permitem um maior grau de interatividade e colaboração na utilização da internet”, portanto pode-se perceber que hoje em dia há diversos sites e termos que mudaram para essa nova tendência. Abaixo na tabela nº1 são listados alguns sites e definições que ao passar do tempo foram se adequando a este novo modelo de negócio na internet:
  • 22. 20 Tabela 1 - Conceito Web 2.0 Web 1.0 Web 2.0 DoubleClick Google AdSense Ofoto Flickr Akamai BitTorrent mp3.com Napster Britannica Online Wikipedia personal websites blogging evite upcoming.org and EVDB domain name speculation search engine optimization page views cost per click screen scraping web services publishing participation content management systems wikis directories (taxonomy) tagging ("folksonomy") stickiness syndication Fonte: http://radar.oreilly.com - O`Reilly, 2005 Finalizando o conceito de Web 2.0 O‟Reilly define que: Web 2.0 é a rede como plataforma, abarcando todos os dispositivos conectados. As aplicações Web 2.0 são aquelas que produzem a maioria das vantagens intrínsecas de tal plataforma: distribuem o software como um serviço de atualização contínuo que se torna melhor quanto mais pessoas o utilizam, consomem e transformam os dados de múltiplas fontes - inclusive de usuários individuais - enquanto fornecem seus próprios dados e serviços, de maneira a permitir modificações por outros usuários, criando efeitos de rede através de uma „arquitetura participativa‟ e superando a metáfora de página da Web 1.0 para proporcionar ricas experiências aos usuários‟ (REILLY, 2005). Com essa arquitetura participativa, modificações por parte do usuário, facilidade no aprendizado a web 2.0 veio para melhorar e ajudar o usuário final a fim de proporcionar novas experiências agradáveis. Hoje em dia, um fator muito influente são as redes sociais virtuais, e empresas estão cada vez mais aderindo a elas como forma de marketing comunitário, que se define entre a participação do usuário com a marca ou produto atribuído, as principais formas e mais
  • 23. 21 eficientes são os blogs, Facebook, Myspace, Twitter entre outras. Nesta onda de Web 2.0 as empresas estão cada vez mais investindo em projetos voltados para as redes sociais, fazendo de uma forma que pessoas se interessem pelos seus produtos a fim de trocar ideias em suas páginas dentro da rede e compartilhando cada vez mais conteúdos atrativos para elas (HUNT, 2010). Continuando, Hunt (2010) escreveu que para as empresas conseguirem um lugar no mundo da Web 2.0, elas precisam se tonar um capitalista social que seria uma empresa que é participativa com o seu público nas redes sociais, e isso tudo seria para tentar conseguir mais confiança entre seus seguidores, e destaca também que para ter sucesso como Bill Gates, precisa ter iniciativa e melhorar cada vez mais a interatividade e transparência com o seu público alvo, além disso, Hunt (2010) ainda cita que “só existem realmente três maneiras de construir um negócio ou fazer dinheiro on-line: pornografia, sorte e Whuffie”. Whuffie foi criado para estipular uma métrica entre perfis de usuários para se estabelecer um nível de reputação ou influência como diz abaixo: O Whuffie, portanto, é a culminação da sua reputação, a influência, o capital de conexão, o seu atual e potencial acesso a ideias, talentos e recursos, o acúmulo de favores e realizações. Pequenas empresas não lucrativas, músicos, palestrantes e até autores estão usando as redes sociais para criar o Whuffie e aumentar seus negócios (HUNT, 2010). Portanto o Whuffie seria sua reputação online, medida com base no que o usuário faz na página de sua rede social, é medido pelas suas ideias e pelo seu favoritismo entre seus amigos, se você ajuda ou não alguém com favores ou realizações, muitas pessoas usam este sistema de reputação para estabelecer quem mais ajuda em determinado blog ou fórum para enfim ser reconhecido pela sua participação. 1.2. Novos serviços na Web Outro fator que a Web beneficiou foi a comodidade na hora de fazer compras. Ferreira (2011) disse que quando a internet se popularizou juntamente com o e-commerce6 no Brasil e 6 Campano (2009. p.5) define comércio eletrônico ou e-commerce como uma forma de se realizar negócios entre empresa e consumidor (B2C) e entre empresas (B2B), usando a internet como plataforma de troca de informações, encomenda e realização de transações financeiras. Já para Laudon (2007), E-Commerce são as transações comerciais realizadas digitalmente entre organizações e indivíduos ou entre duas ou mais organizações.
  • 24. 22 no mundo cresceu junto como um aliado ao outro. Nos últimos anos, as pessoas estão ficando cada vez mais sem tempo para ir a lojas para comprar, com isso as lojas virtuais se propagaram e hoje pode se contar com diversas lojas, inclusive leilões de mercadorias em sites especializados. O comércio eletrônico surgiu em 1995, quando o site Netscape.com, utilizou a internet como um novo tipo de mídia para publicidade e efetuar vendas. Como toda inovação comercial, o comércio eletrônico no ano de 2001 começou a despencar, com isso várias empresas faliram, entretanto empresas como Amazon.com, eBay e Google, entre outras, tiveram recorde em lucratividade. Segundo dados do e-bit, no mesmo ano o setor já faturava R$ 0,5 bilhão. Nos Estados Unidos entre 2004 e 2005 houve um aumento de 170 milhões para 175 milhões de pessoas acessando a internet. Em 2005 as venda do comércio eletrônico voltaram a crescer, tendo aumento de mais de 25%. Nessa mesma época foi o início da popularização da internet no Brasil, época que as redes sociais como o Orkut e o Messenger chegavam ao país, iniciando um ciclo que dura até hoje, onde pessoas utilizam menos serviços físicos, como ir ao banco pagar contas, comprar em lojas e utilizar mais os serviços da internet. Em 2007, no Brasil, o setor já faturava R$ 6,3 bilhões, um aumento de mais de 40%, com relação ao ano de 2006, informações foram divulgadas pelo estudo exclusivo da 17ª edição do Relatório "WebShoppers" realizado pela e-bit (FERREIRA, 2011). Portanto o comércio eletrônico teve um grande avanço de 2004 para cá, fazendo com que todos abrissem o olho para a internet, pois ali se via um grande potencial, alguns comércios locais chegaram a falir devido à alta procura por produtos na web, que por sua vez era uma novidade e que todos gostariam de estrear. Juntamente com o comércio eletrônico crescendo aqui no Brasil estava sendo popularizada a internet em si, principalmente através de redes sociais, como o Orkut e o Messenger que chegavam ao país naquela época. E isso fez com que muitas pessoas deixassem de fazer o que fazia em lojas ou bancos para poder fazer online, pois era mais rápido e de fácil acesso. Spyer, (2007) notou que o site Craiglist seria um site inovador, pois ele dá mais atenção ao usuário do que propriamente dito ganhar dinheiro e com isso conseguiu atrair mais de 10 milhões de visitantes por mês. O site Craiglist, nada mais é que um site de classificados gratuitos para pessoas que querem anunciar ou procurar empregos, moradias, serviços, vendas de produtos usados, além de ter fóruns para se discutir sobre diversos assuntos.
  • 25. 23 Figura 2 - Site Craiglist - Fonte: http://brasilia.pt.craigslist.org/ - Acessado em 01/11/2011 Com o espírito de tentar ajudar ao usuário sem fins lucrativos, apesar de que no final das contas ainda eram lucrativos, surgiram na web diversos sites nos Estados Unidos e em outros países classificados que geram este, beneficiam para o usuário o poder de anunciar e procurar por algo sem custo algum. Depois dos classificados, começaram a surgir sites com outras finalidades, porém com a mesma ideologia que era de não cobrar por serviços, a partir daí a web começou a se tornar uma grande fonte de sites prestadores de serviços gratuitos, como no exemplo dos classificados e são difíceis jornais locais que cobram por anúncios, brigarem por espaço, pois na internet existem inúmeros sites de classificados gratuitos (SPYER, 2007). Portanto pode se perceber que a Web no Brasil e no mundo está em plena mudança e sempre visando o foco no usuário, o crescimento também é algo considerável, pois bastaram poucos anos para a internet se popularizar e juntamente os negócios online tornaram-se uma ótima alternativa para empresas pequenas e de grande porte.
  • 26. 24 CÁPITULO II - SITES DE BUSCA Com a internet em crescimento, o número de páginas também cresceu e muito, desde então para acessar algum endereço o usuário precisava saber o nome da página para encontrar, ao passar dos anos foram criados os Sites de buscas que visam entregar a página com o melhor conteúdo condizente à busca realizada pelo usuário. 2.1. Diretórios Os diretórios foram os primeiros da internet a organizar as páginas, essa solução foi introduzida quando os números de páginas na internet ainda eram considerados pequenos e a forma com que trabalhavam não era automática, fazendo com que demorassem a cada requisição das páginas, os diretórios são organizados por categorias e subcategorias, como pode se ver na figura 3 (CENDÓN, 2001). Os sites inseridos nos diretórios, na maioria das vezes, são colocados por seres humanos, grande parte quando os webmasters submetem a url para ser incluído dentro das categorias específicas em forma de formulário com o endereço do site também era inclusa uma breve descrição do site, além de palavras-chave. Quanto aos assuntos, nem todos os diretórios são genéricos como o Yahoo!, ou o Britannica, que cobrem todos os assuntos. Alguns diretórios cobrem áreas específicas e têm sido chamados de diretórios temáticos ou especializados. Existem, por exemplo, diretórios especializados em imagens, jornais e revistas, software, listas de discussão; outros coletam sites sobre assuntos específicos como saúde, ciências, legislação, informática etc.; ainda outros listam ferramentas de busca de países específicos ou para um público-alvo determinado (crianças, pesquisadores, organizações não governamentais etc.). Devido à frequência com que novas ferramentas de busca (diretórios e motores de busca) surgem ao mesmo tempo em que outras caem em desuso, um novo tipo diretório passou a ser criado: os diretórios de ferramentas de busca. Diretórios como FinderSeeker (http://www.finderseeker. com/) ou Search.com (http://search.cnet.com/) têm o objetivo de listar ferramentas de busca, para facilitar sua identificação (CENDÓN, 2001).
  • 27. 25 Conforme falado, os diretórios foram um grande ápice da época, não existiam os motores buscas e o usuário se recorria aos diretórios, que por sua vez, poderiam ter vários assuntos ou até mesmo ser específico de alguma área, portanto depois que começou a surgir os primeiros buscadores, os diretórios de links começaram a cair em desuso, pois os resultados dos diretórios eram menos satisfatórios para o usuário. Na Figura 3 pode-se ver o diretório DMOZ, que é responsável até hoje por fornecer informações para outros diretórios, como se fosse uma fonte de links. Figura 3 - Diretório DMOZ - Fonte: DMOZ - http://www.dmoz.org/ Os motores de buscas chegaram com uma forma diferente de tratar as páginas da web, pois ele não usava intervenção humana e também não era dividido e subdivido por categorias, eles usavam algoritmos em softwares chamados de robôs para identificar o site pela pesquisa feita pelo usuário, com isso os buscadores poderiam alcançar um número muito maior de sites em sua base de dados e o usuário por sua vez faria a busca do site escrevendo palavras-chave
  • 28. 26 ou, às vezes, em linguagem natural (CENDÓN, 2001). De alguns anos para cá, existiram vários buscadores com diferentes tipos de algoritmos, tudo para diferenciar entre eles, a fim de trazer melhor experiência aos usuários. a figura 4. Abaixo se pode ver os buscadores com a ordem de seus lançamentos: Figura 4 - Evolução dos Search engines Fonte: Wikipédia - http://pt.wikipedia.org - Visitada em 30/10/2011 Cada motor de busca tinha seu algoritmo diferente um do outro para ter vantagem em relação de melhores resultados, existem ótimas ferramentas na web, portanto destacam-se: Yahoo, Bing, MSN Search, Alta vista, por isso nenhum tem o desempenho e qualidade do Google (RICOTTA, 2007). 2.2. Google Ricotta, (2007) diz sobre o Google que: O Google atualiza sua base de informações diariamente, pois existe um crawler, chamado de Googlebot, que busca por informações novas em todos os websites. Isso é realmente interessante, pois cerca de 30 minutos após se publicar um artigo em um blog já é possível encontrá-la no Google. Outros mecanismos de busca também possuem crawlers, mas eles não são tão eficientes em termos de atualização e de classificação de informações. (...) Outros dois fatores importantes do sucesso dos motores de busca são a simplicidade e clareza. A combinação desses itens foi aprimorada desde a concepção do Google. Devido a isso, é possível acessar um site leve, sem poluição visual e cujas opções são facilmente localizáveis (RICOTTA, 2007). Pode-se notar que algoritmo desenvolvido pelo Google faz com que o Googlebot
  • 29. 27 percorra todo seu site em busca de informações novas em um curto período de tempo, fazendo com que um conteúdo novo do seu site chegue ao Google cerca de 30 minutos após ser publicado, lembrando que vários outros buscadores com a mesma funcionalidade, mais nenhum supera o Google em termos de qualidade e eficiência. Outro fator que o Google faz sucesso é o design minimalista que faz com que o usuário tenha uma experiência agradável ao ter tudo que precisa facilmente (RICOTTA, 2007). O Google também conta com um diferencial também que é chamado de PageRank. Ricotta (2007) “trata-se de um algoritmo desenvolvido por Larry Page, um dos fundadores do Google, que atribui uma pontuação a cada página web de acordo com a quantidade e a qualidade dos links que apontem para ela” complementando, pode-se dizer que o (PR) é uma avaliação da relevância da página, pois faz com que o Google some a quantidade de links que a determinada página recebe de outros sites, visando sempre à qualidade de cada site que envia o link, e ele tem o valor de zero até dez, sendo o dez o melhor visto pelo Google. Para melhor entendimento quanto ao PR na figura 5 pode se perceber que sites que contêm mais links direcionados são maiores no PR e quando um site de PR alto faz um link para outro site de PR baixo, ele subitamente tem seu PR melhorado. Logo quanto maior o PR de algum site, maior a relevância e confiança o Google tem por ele, fazendo com que seus links também tenham esse mesmo valor do que sites que tenham PR baixo. Figura 5 – Pagerank - Fonte: Mestre SEO - Acessado em 31/10/2011 Na Tabela 2 pode-se observar os sites que mais tem Pagerank alto no Google:
  • 30. 28 Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 Links do Título PR Link do Yahoo! URL Google US Goverment 10 20.900 9.652.685 http://www.usa.gov/ website Adobe - Adobe Reader 10 141.000 3.403.720 http://get.adobe.com/reader/ Download United States Department of http://www.hhs.gov/ and Health and 10 9.750 2.308.721 http://www.dhhs.gov both redirects to Human same URL. Services Miibeian 10 70.300 841.149.899 http://www.miibeian.gov.cn/ Facebook 10 6.020 2.147.483.647 http://www.facebook.com/ Social Bookmarking 10 59.300 254.366.507 http://www.addthis.com/bookmark.php Sharing Button Widget Europeana 10 3.890 140.776 http://www.europeana.eu/portal/ EUA - European 10 1.500 163.899 http://www.eua.be/ University Association Universitas 21 10 422 205.306 http://www.universitas21.com/ University of 10 1.490 654.703 http://universityofcalifornia.edu/ California Google 10 39.900 1.362.935.280 http://www.Google.com/ Government Of 10 2.980 328.609 http://india.gov.in/ India United States Cable News 10 12.900 793.696 http://us.cnn.com/ Network Piwik - Web 10 11.900 4.083.736 http://piwik.org/ analytics Fonte: Search Engine Genie - http://www.searchenginegenie.com - Acessado em 31/10/2011
  • 31. 29 Na Tabela 3 pode-se notar que os principais sites e mais linkados são sites do governo ou serviços da web com popularidade como o Facebook. Portanto, o Google desde que foi lançado, teve muitas modificações tanto no design do site quanto no algoritmo. Recentemente pode se destacar três alterações significantes: Caffeine, Florida Update e o mais impactante, o Panda Update que afetou cerca de 12% nas buscas do Google nos EUA e 9% nas buscas em outros países (RICOTTA, 2011). Esse novo Update no algoritmo do Google gerou muitas polêmicas, pois vários sites que antes tinham milhares de visitas chegaram a perder até 90% de tráfego vindo do Google, pois essa atualização tem como objetivo melhorar a experiência do usuário de todas as formas, agora os critérios de rankeamento estão mais exigentes que antes, agora ele passa a analisar o tempo médio que o usuário gasta na sua página, a taxa de rejeição, se tem muitos anúncios que atrapalham o usuário, o site realmente tem o conteúdo pesquisado, tempo de velocidade de abertura do site, se é conteúdo copiado de outros sites, facilidade para usuário final, qualidade do conteúdo e outros (FAUSTINO, 2011). Pode se concluir que os motores de busca vieram para facilitar a vida do usuário que está a procura de determinado item na web, através de palavras-chave pesquisadas, os buscadores lhe dão uma série de site a respeito e o Google por sua vez com seu inovador algoritmo de rankeamento fez com que se destaca entre eles, pois faz o seu ranking através de vários fatores como quantidade de links apontada para o site e principalmente a experiência do usuário no site se é a agradável ou não.
  • 32. 30 CÁPITULO III - SEO – SEARCH ENGINE OPTIMIZATION Segundo Teixeira (2007), SEO uma técnica que faz a otimização de uma página (ou até do site inteiro) para se tornar melhor compreendido pelas ferramentas de busca. Portanto é necessário um estudo e implementação de técnicas de SEO em um site, pois da mesma forma que o site pode ser bem compreendido pode também ser mal compreendido chegando a ser rebaixado ou sofrer um banimento nas páginas de resultados de uma determinada busca. Em meados da década de 90, antes do Google surgir, webmasters já se preocupavam em divulgar seus sites em sistemas de busca. Nesse primeiro momento era apenas necessário submeter uma url ou domínio por meio de um formulário dos buscadores. Esses, por sua vez, enviavam seus spiders para percorrer as páginas, reconhecer os links nas mesmas e indexar o seu conteúdo no banco de dados. Nessa época, para identificar a importância de determinado termo dentro de uma página analisava-se apenas o número de vezes que esse aparecia e sua localização. Portanto era comum encontrar resultados com qualidade muito baixa, já que muitos webmasters abusavam da quantidade de termos inseridos no conteúdo e obtinham bons rankings. O termo “search engine optimization” passou a ser usado em 1997, segundo Danny Sullivan, que cobre a área de sistemas de busca desde 95. Logo surge o Google e a fotografia da indústria de busca sofre grandes mudanças: penalizações para o emprego de técnicas antiéticas – também conhecidas como black hat, foco na qualidade do conteúdo, popularidade e confiança medidas por meio de links e qualidade de suas fontes (SANCHES, 2010). O termo SEO nasceu quando houve necessidade de atrair mais visitas para um determinado site, logo muitas pessoas usavam técnicas antiéticas para conseguir uma melhora no rankeamento ficando a frente de outro site que poderia ser melhor para o usuário, foi a onde os buscadores tentavam cada vez mais formas de identificar tais técnicas que hoje são chamadas de Black Hat. No início, os buscadores solicitavam aos donos de site para submeter à url ou domínio por meio de formulário, que depois através de uma análise seriam aprovados ou não, depois de aprovados os sistemas mandavam os chamados spiders para percorrer o conteúdo de todo o site para dentro do seu índice de resultados. A importância na época era analisar apenas o número de vezes que o site era solicitado na busca e sua localização, então devido ao baixo
  • 33. 31 rigor nos tratamentos dos dados, muitos sites que eram visualizados na página de resultados da busca feita pelo usuário tinha a qualidade muito baixa, fazendo com que o usuário que 7 requisitou a busca não ficasse satisfeito com os resultados, e também muitos webmasters notaram que se eles espalhassem pelo site algumas palavras-chave que era de acordo com o texto, eles melhoravam no ranking da busca feito pelo usuário, fazendo assim uma otimização do site. Muitas vezes, os webmasters usavam de formas antiéticas para se beneficiar com o sistema de busca, por isso quando chegou a empresa Google eles já vieram com alguns sistemas de rankeamento melhores, pois trouxeram consigo o foco na qualidade, desde a popularidade da página, a confiança medidas por links e qualidade das fontes atribuídas nas páginas. Inouye (2007) diz que, antigamente, o SEO definia em construção de links nos diretórios, otimização para os Spiders, competição entre um site do mesmo nicho, troca de links, otimização de links para batalhar para se obter melhor PageRank e também explica que 50% das tarefas dos buscadores como o Google era tarefa automatizada: Diretórios foram os primeiros sistemas de busca criados. Também chamados de catálogos, tem como característica a categorização e organização em tópicos. Estes tópicos seguem uma estrutura lógica e são subdivididos por detalhamentos. Por exemplo, a categoria esportes tem a subdivisão futebol que por sua vez pode ser divida em profissional e amador. Normalmente os diretórios são feitos por pessoas, diferente das ferramentas de busca que usam robôs como veremos a frente. Os principais diretórios existentes são o DMOZ.org e o Yahoo! (TEIXEIRA, 2007) Como Teixeira (2007) comentou, os diretórios de antigamente eram como se fossem um catálogo, onde o usuário escolheria a categoria e dentro da mesma era subdivido em tópicos e só assim a listagem de sites que normalmente era por letra alfabética, não trazendo relevância nenhuma sobre o que o usuário realmente queria, outro detalhe é que esses diretórios eram feitos por pessoas diferentemente dos motores de busca que usam algoritmos para definir como auxiliar na pesquisa do usuário. 3.1. Técnicas OnPage e Offpage Hoje em dia, o termo SEO está sendo bastante estudado e está sempre se preparando para as novas tendências dos motores de busca e para conseguir resultados cada vez melhores 7 O Webmaster é um profissional capaz de realizar tarefas tanto de um webdesigner (elaboração do projeto estético e funcional de um web site) quanto de um WebDeveloper ( que faz a parte da programação, como sistemas de login, cadastro, área administrativa ) (WIKIPÉDIA, 2011).
  • 34. 32 são feitas técnicas que podem se classificar como técnicas de OnPage e de OffPage, e onde que se dá o trabalho de SEO e que um bom trabalho é feito de forma com que uma técnica ajuda a outra, ajudando ao usuário final que fez a busca ter realmente o conteúdo que ele pesquisou (MESTRESEO, 2011). Segundo a Mestre SEO (2011), as técnicas atribuídas dentro do próprio site, onde são feitas modificações no código HTML ou no CSS são chamadas de OnPage, pois são feitas internamente no site, às vezes, sem que o usuário final as percebam, na maioria das vezes, são feitas alterações na forma em que o Título é exibido, a quantidade de links nas páginas, quais palavras-chave são aplicadas, a forma como elabora o título da página e até mesmo o nome do site são fatores importantes. Já as técnicas de OffPage a Mestre SEO (2011) classificam-se como sendo o trabalho por fora do site, externamente, pois eles não estão ligados diretamente ao site, mas lembrando-se de que para uma técnica de OffPage funcionar deve-se ter dado atenção primeiramente às técnicas de OnPage, porque o site deve estar bem estruturado a fim de receber visitantes. Links de entrada (inbound links) são os links que outros sites apontam para uma página do seu website. No início do PageRank, a regra era simples: quanto mais links, melhor. Mas esta visão mudou bem desde a concepção inicial do algoritmo. Ainda sim, a quantidade de links recebidos por uma página é uma métrica importante utilizada para definir seu posicionamento em uma determinada pesquisa. Eis a razão de tanta busca por links, de sempre querer mais links (MESTRESEO,2011). Pode-se perceber que os links apontados para seu site é uma das métricas mais importantes para os motores de busca fazendo com que se destaca nas técnicas de OffPage, o porquê da razão de ser importante se dá pelo fato de que é feito um ranking pelos motores de busca procurando pelo site que contém mais popularidade, portanto um site que recebe muitos links se dá na forma como sendo um site popularmente, pela quantidade de links que ele recebe, lembrando que “não importa tanto quantos links você recebe, mas sim a quantidade de domínios diferentes que apontam para o seu website” (MESTREOSEO, 2011): Um exemplo simples para este caso é saber que um site que possui 1.000 links de 1.000 domínios diferentes, irá ranquear melhor do que um website que recebe 1.000 de 200 domínios diferentes. Logicamente neste exemplo estamos descartando todos os outros fatores. De nada adianta receber muitos links e de vários domínios diferentes se a qualidade dos websites ou páginas não possuem uma boa reputação. Para isto é importante saber de quem você recebe um link, olhando os fatores daquela página. A regra aqui é simples, é muito importante que o link que você recebe seja de um site relacionado ao seu, que não esteja banido pelos Search Engines, e que seja de conteúdo original (MESTRESEO, 2011).
  • 35. 33 3.2. Black Hat Muitos donos de site ou até empresas que fazem serviços de SEO usam de práticas ilegais aos olhos dos buscadores e isso é chamado de Black Hat. Black Hat SEO é o termo utilizado para caracterizar técnicas de SEO consideradas “ilícitas” ou abusivas, ou seja, técnicas que aproveitam uma possível brecha nos algoritmos de classificação de resultados ou exageram o uso de alguma técnica White Hat SEO. Em oposição, o White Hat SEO é composto por técnicas de SEO consideradas válidas por search engines (MESTRESEO, 2011). Como SEO é uma vantagem para qualquer site, muitos webmasters usam técnicas de Black Hat para poder se beneficiar de forma ilegal aos olhos dos buscadores, pois os buscadores trabalham com algoritmo que por sua vez, pode ficar vulnerável a alguma brecha fazendo com que sites que não deveriam ficar nas primeiras posições, ficam e prejudicam a experiência do usuário final. Alguns modos de Black Hat são bastante efetivos como os tais Keyword Stuffing que se tratam de espalhar palavras-chave relacionadas às buscas dentro da página como, por exemplo: “Notebook, notebooks, venda notebook, notebook hp, notebook novo…”, e às vezes de alguma forma que o usuário não veja essas palavras, somente os algoritmos dos motores de buscas, porém quando os buscadores percebem a prática, o site é penalizado de diversos modos, mas a principal é a remoção do conteúdo do site nas Serps, fazendo com que perca visitas (MESTREOSEO, 2011). Do ano de 1997 até os dias de hoje, o SEO ficou muito mais complexo como Veloso (2011) diz que hoje o profissional de SEO deve delinear vários tipos de estratégia, principalmente em estratégias OffPage nas redes sociais que vem cada dia mais tomando espaço na internet, e também hoje em dia qualquer palavra-chave está cada vez mais concorrida e com vários profissionais de SEO se espalhando por aí deixa o trabalho mais intenso e difícil. Com base nessas informações pode-se concluir que os motores de busca precisam de seus algoritmos para providenciar melhores resultados para o usuário, fazendo com que os webmasters focassem um trabalho específico de SEO nas páginas a fim de subir seu rankeamento nas Serps, trazendo assim mais visitantes ao seu site por meio de técnicas de OnPage e OffPage aumentando seus lucros e conversões como por exemplo um cadastro ou
  • 36. 34 até mesmo uma subscrição por e-mail.
  • 37. 35 CAPÍTULO IV - METODOLOGIA 4.1. Métodos de Análise e Classificação da Pesquisa Este trabalho utilizou de pesquisa qualitativa pelo fato de comparar o antes e o depois e analisando também alguns dados específicos, como o tempo de permanência no site entre outros, e a quantitativa por também se tratar de analisar as estatísticas dos sites antes e depois das técnicas de SEO, avaliar também se o estudo teve sucesso e analisar em especial alguns dados reais abordados pela pesquisa. O método de coleta das estatísticas foi como observação direta através de programas específicos que nos dão todos e quaisquer dados significantes para a pesquisa. O estudo se baseia também em uma pesquisa bibliográfica por se tratar de consultas realizadas em outras bibliografias de domínio publico. Teve também como método de abordagem o dedutivo, pois se trata de estudar as técnicas que serão aplicados e logo após a análise de forma particular sobre os dados obtidos. 4.2. Tecnologias de Apoio. Para construir os sites foi usada a tecnologia de programação PHP ligada ao banco de dados MySQL usando o gerenciador de conteúdo chamado Wordpress. PHP (um acrônimo recursivo para PHP: Hypertext Preprocessor) é uma linguagem de script open source de uso geral, muito utilizada e especialmente guarnecida para o desenvolvimento de aplicações Web embútivel dentro do HTML. Ao invés de muitos comandos para mostrar HTML (como visto em C ou Perl), páginas PHP contém HTML juntamente com códigos que fazem "alguma coisa" (neste caso, mostra "Olá, Eu sou um script PHP!") O código PHP é delimitado por tags iniciais e finais <?php e ?> que lhe permitem pular pra dentro e pra fora do "modo PHP" (PHP, 2011).
  • 38. 36 Conforme escrito, o PHP é de fácil compreensão, pois sempre quando usado é delimitado por tags, ou seja, marcações na linguagem de programação sendo elas iniciais e finais, trazendo consigo o HTML no documento, ajudando a identificar erros no HTML sem ter muita experiência no próprio PHP, o PHP pode fazer qualquer coisa, pois é uma linguagem de script do lado do servidor, portanto pode-se dizer que ele coleta dados de formulários, criar e gerar páginas de conteúdo dinâmico, receber ou enviar cookies e muito mais (PHP, 2011). MySQL é um sistema que gerencia banco de dados em SQL, atualmente, é um dos mais populares banco de dados do mundo, esse programa “pode ser usado em sistemas de produção com alta carga e missão crítica bem como pode ser embutido em programa de uso em massa”, ou seja, ele serve para gerenciar todo e qualquer tipo de informação gerada pelo site, pois o site usa um sistema de gerenciamento de conteúdo, então tal sistema necessita de um gerenciador de banco de dados eficiente e rápido e o MySQL é um dos mais usados atualmente na web para sites de pequeno e grande porte (MYSQL, 2010). Segundo Mullenweg (2010), “Wordpress (WP) é um sistema de gerenciamento de conteúdo na web, escrito em PHP e executado em MySQL”. E por ser um gerenciador de conteúdo pode-se denominar um CMS, o WP teve seu crescimento muito rápido devido a sua licença que é de código aberto, a facilidade de uso e suas características como gerenciador de conteúdo, além da customização que pode transformar desde um simples blog até mesmo um portal de notícias. Outra característica do WP é facilidade que tem de mudar de tema, instalar plug-ins que customiza o gerenciador para de acordo com que o webmaster deseja comparado a outros CMS que existem como o Joomla, Drupal, PHP Nuke, Xoops entre outros, o WP é o que mais se encontra recursos disponíveis para modificar o site e, na maioria das vezes, consegue-se esses recursos gratuitamente. Além de poder instalar o WP em servidor próprio, existe também o serviço Wordpress.com, onde o usuário poderá criar blogs simples gratuitamente sem pagar hospedagem ou domínio (MULLENWEG, 2010). São usados servidores particulares e não gratuitos todos em ambiente Linux, o Infomaníaco por ter mais conteúdo usa um VPS e o Goiatuba online servidor compartilhado. VPS é denominado perfeito para sites que usam muitos recursos de servidor como memória e CPU, o VPS é como um servidor compartilhado, portanto aloca a memória contratada a fim de dar mais robustez ao seu espaço dentro do servidor. É como se fosse um servidor dedicado virtual, pois você tem sua própria memória RAM, espaço e tráfego limitado
  • 39. 37 ao seu plano, fora que poderá ter acesso ao root podendo personalizar o servidor de acordo com as suas necessidades, ou até mesmo reiniciar o server a fim de evitar sobrecargas, isso tudo você pode ter além do desempenho adequado ao seu site (GCMHOST, 2010). Já a hospedagem compartilhada, como o nome já diz, seu site é hospedado com vários outros sites, usando a mesma memória alocada e o mesmo CPU do servidor, é a mais usada em todo o mundo devido ao fato de ter baixo custo, portanto se algum dos sites que tiverem no mesmo servidor fazer uma sobrecarga, fará com que todos sejam afetados e a limitação de CPU para cada site costuma ser de 2%, muito diferente do VPS, logo se tratando de custo x benefício para sites pequenos é a melhor solução (SANCHES, 2011). Para realizar consultas nas estatísticas do site para saber se o estudo foi feito com sucesso, foi utilizado o Google Analytics. Esse sistema permite saber qual são as páginas mais visitadas do site, qual o termo de pesquisa que foi realizada a pesquisa que fez com que o site aparecesse, melhores palavras-chave, de onde vieram os visitantes, quais plataformas, o tempo de permanência, a origem do tráfego, se ele veio do Google ou de outro buscador, entre outros relatórios não menos importantes (TRAVARELLI, 2008). O Google Analytics também verifica a taxa de rejeição de cada página do site, analisando os usuários que entram e na mesma hora vão embora sem que haja alguma interação ou tempo de visualizar o conteúdo seja pela aparência, qualidade, ou não ser realmente o que estava procurando, através disso o webmaster poderá fazer um estudo para melhorar o seu website a fim de trazer mais visitantes e ao mesmo tempo agradar o usuário que vai ao seu site à procura de informações (TRAVARELLI, 2008). Outra ferramenta de análise que foi usada é o Google Webmasters Tools ou GWT. Com ele, pode-se visualizar como o Google visualiza o site, quantidade de pessoas que encontraram o site através dos resultados das pesquisas e quantas que só realmente entraram, tem alertas sobre qualquer alteração do seu site perante o Google, quais os sites que fazem um link, quais palavras-chave são mais influentes dentro do seu website, tempo de carregamento, diagnosticar problemas, Permite que você envie dados (sitemap, por exemplo) para ajudar na indexação, fornece dados sobre a taxa de indexação, erros e muitas outras informações coletadas sobre seu site (GOOGLE, 2010).
  • 40. 38 Figura 6 - Modelo de Página principal do Google Analytics Fonte: Mxstudio - http://www.mxstudio.com.br/ - acessado em 04/11/2011 O GWT é importante para saber a relação do site perante o Google, para os webmasters perceber alguns pontos e ver no que o seu site realmente consegue ser bom, a fim de traçar um plano de SEO efetivamente. 4.3. Site antes da aplicação das técnicas de SEO O Infomaníaco em maio de 2008 começou não tendo nenhuma visita e através de inserções de conteúdo começaram a ter cada vez mais visitas, portanto havia a necessidade de melhorar ainda mais a visibilidade dele na internet, onde começou a inserção de técnicas de SEO para alavancar o site em posições no Google em diversas palavras-chave. Em 24 de setembro de 2008, foram colocadas em prática algumas técnicas de SEO que
  • 41. 39 ajudou o site que até então não passava de 1000 visitas diárias. Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 Fonte: Do Autor Na figura 7, pode ser notado como era o site antes da aplicação das técnicas de SEO e a maneira que foram subindo a quantidade de visitas. E o site de notícias Goiatuba online como o Infomaníaco começou sem visitas e sem atenção do Google, na figura abaixo podem-se ver os primeiros dias de visita do Goiatuba online, antes da otimização de SEO. Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 – Fonte: Do autor Em ambos os sites do estudo, foi feito o mesmo trabalho de SEO, com as mesmas técnicas e primeiramente foi desenvolvido o trabalho de organização de Arquitetura do site. Ricotta (2010), diz que a “Arquitetura de sites é a maneira como o conteúdo é organizado ao longo das páginas do site (home, categorias, subcategorias, etc.) e a forma como os conteúdos do site são relacionados entre si”. Baseado nisso, foram feitos alguns ajustes nas categorias do site a fim de centralizar o conteúdo para não haver uma dispersão dos dados, foram criadas
  • 42. 40 categorias para fazer a segmentação ao foco principal do site. 4.4. Métodos Começou-se então o trabalho de SEO OnPage onde são feitas alterações no layout e no código HTML do site para uma melhor otimização para os motores de busca. Conforme a figura 9 foi trabalhado o título do site dando mais ênfases nas palavras- chave associadas ao nome do site, fazendo ter mais relevância na página inicial a respeitos das palavras-chave respeitando o número de caracteres permitido. Figura 9 - Titulo do site Infomaníaco - Fonte: Do Autor Na figura 10 podem ser vistas três alterações no HTML que foram feitas para melhorar o entendimento da página perante o Google. Figura 10 - Técnicas de SEO - Fonte: www.Infomaníaco.com.br Na Tag Meta Name Description foi colocada uma breve descrição do site, esta descrição é muito importante, pois ela irá aparecer no resultado de busca do Google, como sendo um chamariz do visitante para seu site, nela também deve conter palavras-chave para mostrar o conteúdo que o site abrange. Em Meta Name Keywords, são colocadas novamente as palavras-chave do site, dessa vez para situar o site como sendo detentor das palavras-chave abordadas. Uma das principais técnicas de SEO para se evitar conteúdo duplicado dentro site é o uso da tag canonical. Marcel (2009), explica que conteúdo duplicado no site pode prejudicar muito, pois existe um imenso número de acessar uma página e o Google vê isso como conteúdo duplicado, ele ainda cita exemplo de como pode ser acessada uma página normal em
  • 43. 41 diversas formas de digitar a url. Figura 11 – Canonical - Fonte: http://www.mestreseo.com.br/ Acessado em 08/11/2011 A Tag Canonical é colocada em todas as páginas do site duplicadas direcionando para a URL original como vemos na figura 11 o site Infomaníaco é redirecionado para http://www.Infomaníaco.com.br/, portanto toda vez que o Google passar pelo site, ele vai entender que a página principal é a que a canonical está apontando. Foi alterada a forma com que o site abordava suas URL`s fazendo com que elas ficassem mais claras para o visitante e para o Google, abaixo você pode ver na tabela 3 como era as Url`s e como se tornaram depois da otimização de SEO. Tabela 3 - Urls Amigáveis Antes Depois http://www.Infomaníaco.com.br/?p=213 http://www.Infomaníaco.com.br/dicas/ http://www.Infomaníaco.com.br/?p=456 http://www.Infomaníaco.com.br/downloads/ http://www.Infomaníaco.com.br/?p=879 http://www.Infomaníaco.com.br/notícias/ http://www.Infomaníaco.com.br/?p=486 http://www.Infomaníaco.com.br/tutoriais/ http://www.Infomaníaco.com.br/?p=159 http://www.Infomaníaco.com.br/games/ http://www.Infomaníaco.com.br/?p=357 http://www.Infomaníaco.com.br/videos/ Fonte: Do autor Pode-se notar que depois da otimização das URL`s o usuário consegue identificar qual o conteúdo ele está abrindo antes mesmo de terminar de abrir a página e antes isso era impossível, e isso é muito relevante ao Google, pois adiciona mais palavras-chave ao seu
  • 44. 42 conteúdo. Outro fator importante na otimização OnPage que foi utilizado no site Infomaníaco são as denominadas as headings tags, pois servem para atribuir tamanhos diferentes para o texto, portanto o Google as vê como uma forma de separação de conteúdo do título com o subtítulo e por subsequente. Na figura 12 pode-se ver um exemplo clássico de utilização das headings tags de forma efetiva em um determinado site. O uso apropriado de heading tags pode ser exemplificado da seguinte maneira:  <h1>Infomaníaco – Site de Conteúdo</h1> Neste h1, ficou definido o tema principal da página.  <h2>Conteúdo 1</h2> Já no texto do H2, algo mais específico, ou seja, uma subseção do H1. Figura 12 - Headings Tags - Fonte: www.mestreseo.com.br Nas imagens do site foram feitas também alterações na forma com que cada imagem fosse colocada conteúdo dentro das imagens nas tags Title e Alt. O atributo “ALT” tem a sintaxe HTML: “<img src=”image.jpg” alt=”Descrição da Imagem” />” a tag ALT é o comando usado para identificar o Alternate Text, o texto alternativo que é exibido quando a imagem não é carregada. Já o atributo “Títle” serve para atribuir o título à imagem para o Google identificar do
  • 45. 43 que se trata a imagem e a sintaxe usada é seguinte: “<img src=”image.jpg” title=”Título da Imagem” />” Essas tags adicionadas nas imagens ajudam e muito no desempenho do SEO em sua página, pois agrega mais valor à palavra-chave que está sendo otimizada na página em questão. Foi usado no site o arquivo robots.txt que é usado pelo Google e outros buscadores como forma de apresentação do site para o buscador, nele você pode impedir páginas restritas ou com conteúdo duplicado de serem rastreadas pelos buscadores, fazendo uma espécie de bloqueio entre os spiders e o seu site, outra vantagem do arquivo robots.txt é indicar o caminho dos seus sitemaps. Abaixo na figura 13 pode se ver o robots.txt utilizado atualmente no Infomaníaco. Figura 13 - robots.txt – Fonte : Do autor Outra vantagem do robots.txt é que ele pode indicar o caminho específico do sitemap. Sitemap por sua vez tem um papel muito importante, pois indica para o Google e alguns buscadores a quantidade de páginas a ser indexadas e quais são elas, também como a data de publicação e a prioridade da página determinada referente ao conteúdo do site. O arquivo de sitemap é feito em XML e ajuda os motores a buscar e a identificar como é o site e deve seguir alguns padrões para facilitar a leitura dos buscadores nas páginas do seu site. Abaixo na figura 14 pode ver um exemplo de como deve ser o arquivo
  • 46. 44 sitemap.xml dentro do site. Figura 14 - sitemap.xml - Fonte: www.mestreseo.com.br Foi feito também um trabalho de Link Bulding, Ricotta (2010), disse que “Link Building é o processo de aquisição de links para um determinado website com a finalidade de aumentar a sua popularidade e relevância na Internet”. Portanto foi feito esse trabalho através de dois tipos de links: links internos e links externos, os internos visam linkar uma página do website a outra página dentro do próprio site, já o externo é fazer o link para outros sites, que no caso seria outros sites linkando para os websites do estudo. Para fazer os links internos, usamos um plug-in junto ao WP para exibir na página links relacionados ao mesmo conteúdo dentro do site, fazendo com que quando o Google visitar esta determinada página ele passa pelos links e chegue até as outras páginas que foram linkadas, dando mais autoridade naquele determinado assunto. Exemplo de link interno na figura 15. Os links externos têm um pouco mais de dificuldades, porém têm mais relevância para o Google, pois é quando recebe links de outros sites e para isso o importante é fazer um conteúdo original e atrativo a fim de que outros sites te linkam para mostrar o conteúdo, nos websites em questão, foram feitas parcerias de links em outros sites, onde os sites em questão linkavam um para o outro. Um exemplo de Link externo na figura 16.
  • 47. 45 Figura 15 - Links internos – Fonte: www.mestreseo.com.br Figura 16 - Links Externos - Fonte: www.mestreseo.com.br Na sintaxe HTML os links têm a seguintes características: “<a href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“, onde site de conteúdo é o texto âncora, ou seja, o que aparecerá para o usuário. Na sintaxe ainda pode ser introduzida alguns atributos como sendo um dos principais para o Google o nofollow. Ricotta (2010), diz que “nofollow” é um atributo HTML utilizado para instruir aos mecanismos de busca que um determinado link não deva constar no grafo de cálculo de rankeamento, ou seja, não passará relevância. O seu objetivo é diminuir o efeito de técnicas de spam na Internet, tal como comentários spam em blogs. Onde a sintaxe é usada como a seguir: “<a rel=“nofollow” href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“. E nos websites do estudo foi feito uma alteração nos links adicionando o atributo nofollow onde apontavam para sites externos afim de não passar link juice para outros sites, link juice que por sua vez significa a relevância de um site, então quando linkamos para outro site sem o atributo nofollow está sendo passando também um pouco da relevância do seu site para outro.
  • 48. 46 Foi visado também não somente um domínio fazer vários links para o site do estudo, e sim, vários domínios diferentes linkando, pois o Google entende que é melhor ter vários sites te linkando do que somente um, os links externos também são analisados pelo Google minuciosamente, pois vê diversas características dele para avaliar sua relevância até sua página como, por exemplo, o Google vê se o link tem o texto âncora de acordo com o site linkado, a autoridade do website que envia o link, relevância do contexto, se está com nofollow, a profundidade da página, quantidade de links da página e a posição (RICOTTA, 2010). Portanto nos sites do estudo foram feitos vários trabalhos de link Bulding como escrever conteúdos originais e com qualidade, a inserção da URL dos sites nos principais diretórios, cadastramos também os sites nas principais redes sociais, troca de links e parcerias, submissão de artigos em outros websites parceiros, interação em fóruns do mesmo assunto, tudo isso visando links apontados para os sites que estão sendo otimizados para o Google. Depois de várias inserções de técnicas de SEO, alterações no código HTML, no conteúdo, fatores externos trabalhados, os dois sites ficaram otimizados e preparados para o Google para então efetivar o estudo.
  • 49. 47 CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS 5.1. Site de Conteúdo Através da análise dos sites foram identificadas quais técnicas de SEO apropriadas para os sites e então foi feito a aplicação das mesmas, depois de um período os dois sites conseguiram ganhar seu espaço na web de uma forma com que se destaca em seu nicho, o Infomaníaco ao longo do tempo conseguiu a chegar a marca de 9.956.393 de visitas únicas, no relatório contido na figura 17 feito no Google Analytics pode-se ver com mais clareza. Figura 17 - Estatísticas de visitas do Infomaníaco - Fonte: Do autor
  • 50. 48 Esse gráfico acima foi gerado do período de 24/09/2008 até 10/11/2011 onde pode ser notado vários números significantes, o número de visitas únicas, ou seja, por IP foi de quase 10 milhões e que estas visitas únicas visualizaram cerca de 15.451.229 páginas, uma média de 1,55 páginas por visita. Na figura 18 abaixo pode ser vista a quantidade das visitas que vieram de mecanismos de pesquisa ou motor de busca. Figura 18 - Origens de tráfego - Fonte: Do autor Em todo esse período e com mais de nove milhões de visitas cerca de 8.026.368 de visitas, ou 80.58% que o Infomaníaco teve foi vinda de mecanismos de pesquisa e ramificando ainda mais, dentro desse número 78,42% veio do tráfego orgânico do Google, muito do distante de outros buscadores. Outro gráfico interessante é o de palavra-chave que mais recebeu visitas vindas do Google, nele pode se ver que o Infomaníaco recebeu cerca de 7.807.752 visitas que vieram do Google por meio de 929.757 palavras-chave, outro fator que foi encontrado no gráfico abaixo é que ainda fala que as visitas vieram por um meio que não gerou custos para o Infomaníaco, ou seja, o Google enviou 7.807.752 não para visitas, onde pode perceber a importância de SEO para o site de conteúdo.
  • 51. 49 Figura 19 - Visitas vindas do Google - Fonte: Do autor Além disso, pode ser mensurado de que país esses visitantes vieram, estado e até mesmo a cidade, nesse período o Infomaníaco recebeu visitas vindas em cerca de 186 países, se destacando o Brasil, Portugal, Estados Unidos, Japão e Angola. No Brasil, o Infomaníaco recebeu mais visitas vindas do sudeste conforme a figura abaixo: Figura 20 - Cidades Brasileiras - Fonte: Do autor
  • 52. 50 Por fim será mostrado um gráfico que ajuda mostrar o crescimento dentro de três anos do Infomaníaco, abaixo na figura 21 pode se ver no ano de 2008 que o site não tinha absolutamente nenhuma visita e que ao passar do tempo permaneceu em torno de menos de 5000 visitas, logo em setembro de 2008 quando foram aplicadas as primeiras técnicas de SEO, pode já começar a ver o crescimento chegando a triplicar em alguns meses depois, e a taxa de crescimento manteve a subir até mesmo no ano de 2010 aonde parou de crescer e se manteve. Na posição Y (vertical) é a quantidade de visitas únicas do site: Figura 21 - Crescimento do Infomaníaco – Fonte: Do Autor 5.2. Site de notícias de Goiatuba e região Já o site de notícias Goiatuba online em pouco tempo também teve números significativos, onde pode se destacar a quantidade de visitas vindo do Google ou até mesmo entrando diretamente no site.
  • 53. 51 Figura 22 - Visitas do Goiatuba online - Fonte: Do autor O gráfico 22 mostra as estatísticas de visita do Goiatuba online no período de 01/06/2011 até 10/11/2011, e nesse curto período de tempo, contabilizou-se cerca de 24.000 visitas únicas onde tais visitas acessaram 123.494 visualizações de páginas, uma média de mais de cinco páginas por visita e com o tempo médio de 06h23min por visita. Logo abaixo na figura 23 pode ser visto outro fator importante nos resultados obtidos, o relatório aponta que cerca das mais 24.000 visitas únicas vieram dos resultados de pesquisa do Google proveniente de um trabalho de SEO feito logo após o site ter sido construído.
  • 54. 52 Figura 23 - Origens de Tráfego – Fonte: Do autor Hoje em dia, as redes sociais também ajudam no trabalho de SEO, pode-se ver no gráfico que o Facebook enviou cerca de 1.912 visitas únicas tornando-se a terceira melhor fonte de tráfego do Goiatuba online, até mesmo na frente de outros motores de busca como o Bing e Ask, ganhando também de outras redes sociais como Orkut e Twitter. O Goiatuba online também teve um trabalho de SEO envolvendo a palavra-chave “Goiatuba”, portanto para aparecer nessa pesquisa teve de ter um trabalho mais intenso, pois os primeiros colocados do Google dessa palavra-chave quando pesquisado era o site da prefeitura de Goiatuba contendo o domínio “http://www.goiatuba.go.gov.br/”, ou seja, domínios com a extensão .gov.br tende a se ter mais autoridade em termos de SEO, pois o Google entende que seja um site do governo e também outro site com bastante notoriedade é o da Wikipédia falando sobre Goiatuba, que é um site bastante conhecido e relevante para o Google, por sua vez, o Goiatuba online aos poucos foi crescendo no rankeamento com esta palavra-chave. Quando começou a otimização, o Goiatuba online estava em 83º posição do índice do Google referente à busca da palavra “Goiatuba”, aos poucos foi subindo o rankeamento, primeiro para 30º posição, depois para 6º, até chegar ao primeiro lugar conforme nos mostra a figura 24 abaixo.
  • 55. 53 Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba" – Fonte: Do autor Enfim neste ultimo gráfico é mostrado o crescimento tanto nas visitas quanto nas visualizações de páginas que o Goiatuba online teve no período entre Maio e Novembro do ano de 2011, pode observar a tendência de crescimento logo após a inserção das técnicas. Na posição Y (vertical) é a quantidade de visitas e visualizações do site: Figura 25 - Crescimento do Goiatuba Online – Fonte: Do autor