INSTITUTO LUTERANO DE ENSINO SUPERIOR DE ITUMBIARA                CURSO DE SISTEMAS DE INFORMAÇÃO                  GUILHER...
GUILHERME ROSA SILVA ROCHA AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DOGOOGLE APLICADAS EM UM SITE DE CON...
Dados Internacionais de Catalogação na Publicação (CIP)             Rocha, Guilherme Rosa Silva             As Técnicas ut...
AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DOGOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIA...
Dedico este trabalho à minha família, amigos, meu orientador e aos meus professores.
Gostaria de agradecer a todos que me ajudaram direto ouindiretamente para a conclusão deste trabalho, a minha esposaJaquel...
“Para ter sucesso, é necessário amar de verdade o que se faz.Caso contrário, levando em conta apenas o lado racional, você...
RESUMOA Web nos últimos anos cresceu rapidamente, fazendo com que o número de páginasmultiplicasse. Para facilitar a encon...
ABSTRACTThe Web has grown rapidly in recent years, causing the number of pages multiplied. To makeit easier to find conten...
LISTA DE FIGURASFigura 1 - Modelos de Comunicações ..........................................................................
LISTA DE TABELASTabela 1 - Conceito Web 2.0 .................................................................................
10                                                               SUMÁRIORESUMO ..............................................
11CAPÍTULO VI - CONSIDERAÇÕES FINAIS .................................................................................... ...
12                                    INTRODUÇÃO       Segundo Saatchi (2010), hoje em dia, o mundo gira em torno da inter...
13técnicas utilizadas para obter as tais posições eram (e são até hoje) incluir links de referênciapara a página de outros...
142007).         Contudo esse estudo procura solucionar o seguinte problema: como melhorar tráfegode um site de conteúdo e...
15clareza entre o Google e o site, avisando quando se pode melhorar e no que está sendo feito deforma errada, é como se fo...
16                               CAPÍTULO I - A WEB       Como diz Castells (2003) a internet é “como se fosse um tecido d...
17usuários ligados na internet, F/Nazca (2011), além disso, a cada minuto é feito o upload 5demais de 48 horas de vídeo no...
18dois lados, portanto através dela pode-se conversar usar aplicativos como murais, redessociais, listas de discussão entr...
19       Muita coisa mudou com o passar dos anos, hoje a Web está cada vez maisparticipativa e aumentando cada vez mais o ...
20                                        Tabela 1 - Conceito Web 2.0                              Web 1.0                ...
21eficientes são os blogs, Facebook, Myspace, Twitter entre outras. Nesta onda de Web 2.0 asempresas estão cada vez mais i...
22no mundo cresceu junto como um aliado ao outro. Nos últimos anos, as pessoas estão ficandocada vez mais sem tempo para i...
23         Figura 2 - Site Craiglist - Fonte: http://brasilia.pt.craigslist.org/ - Acessado em 01/11/2011       Com o espí...
24                     CÁPITULO II - SITES DE BUSCA       Com a internet em crescimento, o número de páginas também cresce...
25       Conforme falado, os diretórios foram um grande ápice da época, não existiam osmotores buscas e o usuário se recor...
26ou, às vezes, em linguagem natural (CENDÓN, 2001).        De alguns anos para cá, existiram vários buscadores com difere...
27percorra todo seu site em busca de informações novas em um curto período de tempo, fazendocom que um conteúdo novo do se...
28                       Tabela 2 – Sites com maiores Pagerank de Agosto de 2011                        Links do    Título...
29       Na Tabela 3 pode-se notar que os principais sites e mais linkados são sites do governoou serviços da web com popu...
30  CÁPITULO III - SEO – SEARCH ENGINE OPTIMIZATION       Segundo Teixeira (2007), SEO uma técnica que faz a otimização de...
31rigor nos tratamentos dos dados, muitos sites que eram visualizados na página de resultadosda busca feita pelo usuário t...
32são feitas técnicas que podem se classificar como técnicas de OnPage e de OffPage, e ondeque se dá o trabalho de SEO e q...
333.2. Black Hat        Muitos donos de site ou até empresas que fazem serviços de SEO usam de práticasilegais aos olhos d...
34até mesmo uma subscrição por e-mail.
35                      CAPÍTULO IV - METODOLOGIA4.1. Métodos de Análise e Classificação da Pesquisa       Este trabalho u...
36       Conforme escrito, o PHP é de fácil compreensão, pois sempre quando usado édelimitado por tags, ou seja, marcações...
37ao seu plano, fora que poderá ter acesso ao root podendo personalizar o servidor de acordocom as suas necessidades, ou a...
38 Figura 6 - Modelo de Página principal do Google Analytics Fonte: Mxstudio - http://www.mxstudio.com.br/ -              ...
39ajudou o site que até então não passava de 1000 visitas diárias.                 Figura 7 - Infomaníaco em 24/09/2008 at...
40categorias para fazer a segmentação ao foco principal do site.4.4. Métodos       Começou-se então o trabalho de SEO OnPa...
41diversas formas de digitar a url.             Figura 11 – Canonical - Fonte: http://www.mestreseo.com.br/ Acessado em 08...
42conteúdo.       Outro fator importante na otimização OnPage que foi utilizado no site Infomaníacosão as denominadas as h...
43que se trata a imagem e a sintaxe usada é seguinte: “<img src=”image.jpg” title=”Título daImagem” />” Essas tags adicion...
44sitemap.xml dentro do site.                         Figura 14 - sitemap.xml - Fonte: www.mestreseo.com.br       Foi feit...
45                        Figura 15 - Links internos – Fonte: www.mestreseo.com.br                        Figura 16 - Link...
46         Foi visado também não somente um domínio fazer vários links para o site do estudo, esim, vários domínios difere...
47      CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS                      RESULTADOS5.1. Site de Conteúdo       Através da an...
48       Esse gráfico acima foi gerado do período de 24/09/2008 até 10/11/2011 onde pode sernotado vários números signific...
49                        Figura 19 - Visitas vindas do Google - Fonte: Do autor       Além disso, pode ser mensurado de q...
50       Por fim será mostrado um gráfico que ajuda mostrar o crescimento dentro de três anosdo Infomaníaco, abaixo na fig...
51                       Figura 22 - Visitas do Goiatuba online - Fonte: Do autor       O gráfico 22 mostra as estatística...
52                         Figura 23 - Origens de Tráfego – Fonte: Do autor       Hoje em dia, as redes sociais também aju...
53             Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba" – Fonte: Do autor       Enfim neste ultimo gráfi...
Monografia
Monografia
Monografia
Monografia
Monografia
Monografia
Monografia
Monografia
Próximos SlideShares
Carregando em…5
×

Monografia

2.878 visualizações

Publicada em

As Técnicas Utilizadas Em Seo E Seu Impacto No Rankeamento Do Google Aplicadas Em Um Site De Conteúdo E De Notícias De Goiatuba E Região

Publicada em: Tecnologia
0 comentários
4 gostaram
Estatísticas
Notas
  • Seja o primeiro a comentar

Sem downloads
Visualizações
Visualizações totais
2.878
No SlideShare
0
A partir de incorporações
0
Número de incorporações
5
Ações
Compartilhamentos
0
Downloads
0
Comentários
0
Gostaram
4
Incorporações 0
Nenhuma incorporação

Nenhuma nota no slide

Monografia

  1. 1. INSTITUTO LUTERANO DE ENSINO SUPERIOR DE ITUMBIARA CURSO DE SISTEMAS DE INFORMAÇÃO GUILHERME ROSA SILVA ROCHA AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DOGOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO Itumbiara, dezembro de 2011.
  2. 2. GUILHERME ROSA SILVA ROCHA AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DOGOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO Monografia apresentada por Guilherme Rosa Silva Rocha ao curso de Sistemas de Informação do Instituto Luterano de Ensino Superior de Itumbiara, como um dos requisitos para obtenção do grau de Bacharel em Sistemas de Informação, orientado pelo Professor Especialista Daniel Humberto Carrara. Itumbiara, dezembro de 2011.
  3. 3. Dados Internacionais de Catalogação na Publicação (CIP) Rocha, Guilherme Rosa Silva As Técnicas utilizadas em SEO e seu impacto no rankeamento do Google aplicadas em um site de Goiatuba e região / Guilherme Rosa Silva Rocha – Itumbiara: do autor, 2011.61 p. Monografia – TCC – Curso de Sistemas de Informações 1. Otimização de sites. 2. Sistemas de Informação. I. Rocha, Guilherme Silva Rocha. CDU-004.738.52Catalogação na FonteRosa Helena de Paula Rodrigues – CRB1 2022
  4. 4. AS TÉCNICAS UTILIZADAS EM SEO E SEU IMPACTO NO RANKEAMENTO DOGOOGLE APLICADAS EM UM SITE DE CONTEÚDO E DE NOTÍCIAS DE GOIATUBA E REGIÃO GUILHERME ROSA SILVA ROCHA Monografia defendida e aprovada, em 15 de dezembro de 2011, pela banca examinadora:Professor Especialista Daniel Humberto Carrara de AzevedoOrientador e Professor do Curso de Sistemas de InformaçãoProfessor Roger Amandio LuzProfessor e Coordenador do Curso de Sistemas de InformaçãoProfessor Pedro Moises de SousaProfessor do Curso de Sistemas de Informação
  5. 5. Dedico este trabalho à minha família, amigos, meu orientador e aos meus professores.
  6. 6. Gostaria de agradecer a todos que me ajudaram direto ouindiretamente para a conclusão deste trabalho, a minha esposaJaqueline e a minha filha Maria Eduarda, juntamente com meusamigos, Bruno, Vinicius e Ueder.
  7. 7. “Para ter sucesso, é necessário amar de verdade o que se faz.Caso contrário, levando em conta apenas o lado racional, vocêsimplesmente desiste. É o que acontece com a maioria daspessoas”. Steve Jobs
  8. 8. RESUMOA Web nos últimos anos cresceu rapidamente, fazendo com que o número de páginasmultiplicasse. Para facilitar a encontrar o conteúdo que o usuário necessita, foram criados oschamados motores de buscas que ajudam a identificar o conteúdo que o usuário está aprocura, através das palavras chaves digitada no campo de pesquisa. Portanto o buscador temo papel de identificar qual é a página mais relevante para o usuário final, para isso foielaborado vários algoritmos a fim de estabelecer o ranking das páginas indexadas pelosmotores de buscas, fazendo com que haja uma concorrência entre uma página e outra, e paraos webmasters conseguir cada vez mais visita eles empenham no trabalho de SEO, o presenteestudo visa potencializar um site de conteúdo e um de notícias de Goiatuba e região parareceber mais visitas das pesquisas realizadas no buscador Google através de inserções detécnicas de SEO em ambos. Tendo como justificativa o constante crescimento da internet edescobrir se as técnicas de SEO são viáveis para alavancar visitas de algum determinado site,com isso foi analisado o site e aplicado às técnicas de SEO apropriadas para o site. Foi tidocomo resultado um número considerável, depois das inclusões de técnicas de SEO, o site deconteúdo em um pouco mais de três anos teve resultados bastante satisfatórios em termos devisitas vindas do Google através da otimização do site com as técnicas de SEO, o site denotícias de Goiatuba e região em pouco tempo também teve bons resultados considerando serum site com um público bem especifico. Tendo como conclusão que um site que se aplicadoàs técnicas de SEO adequadas consegue sim aumentar suas visitas vindo dos motores debusca.Palavras-chave: SEO. Motores de busca. Web.
  9. 9. ABSTRACTThe Web has grown rapidly in recent years, causing the number of pages multiplied. To makeit easier to find content that the user needs have been created so-called search engines thathelp identify content that the user is looking through the keywords typed into the search field.So the seekers role is to identify what the page more relevant for the end user, for it wasdeveloped several algorithms to establish the ranking of pages indexed by search engines, sothat there is a competition between a page and another, and webmasters can visit them moreengaged in the work of SEO, this study aims to enhance a content site and a news Goiatubaand region to receive more visits from research carried out by the Google search engineinserts techniques SEO in both. Having to justify the continued growth of the Internet andfind out if the SEO techniques are feasible to leverage a particular site visits, it was analyzedwith the site and applied to SEO techniques appropriate for the site. Was taken as a result aconsiderable number, after the inclusion of SEO techniques, the site content in a little overthree years had satisfactory results in terms of visitors from Google by optimizing the sitewith SEO techniques, the Goiatuba news site and region in a short time also had good resultsconsidering that a site with a very specific audience. With the conclusion that a site that isapplied to the appropriate SEO techniques but can increase your visits coming from searchengines.Keywords: SEO. Search Engines. Web
  10. 10. LISTA DE FIGURASFigura 1 - Modelos de Comunicações ....................................................................................................17Figura 2 - Site Craiglist ..........................................................................................................................23Figura 3 - Diretório DMOZ....................................................................................................................25Figura 4 - Evolução dos Search engines ................................................................................................26Figura 5 – Pagerank - Fonte: Mestre SEO .............................................................................................27Figura 6 - Modelo de Página principal do Google Analytics .................................................................38Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 .........................................................................39Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 ...................................................................39Figura 9 - Titulo do site Infomaníaco.....................................................................................................40Figura 10 - Técnicas de SEO..................................................................................................................40Figura 11 – Canonical ............................................................................................................................41Figura 12 - Headings Tags .....................................................................................................................42Figura 13 - robots.txt ..............................................................................................................................43Figura 14 - sitemap.xml .........................................................................................................................44Figura 15 - Links internos ......................................................................................................................45Figura 16 - Links Externos .....................................................................................................................45Figura 17 - Estatísticas de visitas do Infomaníaco .................................................................................47Figura 18 - Origens de tráfego ...............................................................................................................48Figura 19 - Visitas vindas do Google .....................................................................................................49Figura 20 - Cidades Brasileiras ..............................................................................................................49Figura 21 - Crescimento do Infomaníaco ...............................................................................................50Figura 22 - Visitas do Goiatuba online ..................................................................................................51Figura 23 - Origens de Tráfego ..............................................................................................................52Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba"..............................................................53Figura 25 - Crescimento do Goiatuba Online ........................................................................................53
  11. 11. LISTA DE TABELASTabela 1 - Conceito Web 2.0 ................................................................................................................. 20Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 ................................................................. 28Tabela 3 - Urls Amigáveis .................................................................................................................... 41
  12. 12. 10 SUMÁRIORESUMO ................................................................................................................................................ 6ABSTRACT ............................................................................................................................................ 7LISTA DE FIGURAS ............................................................................................................................. 8LISTA DE TABELAS ............................................................................................................................ 9SUMÁRIO ............................................................................................................................................ 10INTRODUÇÃO .................................................................................................................................... 12CAPÍTULO I - A WEB ......................................................................................................................... 16 1.1. Web 2.0 ...................................................................................................................................... 19 1.2. Novos serviços na Web .............................................................................................................. 21CÁPITULO II - Sites de Busca ............................................................................................................. 24 2.1. Diretórios.................................................................................................................................... 24 2.2. Google ........................................................................................................................................ 26CÁPITULO III - SEO – Search Engine Optimization .......................................................................... 30 3.1. Técnicas OnPage e Offpage ....................................................................................................... 31 3.2. Black Hat .................................................................................................................................... 33CAPÍTULO IV - METODOLOGIA ..................................................................................................... 35 4.1. Métodos de Análise e Classificação da Pesquisa ....................................................................... 35 4.2. Tecnologias de Apoio................................................................................................................. 35 4.3. Site antes da aplicação das técnicas de SEO .............................................................................. 38 4.4. Métodos ...................................................................................................................................... 40CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS ..................................... 47 5.1. Site de Conteúdo ........................................................................................................................ 47 5.2. Site de notícias de Goiatuba e região ......................................................................................... 50 5.3. Discussão dos Resultados........................................................................................................... 54
  13. 13. 11CAPÍTULO VI - CONSIDERAÇÕES FINAIS .................................................................................... 56REFERÊNCIAS BIBLIOGRÁFICAS .................................................................................................. 58
  14. 14. 12 INTRODUÇÃO Segundo Saatchi (2010), hoje em dia, o mundo gira em torno da internet, pois cada diaque passa a Web está ficando cada vez mais cheia de recursos, serviços e entretenimento paraos usuários de computador, através da mesma pode se vender produtos, entrar em um chat,conseguir um emprego, comprar carros, enfim pode se fazer quase tudo hoje em dia através dainternet, mas uma pequena loja virtual ou determinado serviço que começa na internet, temque procurar alguma forma para se destacar, e hoje em dia, existem algumas formas dedivulgação como o boca a boca, publicidade online, publicidade off-line entre outros. Portanto a maioria dos donos de sites recorre ao tráfego vindo de motores de buscaatravés da busca orgânica, pois, contudo os motores de busca contêm bilhões de páginasindexadas e para destacar entre elas pode se fazer a inserção técnicas de SEO para que o sitese torne um dos primeiros nos resultados de busca dos motores de busca a fim de melhorar otráfego do site: O significado de SEO é Search Engine Optimization. Em português, é conhecido como Otimização de Sites, MOB e Otimização para Buscas. O SEO nada mais é do que a otimização de uma página (ou até do site inteiro) para ser mais bem compreendido pelas ferramentas de busca. A consequência da utilização das técnicas de SEO é o melhor posicionamento de um site em uma página de resultados de uma busca (TEIXEIRA, 2007). Então de acordo com o texto acima, pode se dizer que SEO é considerado como aotimização de um determinado site que contém uma determinada palavra-chave decontextualização para o motor de busca a fim de se tornar um dos primeiros resultadosnaquela palavra-chave (TEIXEIRA, 2007). As primeiras técnicas de SEO surgiram logo após o lançamento dos primeirosbuscadores na Internet. Pessoas descobriram que era possível obter, para seus websites,posições nas primeiras páginas dos buscadores quando internautas realizavam buscas porinformações. Para tanto, era necessário fazer alterações nos códigos HTML do site. Outras
  15. 15. 13técnicas utilizadas para obter as tais posições eram (e são até hoje) incluir links de referênciapara a página de outros sites e possuir mais conteúdo em cada página. Se a intenção do proprietário é trazer cada vez mais tráfego com qualidade, investir emSEO é uma ótima oportunidade, pois pode se conseguir um alto nível de tráfego com uma boaconversão de resultados do que anunciar em uma revista onde poucos usuários irão converterem uma venda ou cadastro seja qual for a métrica de conversão do determinado em questão(RICOTTA, 2008). Hoje em dia, é possível citar vários motores de busca, portanto o seguinte estudo seráapenas do site Google1 em questão, pois o mesmo segundo a pesquisa feita pela Predicta, umaempresa especializada em serviços de inteligência em marketing online aponta que 88,9% dasbuscas no Brasil são realizadas no site de Pesquisa Google. O Google tem grande participação nas buscas, pois apresentam sempre resultadosadequados aos seus usuários devido ao sistema de ranking e de contextualização em cadapágina indexada. Para uma página ter um bom rankeamento existem vários fatores que sãoabordados pelo Google a fim de trazer o melhor resultado para o usuário, para isso o conteúdodeve ser bastante relevante sobre o assunto. Segundo Ricotta: Pagerank (PR) é a forma pela qual o Google procura representar a importância que um site, ou página, tem para ele (Google) frente à Internet. Ele foi desenvolvido em 1995 na Universidade de Stanford por Larry Page, daí vem o nome “Page” Rank. Basicamente o Pagerank é uma avaliação da relevância da página. Essa relevância é divulgada em uma escala de zero a 10, mas sabe-se que o verdadeiro valor varia dentro de uma escala logarítmica. Para calcular o valor do Pagerank, o Google considera basicamente a quantidade de links que a página recebe. Funciona de modo semelhante a uma eleição, onde cada link é como um voto endossando a qualidade da página que recebe o link. Mas não basta ter uma grande quantidade de links para ter um PR alto, a relação semântica entre as páginas é importante, bem como a própria relevância da página que faz o link (RICOTTA, 2007). Através da classificação de 0 a 10 através do algoritmo do Page Rank, O Google ficouconhecido por todo o mundo, pois na época realmente era o que tinha de mais relevante paradenominar a posição de cada site na pesquisa, segundo o Google hoje em dia não é somenteesse fator é colocado em pauta também a velocidade do site, links direcionados para o site,estrutura HTML, popularidade do site, relevância com a pesquisa entre outros (RICOTTA,1 Além de ser uma empresa com inúmeros serviços, o motor de busca é o serviço mais popular da companhia e osite mais acessado do mundo. De acordo com pesquisa de mercado publicado pela comScore, em novembro de2009, o Google era o motor de busca dominante no mercado dos Estados Unidos, com uma quota de mercado de65,6%. O Google indexa trilhões de páginas web, de modo que os usuários podem pesquisar as informações quequiser, através do uso de palavras-chave e operadores (WIKIPÉDIA, 2011).
  16. 16. 142007). Contudo esse estudo procura solucionar o seguinte problema: como melhorar tráfegode um site de conteúdo e um site de notícias de Goiatuba e região aplicando técnicas de SEO? Esse estudo tem como objetivo geral melhorar a quantidade de visitas em um site deconteúdo e um site de notícias de Goiatuba e região através da implementação de técnicas deSEO para melhorar o posicionamento do site nas pesquisas do Google. Tendo como osobjetivos específicos fazer uma análise do site para que seja encontrado quais serão astécnicas apropriadas para o site de conteúdo e um site de notícias de Goiatuba e região,implementar tais técnicas de SEO para melhorar o tráfego de visitas, fazer o acompanhamentodos sites juntamente com o Google para verificar se o presente estudo está sendo bemdesenvolvido e por fim uma análise nas estatísticas de tráfego dos sites para enfim verificar seo estudo teve sucesso. A relevância desta monografia se justifica ao ponto que a Web está em plenocrescimento e que a concorrência em diversos setores aumenta como disse Saatchi (2010), equem conseguir se beneficiar nas primeiras posições na SERP2 dos buscadores com certezaterá mais conversão seja qual for e mais tráfego com qualidade para o determinado site emquestão. Foi feito análises em diversos trabalhos relacionados tendo como os principais oestudo de como as search engines funcionam de Fábio Ricotta onde fala sobe como é feito osalgoritmos de rankeamento dos buscadores, outro trabalho foi sobre as ferramentas de buscasna web, onde conta de como surgiu os primeiro diretórios e como foi a chegada dos primeirosbuscadores de Beatriz Cendón. Para monitorar as palavras-chave, páginas indexadas, velocidade do site, linksapontados para o site, estatísticas de rastreamento do Googlebot3, foi usado uma ferramentafornecida pelo Google para webmasters, que se chama Google Webmasters Tools4 quefornece relatórios detalhados sobre a visibilidade das páginas no Google, trazendo mais2 Ele é um termo técnico para representar as páginas que exibem os de resultados em uma busca. São chamadasde Search Engine Results Page ou em português, página de resultados de uma busca. As SERPS variamconforme as palavras-chave e são compostas normalmente por resultados naturais que aparecem do ladoesquerdo da busca. Os padrões são de cada SERP são no máximo dez resultados por páginas (MARKETING DEBUSCA, 2007).3 Googlebot é o robô de rastreamento da web do Google (também chamado de "indexador"). O rastreamento é oprocesso pelo qual o Googlebot descobre páginas novas e atualizadas para serem incluídas no índice do Google(GOOGLE, 2011).4 As Ferramentas do Google para Webmasters oferecem um jeito fácil e gratuito de tornar seu site mais amigávelao Google. Ele mostra para o usuário a forma que o Google o vê, também as quais das páginas estão inclusas noíndice do Google, os erros encontrados no rastreamento no site, ajuda a encontrar os termos de pesquisa quelistam seu site nos resultados e muito mais (GOOGLE, 2011).
  17. 17. 15clareza entre o Google e o site, avisando quando se pode melhorar e no que está sendo feito deforma errada, é como se fosse um canal de comunicação. Para gerir relatórios de tráfego, que trata-se de quais palavras-chave que mais trouxe ousuário até o site, perfil do usuário entre outros será usado à ferramenta Google Analytics. Segundo o Google, (2005) o Google Analytics oferece uma “solução de análise daweb de cunho empresarial que fornece uma ótima visibilidade do tráfego e da eficiência domarketing do seu website”, e também ajuda nas iniciativas de marketing para se preparar paraas conversões, e como os usuários chegaram ao site, quanto tempo ficou ajudando a melhorara experiência do visitante. Portanto o Google Analytics é a ferramenta mais indicada para poder executar otrabalho, pois abrange várias ferramentas e vários outros relatórios extras que ajudam noestudo que está sendo feito. Foi usado também técnicas de SEO OnPage que se dá a inserções no HTML dos sites,mudança na forma do conteúdo, estruturação, linkagem interna entre outros, e também comofator principal das técnicas de OffPage o trabalho de links externos em outros sites,introdução de URL nos diretórios entre outros. O presente estudo pode ser qualificado como pesquisa qualitativa e quantitativa, poisirá trabalhar com números reais comparando o antes e o depois do tráfego, a pesquisaquantitativa devido ao fato de que serão exibidos os números reais, já a qualitativa é aondeserá visto o valor dos resultados obtidos a fim de estabelecer se o presente estudo foi de fatosatisfatório. Os resultados obtidos com o trabalho de SEO foram satisfatórios, devido ao fato queambos os sites começaram sem ter nenhuma visita e com a aplicação das técnicas ocrescimento foi considerável. No site de conteúdo que foi usado no estudo o número totalchegou a quase dez milhões de visitas únicas, onde o público alvo era de todo o Brasil deforma não muito ramificada como o site de notícias que visava mais a região de Goiatuba eregião onde o público era bem definido, pois se tratava de um público menor, ainda simtiveram ótimos resultados com o trabalho de SEO trazendo novos visitantes para ambos ossites.
  18. 18. 16 CAPÍTULO I - A WEB Como diz Castells (2003) a internet é “como se fosse um tecido de nossas vidas”, elecompara a tecnologia da informação hoje como sendo a eletricidade na era industrial, poispode-se dizer que a internet é equiparada a uma rede elétrica ligada ao motor elétrico, por suacapacidade de espalhar a informação por todo o mundo. A internet é um meio de comunicação que permite, pela primeira vez, a comunicação de muitos com muitos, num momento escolhido, em escala global. Assim como a difusão da máquina impressora no Ocidente criou o que MacLuhan chamou de a “Galáxia de Gutenberg”, ingressamos agora num novo mundo de comunicação: a Galáxia da internet. O uso da internet como sistema de comunicação e forma de organização explodiu nos últimos anos do segundo milênio. No final de 1995, o primeiro ano de uso disseminado da World Wide web, havia cerca de 16 milhões de usuário de redes de comunicação por computador no mundo. No início de 2001, eles eram mais de 400 milhões / previsões confiáveis apontam que haverá cerca de um bilhão de usuários em 2005, e é possível que estejamos nos aproximando da marca dos dois bilhões por volta de 2010, mesmo levando em conta uma desaceleração da difusão da internet quando ela penetrar no mundo da pobreza e do atraso tecnológico (CASTELLS, 2003 p. 08). Complementando o que Castells (2003) disse, a internet vem crescendo rapidamente,de uma forma jamais vista e vem sendo disseminada no mundo todo. A comunicação pelaprimeira vez teve seu auge com a internet, pois com ela poderia ser rapidamente exposta àpopulação, isso facilita e ajuda as pessoas que talvez nunca saberiam de notícias tãorapidamente como é propagado na web. O mesmo autor também teve sua participação emprever o futuro da internet, como no texto diz, ele estimou que no ano de 2010 tivesse cercade dois bilhões de usuários conectados na rede espalhando informações entre si. Além de ser uma estimativa alta, Castells (2003) não errou muito, pois em 2011 omundo conta com mais de 500 mil pessoas que entram pela primeira vez por dia na internetlevando em consideração este número, em 2012 pode chegar a estimativa de dois bilhões de
  19. 19. 17usuários ligados na internet, F/Nazca (2011), além disso, a cada minuto é feito o upload 5demais de 48 horas de vídeo no Youtube afirma Aguiari (2011) e a cada segundo é criado umblog na web, cerca de 70% das pessoas também consideram a internet indispensável em seusafazeres do dia a dia, Reuters (2009). Retomando F/Nasca (2011) o Brasil contém cerca de 81,3 milhões de internautas commais de 12 anos, dentre eles tem como acesso uma maioria a lan house com cerca de 30%seguido da residência com 27% e também pode se destacar que o Brasil é o quinto país commaior número de conexões com a internet. Figura 1 - Modelos de Comunicações - Fonte: SPYER, 2007 Pag. 21 Uma comparação feita por Spyer (2007) pode descrever bem como é o universo dainternet comparado a outros meios de comunicação, olhando para a figura 1, pode-se ver trêsquadrados caracterizando três meios de comunicação, sendo o de número 1 a informaçãosendo propagada de uma pessoa para outra por meio do telefone, o quadrado de número doisseria a televisão ou outros meio de difusão, que alcança milhares de pessoas, porém atransmissão de dados é de apenas uma via, já o terceiro seria a internet, pois seria uma via de5 Upload é o contrário de download, ou seja, é o ato de enviar um arquivo para a Internet. Quando você envia umarquivo para um site, seja música, vídeo, texto, etc., está na verdade fazendo um upload. Ao abrir uma página,mesmo sem perceber, estamos fazendo download e upload quase simultaneamente. Como? Ao acessar um site, otexto e imagens começam a ser carregados para serem exibidos, ou seja, é o download do conteúdo. Quando apágina termina de carregar, um aviso é enviado ao servidor informando que tudo foi recebido corretamente,portanto é o upload de informações (MARTINS, 2008).
  20. 20. 18dois lados, portanto através dela pode-se conversar usar aplicativos como murais, redessociais, listas de discussão entre outros, seria muito mais envolvente e a informação melhordistribuída. Pode-se dizer que a internet tem um meio de compartilhamento melhor que mídiasconvencionais devido à interação do usuário e o poder de compartilhamento que por esta vezganha mais espaço em redes sociais. Em 2007, quase 1/3 dos usuários de internet eram da língua inglesa e o restante tinhacomo segunda língua o inglês, portanto na época toda experiência inovadora se concentravaentre os Estados Unidos e Inglaterra, desde então a web se concentra na língua inglesa(SPYER, 2007). Com a internet popularizando ela se tornou um dos meios mais eficientes para oacesso à informação de vários assuntos como diz abaixo na citação. A Internet hoje é sem dúvida o meio mais eficiente de se ter acesso à informação, bem como prover os mais variados assuntos em menor tempo e maior abrangência, com a popularização do computador e o fácil acesso aos meios de comunicação, possibilitaram a expansão da internet bem como todos os serviços das mais variadas espécies e finalidades. Como exemplo pode-se citar cursos de educação à distância e compras online. Com o rápido crescimento do número de usuários na internet e a facilidade de divulgar qualquer tipo de informação, cresceu também o volume de dados fraudulentos colocando em dúvida a sua confiabilidade (KIRCHNER, 2009). Como disse Kirchner (2009) a internet é bastante eficiente ao acesso a todo e qualquertipo de informação mesmo com toda esta facilidade ainda é preciso melhorar muito a inclusãodigital, porém melhorou muito, pois nos últimos anos teve um crescimento muito rápido emnúmeros de usuários com computador ligado a internet, portanto há de se salientar que devidoa inúmeras informações vindas da internet, ainda deve se ter uma precaução com algumasinformações que podem ser enganosas e tomar mais cuidado ainda quando inserir algunsdados pessoais em determinados sites, pois o roubo de dados está cada vez mais constante. Kirchner (2009) complementa que a internet ajuda muito no termo de aprendizado,pois com o investimento das empresas de telefonia veio também velocidades maiores deinternet, beneficiando pessoas que fazem cursos a distância ser mais intuitivos, participativosatravés de conferências ao vivo com os professores direto de sua casa. A Oracle Corporation,por exemplo, oferece cursos com aulas totalmente interativas com os alunos através devideoconferência, audioconferência e programas de chat que por sua vez é usado para pessoasconversarem entre si.
  21. 21. 19 Muita coisa mudou com o passar dos anos, hoje a Web está cada vez maisparticipativa e aumentando cada vez mais o conteúdo inserido nela conforme citação: Com os avanços tecnológicos recentes, houve uma potencialização da participação dos usuários no que diz respeito à criação, compartilhamento e difusão de arquivos na Internet. Cada vez mais os sites passam a se fundamentar em dados recolhidos e postados (disponibilizados online) pelos próprios internautas. Assim, até mesmo as plataformas e interfaces foram se transformando: alguns softwares tiveram seus códigos-fonte abertos, o conteúdo passou a ser ouvido e visto no próprio site, o design e o funcionamento se tornaram passíveis de modificações por parte dos usuários, entre outras mudanças em curso (BRESSAN, 2007). Com base nessas informações, é notável que a interação do usuário com os sites foramincentivadas e se torna mais como uma tendência na web hoje, esse fato pode ser chamado deWeb 2.0, pois muda o conceito da internet como de antigamente, hoje a participação dousuário dos sites é quase que necessário, pois é chamariz para que o leitor da página fiquemais apegado ao produto se for o caso, ou outros assuntos como fóruns de jogos, vídeos entreoutros. Outro modo que os internautas têm como de interação do usuário é a forma com queele tem de modificar o próprio design em determinados sites, fazendo com que ele deixe deforma com que fique mais agradável possível.1.1. Web 2.0 Segundo Bressam, (2007) “Web 2.0 se destaca na geração de serviços e aplicativos darede e a recursos, tecnologias e conceitos que permitem um maior grau de interatividade ecolaboração na utilização da internet”, portanto pode-se perceber que hoje em dia há diversossites e termos que mudaram para essa nova tendência. Abaixo na tabela nº1 são listadosalguns sites e definições que ao passar do tempo foram se adequando a este novo modelo denegócio na internet:
  22. 22. 20 Tabela 1 - Conceito Web 2.0 Web 1.0 Web 2.0 DoubleClick Google AdSense Ofoto Flickr Akamai BitTorrent mp3.com Napster Britannica Online Wikipedia personal websites blogging evite upcoming.org and EVDB domain name speculation search engine optimization page views cost per click screen scraping web services publishing participation content management systems wikis directories (taxonomy) tagging ("folksonomy") stickiness syndication Fonte: http://radar.oreilly.com - O`Reilly, 2005 Finalizando o conceito de Web 2.0 O‟Reilly define que: Web 2.0 é a rede como plataforma, abarcando todos os dispositivos conectados. As aplicações Web 2.0 são aquelas que produzem a maioria das vantagens intrínsecas de tal plataforma: distribuem o software como um serviço de atualização contínuo que se torna melhor quanto mais pessoas o utilizam, consomem e transformam os dados de múltiplas fontes - inclusive de usuários individuais - enquanto fornecem seus próprios dados e serviços, de maneira a permitir modificações por outros usuários, criando efeitos de rede através de uma „arquitetura participativa‟ e superando a metáfora de página da Web 1.0 para proporcionar ricas experiências aos usuários‟ (REILLY, 2005). Com essa arquitetura participativa, modificações por parte do usuário, facilidade noaprendizado a web 2.0 veio para melhorar e ajudar o usuário final a fim de proporcionar novasexperiências agradáveis. Hoje em dia, um fator muito influente são as redes sociais virtuais, e empresas estãocada vez mais aderindo a elas como forma de marketing comunitário, que se define entre aparticipação do usuário com a marca ou produto atribuído, as principais formas e mais
  23. 23. 21eficientes são os blogs, Facebook, Myspace, Twitter entre outras. Nesta onda de Web 2.0 asempresas estão cada vez mais investindo em projetos voltados para as redes sociais, fazendode uma forma que pessoas se interessem pelos seus produtos a fim de trocar ideias em suaspáginas dentro da rede e compartilhando cada vez mais conteúdos atrativos para elas (HUNT,2010). Continuando, Hunt (2010) escreveu que para as empresas conseguirem um lugar nomundo da Web 2.0, elas precisam se tonar um capitalista social que seria uma empresa que éparticipativa com o seu público nas redes sociais, e isso tudo seria para tentar conseguir maisconfiança entre seus seguidores, e destaca também que para ter sucesso como Bill Gates,precisa ter iniciativa e melhorar cada vez mais a interatividade e transparência com o seupúblico alvo, além disso, Hunt (2010) ainda cita que “só existem realmente três maneiras deconstruir um negócio ou fazer dinheiro on-line: pornografia, sorte e Whuffie”. Whuffie foi criado para estipular uma métrica entre perfis de usuários para seestabelecer um nível de reputação ou influência como diz abaixo: O Whuffie, portanto, é a culminação da sua reputação, a influência, o capital de conexão, o seu atual e potencial acesso a ideias, talentos e recursos, o acúmulo de favores e realizações. Pequenas empresas não lucrativas, músicos, palestrantes e até autores estão usando as redes sociais para criar o Whuffie e aumentar seus negócios (HUNT, 2010). Portanto o Whuffie seria sua reputação online, medida com base no que o usuário fazna página de sua rede social, é medido pelas suas ideias e pelo seu favoritismo entre seusamigos, se você ajuda ou não alguém com favores ou realizações, muitas pessoas usam estesistema de reputação para estabelecer quem mais ajuda em determinado blog ou fórum paraenfim ser reconhecido pela sua participação.1.2. Novos serviços na Web Outro fator que a Web beneficiou foi a comodidade na hora de fazer compras. Ferreira(2011) disse que quando a internet se popularizou juntamente com o e-commerce6 no Brasil e6 Campano (2009. p.5) define comércio eletrônico ou e-commerce como uma forma de se realizar negócios entreempresa e consumidor (B2C) e entre empresas (B2B), usando a internet como plataforma de troca deinformações, encomenda e realização de transações financeiras. Já para Laudon (2007), E-Commerce são astransações comerciais realizadas digitalmente entre organizações e indivíduos ou entre duas ou maisorganizações.
  24. 24. 22no mundo cresceu junto como um aliado ao outro. Nos últimos anos, as pessoas estão ficandocada vez mais sem tempo para ir a lojas para comprar, com isso as lojas virtuais sepropagaram e hoje pode se contar com diversas lojas, inclusive leilões de mercadorias emsites especializados. O comércio eletrônico surgiu em 1995, quando o site Netscape.com, utilizou a internet como um novo tipo de mídia para publicidade e efetuar vendas. Como toda inovação comercial, o comércio eletrônico no ano de 2001 começou a despencar, com isso várias empresas faliram, entretanto empresas como Amazon.com, eBay e Google, entre outras, tiveram recorde em lucratividade. Segundo dados do e-bit, no mesmo ano o setor já faturava R$ 0,5 bilhão. Nos Estados Unidos entre 2004 e 2005 houve um aumento de 170 milhões para 175 milhões de pessoas acessando a internet. Em 2005 as venda do comércio eletrônico voltaram a crescer, tendo aumento de mais de 25%. Nessa mesma época foi o início da popularização da internet no Brasil, época que as redes sociais como o Orkut e o Messenger chegavam ao país, iniciando um ciclo que dura até hoje, onde pessoas utilizam menos serviços físicos, como ir ao banco pagar contas, comprar em lojas e utilizar mais os serviços da internet. Em 2007, no Brasil, o setor já faturava R$ 6,3 bilhões, um aumento de mais de 40%, com relação ao ano de 2006, informações foram divulgadas pelo estudo exclusivo da 17ª edição do Relatório "WebShoppers" realizado pela e-bit (FERREIRA, 2011). Portanto o comércio eletrônico teve um grande avanço de 2004 para cá, fazendo comque todos abrissem o olho para a internet, pois ali se via um grande potencial, algunscomércios locais chegaram a falir devido à alta procura por produtos na web, que por sua vezera uma novidade e que todos gostariam de estrear. Juntamente com o comércio eletrônicocrescendo aqui no Brasil estava sendo popularizada a internet em si, principalmente através deredes sociais, como o Orkut e o Messenger que chegavam ao país naquela época. E isso fezcom que muitas pessoas deixassem de fazer o que fazia em lojas ou bancos para poder fazeronline, pois era mais rápido e de fácil acesso. Spyer, (2007) notou que o site Craiglist seria um site inovador, pois ele dá maisatenção ao usuário do que propriamente dito ganhar dinheiro e com isso conseguiu atrair maisde 10 milhões de visitantes por mês. O site Craiglist, nada mais é que um site de classificadosgratuitos para pessoas que querem anunciar ou procurar empregos, moradias, serviços, vendasde produtos usados, além de ter fóruns para se discutir sobre diversos assuntos.
  25. 25. 23 Figura 2 - Site Craiglist - Fonte: http://brasilia.pt.craigslist.org/ - Acessado em 01/11/2011 Com o espírito de tentar ajudar ao usuário sem fins lucrativos, apesar de que no finaldas contas ainda eram lucrativos, surgiram na web diversos sites nos Estados Unidos e emoutros países classificados que geram este, beneficiam para o usuário o poder de anunciar eprocurar por algo sem custo algum. Depois dos classificados, começaram a surgir sites comoutras finalidades, porém com a mesma ideologia que era de não cobrar por serviços, a partirdaí a web começou a se tornar uma grande fonte de sites prestadores de serviços gratuitos,como no exemplo dos classificados e são difíceis jornais locais que cobram por anúncios,brigarem por espaço, pois na internet existem inúmeros sites de classificados gratuitos(SPYER, 2007). Portanto pode se perceber que a Web no Brasil e no mundo está em plena mudança esempre visando o foco no usuário, o crescimento também é algo considerável, pois bastarampoucos anos para a internet se popularizar e juntamente os negócios online tornaram-se umaótima alternativa para empresas pequenas e de grande porte.
  26. 26. 24 CÁPITULO II - SITES DE BUSCA Com a internet em crescimento, o número de páginas também cresceu e muito, desdeentão para acessar algum endereço o usuário precisava saber o nome da página para encontrar,ao passar dos anos foram criados os Sites de buscas que visam entregar a página com omelhor conteúdo condizente à busca realizada pelo usuário.2.1. Diretórios Os diretórios foram os primeiros da internet a organizar as páginas, essa solução foiintroduzida quando os números de páginas na internet ainda eram considerados pequenos e aforma com que trabalhavam não era automática, fazendo com que demorassem a cadarequisição das páginas, os diretórios são organizados por categorias e subcategorias, comopode se ver na figura 3 (CENDÓN, 2001). Os sites inseridos nos diretórios, na maioria das vezes, são colocados por sereshumanos, grande parte quando os webmasters submetem a url para ser incluído dentro dascategorias específicas em forma de formulário com o endereço do site também era inclusauma breve descrição do site, além de palavras-chave. Quanto aos assuntos, nem todos os diretórios são genéricos como o Yahoo!, ou o Britannica, que cobrem todos os assuntos. Alguns diretórios cobrem áreas específicas e têm sido chamados de diretórios temáticos ou especializados. Existem, por exemplo, diretórios especializados em imagens, jornais e revistas, software, listas de discussão; outros coletam sites sobre assuntos específicos como saúde, ciências, legislação, informática etc.; ainda outros listam ferramentas de busca de países específicos ou para um público-alvo determinado (crianças, pesquisadores, organizações não governamentais etc.). Devido à frequência com que novas ferramentas de busca (diretórios e motores de busca) surgem ao mesmo tempo em que outras caem em desuso, um novo tipo diretório passou a ser criado: os diretórios de ferramentas de busca. Diretórios como FinderSeeker (http://www.finderseeker. com/) ou Search.com (http://search.cnet.com/) têm o objetivo de listar ferramentas de busca, para facilitar sua identificação (CENDÓN, 2001).
  27. 27. 25 Conforme falado, os diretórios foram um grande ápice da época, não existiam osmotores buscas e o usuário se recorria aos diretórios, que por sua vez, poderiam ter váriosassuntos ou até mesmo ser específico de alguma área, portanto depois que começou a surgiros primeiros buscadores, os diretórios de links começaram a cair em desuso, pois osresultados dos diretórios eram menos satisfatórios para o usuário. Na Figura 3 pode-se ver odiretório DMOZ, que é responsável até hoje por fornecer informações para outros diretórios,como se fosse uma fonte de links. Figura 3 - Diretório DMOZ - Fonte: DMOZ - http://www.dmoz.org/ Os motores de buscas chegaram com uma forma diferente de tratar as páginas da web,pois ele não usava intervenção humana e também não era dividido e subdivido por categorias,eles usavam algoritmos em softwares chamados de robôs para identificar o site pela pesquisafeita pelo usuário, com isso os buscadores poderiam alcançar um número muito maior de sitesem sua base de dados e o usuário por sua vez faria a busca do site escrevendo palavras-chave
  28. 28. 26ou, às vezes, em linguagem natural (CENDÓN, 2001). De alguns anos para cá, existiram vários buscadores com diferentes tipos dealgoritmos, tudo para diferenciar entre eles, a fim de trazer melhor experiência aos usuários. afigura 4. Abaixo se pode ver os buscadores com a ordem de seus lançamentos: Figura 4 - Evolução dos Search engines Fonte: Wikipédia - http://pt.wikipedia.org - Visitada em 30/10/2011 Cada motor de busca tinha seu algoritmo diferente um do outro para ter vantagem emrelação de melhores resultados, existem ótimas ferramentas na web, portanto destacam-se:Yahoo, Bing, MSN Search, Alta vista, por isso nenhum tem o desempenho e qualidade doGoogle (RICOTTA, 2007).2.2. Google Ricotta, (2007) diz sobre o Google que: O Google atualiza sua base de informações diariamente, pois existe um crawler, chamado de Googlebot, que busca por informações novas em todos os websites. Isso é realmente interessante, pois cerca de 30 minutos após se publicar um artigo em um blog já é possível encontrá-la no Google. Outros mecanismos de busca também possuem crawlers, mas eles não são tão eficientes em termos de atualização e de classificação de informações. (...) Outros dois fatores importantes do sucesso dos motores de busca são a simplicidade e clareza. A combinação desses itens foi aprimorada desde a concepção do Google. Devido a isso, é possível acessar um site leve, sem poluição visual e cujas opções são facilmente localizáveis (RICOTTA, 2007). Pode-se notar que algoritmo desenvolvido pelo Google faz com que o Googlebot
  29. 29. 27percorra todo seu site em busca de informações novas em um curto período de tempo, fazendocom que um conteúdo novo do seu site chegue ao Google cerca de 30 minutos após serpublicado, lembrando que vários outros buscadores com a mesma funcionalidade, maisnenhum supera o Google em termos de qualidade e eficiência. Outro fator que o Google fazsucesso é o design minimalista que faz com que o usuário tenha uma experiência agradável aoter tudo que precisa facilmente (RICOTTA, 2007). O Google também conta com um diferencial também que é chamado de PageRank.Ricotta (2007) “trata-se de um algoritmo desenvolvido por Larry Page, um dos fundadores doGoogle, que atribui uma pontuação a cada página web de acordo com a quantidade e aqualidade dos links que apontem para ela” complementando, pode-se dizer que o (PR) é umaavaliação da relevância da página, pois faz com que o Google some a quantidade de links quea determinada página recebe de outros sites, visando sempre à qualidade de cada site queenvia o link, e ele tem o valor de zero até dez, sendo o dez o melhor visto pelo Google. Para melhor entendimento quanto ao PR na figura 5 pode se perceber que sites quecontêm mais links direcionados são maiores no PR e quando um site de PR alto faz um linkpara outro site de PR baixo, ele subitamente tem seu PR melhorado. Logo quanto maior o PRde algum site, maior a relevância e confiança o Google tem por ele, fazendo com que seuslinks também tenham esse mesmo valor do que sites que tenham PR baixo. Figura 5 – Pagerank - Fonte: Mestre SEO - Acessado em 31/10/2011 Na Tabela 2 pode-se observar os sites que mais tem Pagerank alto no Google:
  30. 30. 28 Tabela 2 – Sites com maiores Pagerank de Agosto de 2011 Links do Título PR Link do Yahoo! URL GoogleUS Goverment 10 20.900 9.652.685 http://www.usa.gov/ websiteAdobe - Adobe Reader 10 141.000 3.403.720 http://get.adobe.com/reader/ DownloadUnited StatesDepartment of http://www.hhs.gov/ and Health and 10 9.750 2.308.721 http://www.dhhs.gov both redirects to Human same URL. Services Miibeian 10 70.300 841.149.899 http://www.miibeian.gov.cn/ Facebook 10 6.020 2.147.483.647 http://www.facebook.com/ Social Bookmarking 10 59.300 254.366.507 http://www.addthis.com/bookmark.phpSharing Button Widget Europeana 10 3.890 140.776 http://www.europeana.eu/portal/ EUA - European 10 1.500 163.899 http://www.eua.be/ University AssociationUniversitas 21 10 422 205.306 http://www.universitas21.com/ University of 10 1.490 654.703 http://universityofcalifornia.edu/ California Google 10 39.900 1.362.935.280 http://www.Google.com/Government Of 10 2.980 328.609 http://india.gov.in/ IndiaUnited StatesCable News 10 12.900 793.696 http://us.cnn.com/ Network Piwik - Web 10 11.900 4.083.736 http://piwik.org/ analytics Fonte: Search Engine Genie - http://www.searchenginegenie.com - Acessado em 31/10/2011
  31. 31. 29 Na Tabela 3 pode-se notar que os principais sites e mais linkados são sites do governoou serviços da web com popularidade como o Facebook. Portanto, o Google desde que foi lançado, teve muitas modificações tanto no design dosite quanto no algoritmo. Recentemente pode se destacar três alterações significantes:Caffeine, Florida Update e o mais impactante, o Panda Update que afetou cerca de 12% nasbuscas do Google nos EUA e 9% nas buscas em outros países (RICOTTA, 2011). Esse novo Update no algoritmo do Google gerou muitas polêmicas, pois vários sitesque antes tinham milhares de visitas chegaram a perder até 90% de tráfego vindo do Google,pois essa atualização tem como objetivo melhorar a experiência do usuário de todas asformas, agora os critérios de rankeamento estão mais exigentes que antes, agora ele passa aanalisar o tempo médio que o usuário gasta na sua página, a taxa de rejeição, se tem muitosanúncios que atrapalham o usuário, o site realmente tem o conteúdo pesquisado, tempo develocidade de abertura do site, se é conteúdo copiado de outros sites, facilidade para usuáriofinal, qualidade do conteúdo e outros (FAUSTINO, 2011). Pode se concluir que os motores de busca vieram para facilitar a vida do usuário queestá a procura de determinado item na web, através de palavras-chave pesquisadas, osbuscadores lhe dão uma série de site a respeito e o Google por sua vez com seu inovadoralgoritmo de rankeamento fez com que se destaca entre eles, pois faz o seu ranking através devários fatores como quantidade de links apontada para o site e principalmente a experiênciado usuário no site se é a agradável ou não.
  32. 32. 30 CÁPITULO III - SEO – SEARCH ENGINE OPTIMIZATION Segundo Teixeira (2007), SEO uma técnica que faz a otimização de uma página (ouaté do site inteiro) para se tornar melhor compreendido pelas ferramentas de busca. Portanto énecessário um estudo e implementação de técnicas de SEO em um site, pois da mesma formaque o site pode ser bem compreendido pode também ser mal compreendido chegando a serrebaixado ou sofrer um banimento nas páginas de resultados de uma determinada busca. Em meados da década de 90, antes do Google surgir, webmasters já se preocupavam em divulgar seus sites em sistemas de busca. Nesse primeiro momento era apenas necessário submeter uma url ou domínio por meio de um formulário dos buscadores. Esses, por sua vez, enviavam seus spiders para percorrer as páginas, reconhecer os links nas mesmas e indexar o seu conteúdo no banco de dados. Nessa época, para identificar a importância de determinado termo dentro de uma página analisava-se apenas o número de vezes que esse aparecia e sua localização. Portanto era comum encontrar resultados com qualidade muito baixa, já que muitos webmasters abusavam da quantidade de termos inseridos no conteúdo e obtinham bons rankings. O termo “search engine optimization” passou a ser usado em 1997, segundo Danny Sullivan, que cobre a área de sistemas de busca desde 95. Logo surge o Google e a fotografia da indústria de busca sofre grandes mudanças: penalizações para o emprego de técnicas antiéticas – também conhecidas como black hat, foco na qualidade do conteúdo, popularidade e confiança medidas por meio de links e qualidade de suas fontes (SANCHES, 2010). O termo SEO nasceu quando houve necessidade de atrair mais visitas para umdeterminado site, logo muitas pessoas usavam técnicas antiéticas para conseguir uma melhorano rankeamento ficando a frente de outro site que poderia ser melhor para o usuário, foi aonde os buscadores tentavam cada vez mais formas de identificar tais técnicas que hoje sãochamadas de Black Hat. No início, os buscadores solicitavam aos donos de site para submeter à url ou domíniopor meio de formulário, que depois através de uma análise seriam aprovados ou não, depoisde aprovados os sistemas mandavam os chamados spiders para percorrer o conteúdo de todo osite para dentro do seu índice de resultados. A importância na época era analisar apenas onúmero de vezes que o site era solicitado na busca e sua localização, então devido ao baixo
  33. 33. 31rigor nos tratamentos dos dados, muitos sites que eram visualizados na página de resultadosda busca feita pelo usuário tinha a qualidade muito baixa, fazendo com que o usuário que 7requisitou a busca não ficasse satisfeito com os resultados, e também muitos webmastersnotaram que se eles espalhassem pelo site algumas palavras-chave que era de acordo com otexto, eles melhoravam no ranking da busca feito pelo usuário, fazendo assim uma otimizaçãodo site. Muitas vezes, os webmasters usavam de formas antiéticas para se beneficiar com osistema de busca, por isso quando chegou a empresa Google eles já vieram com algunssistemas de rankeamento melhores, pois trouxeram consigo o foco na qualidade, desde apopularidade da página, a confiança medidas por links e qualidade das fontes atribuídas naspáginas. Inouye (2007) diz que, antigamente, o SEO definia em construção de links nosdiretórios, otimização para os Spiders, competição entre um site do mesmo nicho, troca delinks, otimização de links para batalhar para se obter melhor PageRank e também explica que50% das tarefas dos buscadores como o Google era tarefa automatizada: Diretórios foram os primeiros sistemas de busca criados. Também chamados de catálogos, tem como característica a categorização e organização em tópicos. Estes tópicos seguem uma estrutura lógica e são subdivididos por detalhamentos. Por exemplo, a categoria esportes tem a subdivisão futebol que por sua vez pode ser divida em profissional e amador. Normalmente os diretórios são feitos por pessoas, diferente das ferramentas de busca que usam robôs como veremos a frente. Os principais diretórios existentes são o DMOZ.org e o Yahoo! (TEIXEIRA, 2007) Como Teixeira (2007) comentou, os diretórios de antigamente eram como se fossemum catálogo, onde o usuário escolheria a categoria e dentro da mesma era subdivido emtópicos e só assim a listagem de sites que normalmente era por letra alfabética, não trazendorelevância nenhuma sobre o que o usuário realmente queria, outro detalhe é que essesdiretórios eram feitos por pessoas diferentemente dos motores de busca que usam algoritmospara definir como auxiliar na pesquisa do usuário.3.1. Técnicas OnPage e Offpage Hoje em dia, o termo SEO está sendo bastante estudado e está sempre se preparandopara as novas tendências dos motores de busca e para conseguir resultados cada vez melhores7 O Webmaster é um profissional capaz de realizar tarefas tanto de um webdesigner (elaboração do projetoestético e funcional de um web site) quanto de um WebDeveloper ( que faz a parte da programação, comosistemas de login, cadastro, área administrativa ) (WIKIPÉDIA, 2011).
  34. 34. 32são feitas técnicas que podem se classificar como técnicas de OnPage e de OffPage, e ondeque se dá o trabalho de SEO e que um bom trabalho é feito de forma com que uma técnicaajuda a outra, ajudando ao usuário final que fez a busca ter realmente o conteúdo que elepesquisou (MESTRESEO, 2011). Segundo a Mestre SEO (2011), as técnicas atribuídas dentro do próprio site, onde sãofeitas modificações no código HTML ou no CSS são chamadas de OnPage, pois são feitasinternamente no site, às vezes, sem que o usuário final as percebam, na maioria das vezes, sãofeitas alterações na forma em que o Título é exibido, a quantidade de links nas páginas, quaispalavras-chave são aplicadas, a forma como elabora o título da página e até mesmo o nome dosite são fatores importantes. Já as técnicas de OffPage a Mestre SEO (2011) classificam-se como sendo o trabalhopor fora do site, externamente, pois eles não estão ligados diretamente ao site, maslembrando-se de que para uma técnica de OffPage funcionar deve-se ter dado atençãoprimeiramente às técnicas de OnPage, porque o site deve estar bem estruturado a fim dereceber visitantes. Links de entrada (inbound links) são os links que outros sites apontam para uma página do seu website. No início do PageRank, a regra era simples: quanto mais links, melhor. Mas esta visão mudou bem desde a concepção inicial do algoritmo. Ainda sim, a quantidade de links recebidos por uma página é uma métrica importante utilizada para definir seu posicionamento em uma determinada pesquisa. Eis a razão de tanta busca por links, de sempre querer mais links (MESTRESEO,2011). Pode-se perceber que os links apontados para seu site é uma das métricas maisimportantes para os motores de busca fazendo com que se destaca nas técnicas de OffPage, oporquê da razão de ser importante se dá pelo fato de que é feito um ranking pelos motores debusca procurando pelo site que contém mais popularidade, portanto um site que recebe muitoslinks se dá na forma como sendo um site popularmente, pela quantidade de links que elerecebe, lembrando que “não importa tanto quantos links você recebe, mas sim a quantidadede domínios diferentes que apontam para o seu website” (MESTREOSEO, 2011): Um exemplo simples para este caso é saber que um site que possui 1.000 links de 1.000 domínios diferentes, irá ranquear melhor do que um website que recebe 1.000 de 200 domínios diferentes. Logicamente neste exemplo estamos descartando todos os outros fatores. De nada adianta receber muitos links e de vários domínios diferentes se a qualidade dos websites ou páginas não possuem uma boa reputação. Para isto é importante saber de quem você recebe um link, olhando os fatores daquela página. A regra aqui é simples, é muito importante que o link que você recebe seja de um site relacionado ao seu, que não esteja banido pelos Search Engines, e que seja de conteúdo original (MESTRESEO, 2011).
  35. 35. 333.2. Black Hat Muitos donos de site ou até empresas que fazem serviços de SEO usam de práticasilegais aos olhos dos buscadores e isso é chamado de Black Hat. Black Hat SEO é o termo utilizado para caracterizar técnicas de SEO consideradas “ilícitas” ou abusivas, ou seja, técnicas que aproveitam uma possível brecha nos algoritmos de classificação de resultados ou exageram o uso de alguma técnica White Hat SEO. Em oposição, o White Hat SEO é composto por técnicas de SEO consideradas válidas por search engines (MESTRESEO, 2011). Como SEO é uma vantagem para qualquer site, muitos webmasters usam técnicas deBlack Hat para poder se beneficiar de forma ilegal aos olhos dos buscadores, pois osbuscadores trabalham com algoritmo que por sua vez, pode ficar vulnerável a alguma brechafazendo com que sites que não deveriam ficar nas primeiras posições, ficam e prejudicam aexperiência do usuário final. Alguns modos de Black Hat são bastante efetivos como os tais Keyword Stuffing quese tratam de espalhar palavras-chave relacionadas às buscas dentro da página como, porexemplo: “Notebook, notebooks, venda notebook, notebook hp, notebook novo…”, e às vezesde alguma forma que o usuário não veja essas palavras, somente os algoritmos dos motores debuscas, porém quando os buscadores percebem a prática, o site é penalizado de diversosmodos, mas a principal é a remoção do conteúdo do site nas Serps, fazendo com que percavisitas (MESTREOSEO, 2011). Do ano de 1997 até os dias de hoje, o SEO ficou muito mais complexo como Veloso(2011) diz que hoje o profissional de SEO deve delinear vários tipos de estratégia,principalmente em estratégias OffPage nas redes sociais que vem cada dia mais tomandoespaço na internet, e também hoje em dia qualquer palavra-chave está cada vez maisconcorrida e com vários profissionais de SEO se espalhando por aí deixa o trabalho maisintenso e difícil. Com base nessas informações pode-se concluir que os motores de busca precisam deseus algoritmos para providenciar melhores resultados para o usuário, fazendo com que oswebmasters focassem um trabalho específico de SEO nas páginas a fim de subir seurankeamento nas Serps, trazendo assim mais visitantes ao seu site por meio de técnicas deOnPage e OffPage aumentando seus lucros e conversões como por exemplo um cadastro ou
  36. 36. 34até mesmo uma subscrição por e-mail.
  37. 37. 35 CAPÍTULO IV - METODOLOGIA4.1. Métodos de Análise e Classificação da Pesquisa Este trabalho utilizou de pesquisa qualitativa pelo fato de comparar o antes e o depoise analisando também alguns dados específicos, como o tempo de permanência no site entreoutros, e a quantitativa por também se tratar de analisar as estatísticas dos sites antes e depoisdas técnicas de SEO, avaliar também se o estudo teve sucesso e analisar em especial algunsdados reais abordados pela pesquisa. O método de coleta das estatísticas foi como observação direta através de programasespecíficos que nos dão todos e quaisquer dados significantes para a pesquisa. O estudo sebaseia também em uma pesquisa bibliográfica por se tratar de consultas realizadas em outrasbibliografias de domínio publico. Teve também como método de abordagem o dedutivo, poisse trata de estudar as técnicas que serão aplicados e logo após a análise de forma particularsobre os dados obtidos.4.2. Tecnologias de Apoio. Para construir os sites foi usada a tecnologia de programação PHP ligada ao banco dedados MySQL usando o gerenciador de conteúdo chamado Wordpress. PHP (um acrônimo recursivo para PHP: Hypertext Preprocessor) é uma linguagem de script open source de uso geral, muito utilizada e especialmente guarnecida para o desenvolvimento de aplicações Web embútivel dentro do HTML. Ao invés de muitos comandos para mostrar HTML (como visto em C ou Perl), páginas PHP contém HTML juntamente com códigos que fazem "alguma coisa" (neste caso, mostra "Olá, Eu sou um script PHP!") O código PHP é delimitado por tags iniciais e finais <?php e ?> que lhe permitem pular pra dentro e pra fora do "modo PHP" (PHP, 2011).
  38. 38. 36 Conforme escrito, o PHP é de fácil compreensão, pois sempre quando usado édelimitado por tags, ou seja, marcações na linguagem de programação sendo elas iniciais efinais, trazendo consigo o HTML no documento, ajudando a identificar erros no HTML semter muita experiência no próprio PHP, o PHP pode fazer qualquer coisa, pois é umalinguagem de script do lado do servidor, portanto pode-se dizer que ele coleta dados deformulários, criar e gerar páginas de conteúdo dinâmico, receber ou enviar cookies e muitomais (PHP, 2011). MySQL é um sistema que gerencia banco de dados em SQL, atualmente, é um dosmais populares banco de dados do mundo, esse programa “pode ser usado em sistemas deprodução com alta carga e missão crítica bem como pode ser embutido em programa de usoem massa”, ou seja, ele serve para gerenciar todo e qualquer tipo de informação gerada pelosite, pois o site usa um sistema de gerenciamento de conteúdo, então tal sistema necessita deum gerenciador de banco de dados eficiente e rápido e o MySQL é um dos mais usadosatualmente na web para sites de pequeno e grande porte (MYSQL, 2010). Segundo Mullenweg (2010), “Wordpress (WP) é um sistema de gerenciamento deconteúdo na web, escrito em PHP e executado em MySQL”. E por ser um gerenciador deconteúdo pode-se denominar um CMS, o WP teve seu crescimento muito rápido devido a sualicença que é de código aberto, a facilidade de uso e suas características como gerenciador deconteúdo, além da customização que pode transformar desde um simples blog até mesmo umportal de notícias. Outra característica do WP é facilidade que tem de mudar de tema, instalar plug-insque customiza o gerenciador para de acordo com que o webmaster deseja comparado a outrosCMS que existem como o Joomla, Drupal, PHP Nuke, Xoops entre outros, o WP é o que maisse encontra recursos disponíveis para modificar o site e, na maioria das vezes, consegue-seesses recursos gratuitamente. Além de poder instalar o WP em servidor próprio, existetambém o serviço Wordpress.com, onde o usuário poderá criar blogs simples gratuitamentesem pagar hospedagem ou domínio (MULLENWEG, 2010). São usados servidores particulares e não gratuitos todos em ambiente Linux, oInfomaníaco por ter mais conteúdo usa um VPS e o Goiatuba online servidor compartilhado. VPS é denominado perfeito para sites que usam muitos recursos de servidor comomemória e CPU, o VPS é como um servidor compartilhado, portanto aloca a memóriacontratada a fim de dar mais robustez ao seu espaço dentro do servidor. É como se fosse umservidor dedicado virtual, pois você tem sua própria memória RAM, espaço e tráfego limitado
  39. 39. 37ao seu plano, fora que poderá ter acesso ao root podendo personalizar o servidor de acordocom as suas necessidades, ou até mesmo reiniciar o server a fim de evitar sobrecargas, issotudo você pode ter além do desempenho adequado ao seu site (GCMHOST, 2010). Já a hospedagem compartilhada, como o nome já diz, seu site é hospedado com váriosoutros sites, usando a mesma memória alocada e o mesmo CPU do servidor, é a mais usadaem todo o mundo devido ao fato de ter baixo custo, portanto se algum dos sites que tiveremno mesmo servidor fazer uma sobrecarga, fará com que todos sejam afetados e a limitação deCPU para cada site costuma ser de 2%, muito diferente do VPS, logo se tratando de custo xbenefício para sites pequenos é a melhor solução (SANCHES, 2011). Para realizar consultas nas estatísticas do site para saber se o estudo foi feito comsucesso, foi utilizado o Google Analytics. Esse sistema permite saber qual são as páginas maisvisitadas do site, qual o termo de pesquisa que foi realizada a pesquisa que fez com que o siteaparecesse, melhores palavras-chave, de onde vieram os visitantes, quais plataformas, otempo de permanência, a origem do tráfego, se ele veio do Google ou de outro buscador, entreoutros relatórios não menos importantes (TRAVARELLI, 2008). O Google Analytics também verifica a taxa de rejeição de cada página do site,analisando os usuários que entram e na mesma hora vão embora sem que haja algumainteração ou tempo de visualizar o conteúdo seja pela aparência, qualidade, ou não serrealmente o que estava procurando, através disso o webmaster poderá fazer um estudo paramelhorar o seu website a fim de trazer mais visitantes e ao mesmo tempo agradar o usuárioque vai ao seu site à procura de informações (TRAVARELLI, 2008). Outra ferramenta de análise que foi usada é o Google Webmasters Tools ou GWT.Com ele, pode-se visualizar como o Google visualiza o site, quantidade de pessoas queencontraram o site através dos resultados das pesquisas e quantas que só realmente entraram,tem alertas sobre qualquer alteração do seu site perante o Google, quais os sites que fazem umlink, quais palavras-chave são mais influentes dentro do seu website, tempo de carregamento,diagnosticar problemas, Permite que você envie dados (sitemap, por exemplo) para ajudar naindexação, fornece dados sobre a taxa de indexação, erros e muitas outras informaçõescoletadas sobre seu site (GOOGLE, 2010).
  40. 40. 38 Figura 6 - Modelo de Página principal do Google Analytics Fonte: Mxstudio - http://www.mxstudio.com.br/ - acessado em 04/11/2011 O GWT é importante para saber a relação do site perante o Google, para oswebmasters perceber alguns pontos e ver no que o seu site realmente consegue ser bom, a fimde traçar um plano de SEO efetivamente.4.3. Site antes da aplicação das técnicas de SEO O Infomaníaco em maio de 2008 começou não tendo nenhuma visita e através deinserções de conteúdo começaram a ter cada vez mais visitas, portanto havia a necessidade demelhorar ainda mais a visibilidade dele na internet, onde começou a inserção de técnicas deSEO para alavancar o site em posições no Google em diversas palavras-chave. Em 24 de setembro de 2008, foram colocadas em prática algumas técnicas de SEO que
  41. 41. 39ajudou o site que até então não passava de 1000 visitas diárias. Figura 7 - Infomaníaco em 24/09/2008 até 24/12/2008 Fonte: Do Autor Na figura 7, pode ser notado como era o site antes da aplicação das técnicas de SEO ea maneira que foram subindo a quantidade de visitas. E o site de notícias Goiatuba online como o Infomaníaco começou sem visitas e sematenção do Google, na figura abaixo podem-se ver os primeiros dias de visita do Goiatubaonline, antes da otimização de SEO. Figura 8 - Goiatuba online entre 01/06/2011 e 19/07/2011 – Fonte: Do autor Em ambos os sites do estudo, foi feito o mesmo trabalho de SEO, com as mesmastécnicas e primeiramente foi desenvolvido o trabalho de organização de Arquitetura do site.Ricotta (2010), diz que a “Arquitetura de sites é a maneira como o conteúdo é organizado aolongo das páginas do site (home, categorias, subcategorias, etc.) e a forma como os conteúdosdo site são relacionados entre si”. Baseado nisso, foram feitos alguns ajustes nas categorias dosite a fim de centralizar o conteúdo para não haver uma dispersão dos dados, foram criadas
  42. 42. 40categorias para fazer a segmentação ao foco principal do site.4.4. Métodos Começou-se então o trabalho de SEO OnPage onde são feitas alterações no layout eno código HTML do site para uma melhor otimização para os motores de busca. Conforme a figura 9 foi trabalhado o título do site dando mais ênfases nas palavras-chave associadas ao nome do site, fazendo ter mais relevância na página inicial a respeitos daspalavras-chave respeitando o número de caracteres permitido. Figura 9 - Titulo do site Infomaníaco - Fonte: Do Autor Na figura 10 podem ser vistas três alterações no HTML que foram feitas para melhoraro entendimento da página perante o Google. Figura 10 - Técnicas de SEO - Fonte: www.Infomaníaco.com.br Na Tag Meta Name Description foi colocada uma breve descrição do site, estadescrição é muito importante, pois ela irá aparecer no resultado de busca do Google, comosendo um chamariz do visitante para seu site, nela também deve conter palavras-chave paramostrar o conteúdo que o site abrange. Em Meta Name Keywords, são colocadas novamente as palavras-chave do site, dessavez para situar o site como sendo detentor das palavras-chave abordadas. Uma das principais técnicas de SEO para se evitar conteúdo duplicado dentro site é ouso da tag canonical. Marcel (2009), explica que conteúdo duplicado no site pode prejudicarmuito, pois existe um imenso número de acessar uma página e o Google vê isso comoconteúdo duplicado, ele ainda cita exemplo de como pode ser acessada uma página normal em
  43. 43. 41diversas formas de digitar a url. Figura 11 – Canonical - Fonte: http://www.mestreseo.com.br/ Acessado em 08/11/2011 A Tag Canonical é colocada em todas as páginas do site duplicadas direcionando paraa URL original como vemos na figura 11 o site Infomaníaco é redirecionado parahttp://www.Infomaníaco.com.br/, portanto toda vez que o Google passar pelo site, ele vaientender que a página principal é a que a canonical está apontando. Foi alterada a forma com que o site abordava suas URL`s fazendo com que elasficassem mais claras para o visitante e para o Google, abaixo você pode ver na tabela 3 comoera as Url`s e como se tornaram depois da otimização de SEO.Tabela 3 - Urls Amigáveis Antes Depoishttp://www.Infomaníaco.com.br/?p=213 http://www.Infomaníaco.com.br/dicas/http://www.Infomaníaco.com.br/?p=456 http://www.Infomaníaco.com.br/downloads/http://www.Infomaníaco.com.br/?p=879 http://www.Infomaníaco.com.br/notícias/http://www.Infomaníaco.com.br/?p=486 http://www.Infomaníaco.com.br/tutoriais/http://www.Infomaníaco.com.br/?p=159 http://www.Infomaníaco.com.br/games/http://www.Infomaníaco.com.br/?p=357 http://www.Infomaníaco.com.br/videos/Fonte: Do autor Pode-se notar que depois da otimização das URL`s o usuário consegue identificar qualo conteúdo ele está abrindo antes mesmo de terminar de abrir a página e antes isso eraimpossível, e isso é muito relevante ao Google, pois adiciona mais palavras-chave ao seu
  44. 44. 42conteúdo. Outro fator importante na otimização OnPage que foi utilizado no site Infomaníacosão as denominadas as headings tags, pois servem para atribuir tamanhos diferentes para otexto, portanto o Google as vê como uma forma de separação de conteúdo do título com osubtítulo e por subsequente. Na figura 12 pode-se ver um exemplo clássico de utilização das headings tags deforma efetiva em um determinado site. O uso apropriado de heading tags pode ser exemplificado da seguinte maneira:  <h1>Infomaníaco – Site de Conteúdo</h1> Neste h1, ficou definido o tema principal da página.  <h2>Conteúdo 1</h2> Já no texto do H2, algo mais específico, ou seja, uma subseção do H1. Figura 12 - Headings Tags - Fonte: www.mestreseo.com.br Nas imagens do site foram feitas também alterações na forma com que cada imagemfosse colocada conteúdo dentro das imagens nas tags Title e Alt. O atributo “ALT” tem a sintaxe HTML: “<img src=”image.jpg” alt=”Descrição daImagem” />” a tag ALT é o comando usado para identificar o Alternate Text, o textoalternativo que é exibido quando a imagem não é carregada. Já o atributo “Títle” serve para atribuir o título à imagem para o Google identificar do
  45. 45. 43que se trata a imagem e a sintaxe usada é seguinte: “<img src=”image.jpg” title=”Título daImagem” />” Essas tags adicionadas nas imagens ajudam e muito no desempenho do SEO emsua página, pois agrega mais valor à palavra-chave que está sendo otimizada na página emquestão. Foi usado no site o arquivo robots.txt que é usado pelo Google e outros buscadorescomo forma de apresentação do site para o buscador, nele você pode impedir páginas restritasou com conteúdo duplicado de serem rastreadas pelos buscadores, fazendo uma espécie debloqueio entre os spiders e o seu site, outra vantagem do arquivo robots.txt é indicar ocaminho dos seus sitemaps. Abaixo na figura 13 pode se ver o robots.txt utilizado atualmenteno Infomaníaco. Figura 13 - robots.txt – Fonte : Do autor Outra vantagem do robots.txt é que ele pode indicar o caminho específico do sitemap.Sitemap por sua vez tem um papel muito importante, pois indica para o Google e algunsbuscadores a quantidade de páginas a ser indexadas e quais são elas, também como a data depublicação e a prioridade da página determinada referente ao conteúdo do site. O arquivo de sitemap é feito em XML e ajuda os motores a buscar e a identificarcomo é o site e deve seguir alguns padrões para facilitar a leitura dos buscadores nas páginasdo seu site. Abaixo na figura 14 pode ver um exemplo de como deve ser o arquivo
  46. 46. 44sitemap.xml dentro do site. Figura 14 - sitemap.xml - Fonte: www.mestreseo.com.br Foi feito também um trabalho de Link Bulding, Ricotta (2010), disse que “LinkBuilding é o processo de aquisição de links para um determinado website com a finalidade deaumentar a sua popularidade e relevância na Internet”. Portanto foi feito esse trabalho através de dois tipos de links: links internos e linksexternos, os internos visam linkar uma página do website a outra página dentro do própriosite, já o externo é fazer o link para outros sites, que no caso seria outros sites linkando paraos websites do estudo. Para fazer os links internos, usamos um plug-in junto ao WP para exibir na páginalinks relacionados ao mesmo conteúdo dentro do site, fazendo com que quando o Googlevisitar esta determinada página ele passa pelos links e chegue até as outras páginas que foramlinkadas, dando mais autoridade naquele determinado assunto. Exemplo de link interno nafigura 15. Os links externos têm um pouco mais de dificuldades, porém têm mais relevância parao Google, pois é quando recebe links de outros sites e para isso o importante é fazer umconteúdo original e atrativo a fim de que outros sites te linkam para mostrar o conteúdo, noswebsites em questão, foram feitas parcerias de links em outros sites, onde os sites em questãolinkavam um para o outro. Um exemplo de Link externo na figura 16.
  47. 47. 45 Figura 15 - Links internos – Fonte: www.mestreseo.com.br Figura 16 - Links Externos - Fonte: www.mestreseo.com.br Na sintaxe HTML os links têm a seguintes características: “<ahref=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“, onde site de conteúdo é otexto âncora, ou seja, o que aparecerá para o usuário. Na sintaxe ainda pode ser introduzidaalguns atributos como sendo um dos principais para o Google o nofollow. Ricotta (2010), dizque “nofollow” é um atributo HTML utilizado para instruir aos mecanismos de busca que umdeterminado link não deva constar no grafo de cálculo de rankeamento, ou seja, não passarárelevância. O seu objetivo é diminuir o efeito de técnicas de spam na Internet, tal comocomentários spam em blogs. Onde a sintaxe é usada como a seguir: “<a rel=“nofollow”href=”http://www.Infomaníaco.com.br”> Site de conteúdo </a>“. E nos websites do estudo foi feito uma alteração nos links adicionando o atributonofollow onde apontavam para sites externos afim de não passar link juice para outros sites,link juice que por sua vez significa a relevância de um site, então quando linkamos para outrosite sem o atributo nofollow está sendo passando também um pouco da relevância do seu sitepara outro.
  48. 48. 46 Foi visado também não somente um domínio fazer vários links para o site do estudo, esim, vários domínios diferentes linkando, pois o Google entende que é melhor ter vários siteste linkando do que somente um, os links externos também são analisados pelo Googleminuciosamente, pois vê diversas características dele para avaliar sua relevância até suapágina como, por exemplo, o Google vê se o link tem o texto âncora de acordo com o sitelinkado, a autoridade do website que envia o link, relevância do contexto, se está comnofollow, a profundidade da página, quantidade de links da página e a posição (RICOTTA,2010). Portanto nos sites do estudo foram feitos vários trabalhos de link Bulding comoescrever conteúdos originais e com qualidade, a inserção da URL dos sites nos principaisdiretórios, cadastramos também os sites nas principais redes sociais, troca de links e parcerias,submissão de artigos em outros websites parceiros, interação em fóruns do mesmo assunto,tudo isso visando links apontados para os sites que estão sendo otimizados para o Google. Depois de várias inserções de técnicas de SEO, alterações no código HTML, noconteúdo, fatores externos trabalhados, os dois sites ficaram otimizados e preparados para oGoogle para então efetivar o estudo.
  49. 49. 47 CAPÍTULO V – APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS5.1. Site de Conteúdo Através da análise dos sites foram identificadas quais técnicas de SEO apropriadaspara os sites e então foi feito a aplicação das mesmas, depois de um período os dois sitesconseguiram ganhar seu espaço na web de uma forma com que se destaca em seu nicho, oInfomaníaco ao longo do tempo conseguiu a chegar a marca de 9.956.393 de visitas únicas,no relatório contido na figura 17 feito no Google Analytics pode-se ver com mais clareza. Figura 17 - Estatísticas de visitas do Infomaníaco - Fonte: Do autor
  50. 50. 48 Esse gráfico acima foi gerado do período de 24/09/2008 até 10/11/2011 onde pode sernotado vários números significantes, o número de visitas únicas, ou seja, por IP foi de quase10 milhões e que estas visitas únicas visualizaram cerca de 15.451.229 páginas, uma média de1,55 páginas por visita. Na figura 18 abaixo pode ser vista a quantidade das visitas que vieram de mecanismosde pesquisa ou motor de busca. Figura 18 - Origens de tráfego - Fonte: Do autor Em todo esse período e com mais de nove milhões de visitas cerca de 8.026.368 devisitas, ou 80.58% que o Infomaníaco teve foi vinda de mecanismos de pesquisa eramificando ainda mais, dentro desse número 78,42% veio do tráfego orgânico do Google,muito do distante de outros buscadores. Outro gráfico interessante é o de palavra-chave que mais recebeu visitas vindas doGoogle, nele pode se ver que o Infomaníaco recebeu cerca de 7.807.752 visitas que vieram doGoogle por meio de 929.757 palavras-chave, outro fator que foi encontrado no gráfico abaixoé que ainda fala que as visitas vieram por um meio que não gerou custos para o Infomaníaco,ou seja, o Google enviou 7.807.752 não para visitas, onde pode perceber a importância deSEO para o site de conteúdo.
  51. 51. 49 Figura 19 - Visitas vindas do Google - Fonte: Do autor Além disso, pode ser mensurado de que país esses visitantes vieram, estado e atémesmo a cidade, nesse período o Infomaníaco recebeu visitas vindas em cerca de 186 países,se destacando o Brasil, Portugal, Estados Unidos, Japão e Angola. No Brasil, o Infomaníacorecebeu mais visitas vindas do sudeste conforme a figura abaixo: Figura 20 - Cidades Brasileiras - Fonte: Do autor
  52. 52. 50 Por fim será mostrado um gráfico que ajuda mostrar o crescimento dentro de três anosdo Infomaníaco, abaixo na figura 21 pode se ver no ano de 2008 que o site não tinhaabsolutamente nenhuma visita e que ao passar do tempo permaneceu em torno de menos de5000 visitas, logo em setembro de 2008 quando foram aplicadas as primeiras técnicas deSEO, pode já começar a ver o crescimento chegando a triplicar em alguns meses depois, e ataxa de crescimento manteve a subir até mesmo no ano de 2010 aonde parou de crescer e semanteve. Na posição Y (vertical) é a quantidade de visitas únicas do site: Figura 21 - Crescimento do Infomaníaco – Fonte: Do Autor5.2. Site de notícias de Goiatuba e região Já o site de notícias Goiatuba online em pouco tempo também teve númerossignificativos, onde pode se destacar a quantidade de visitas vindo do Google ou até mesmoentrando diretamente no site.
  53. 53. 51 Figura 22 - Visitas do Goiatuba online - Fonte: Do autor O gráfico 22 mostra as estatísticas de visita do Goiatuba online no período de01/06/2011 até 10/11/2011, e nesse curto período de tempo, contabilizou-se cerca de 24.000visitas únicas onde tais visitas acessaram 123.494 visualizações de páginas, uma média demais de cinco páginas por visita e com o tempo médio de 06h23min por visita. Logo abaixo na figura 23 pode ser visto outro fator importante nos resultados obtidos,o relatório aponta que cerca das mais 24.000 visitas únicas vieram dos resultados de pesquisado Google proveniente de um trabalho de SEO feito logo após o site ter sido construído.
  54. 54. 52 Figura 23 - Origens de Tráfego – Fonte: Do autor Hoje em dia, as redes sociais também ajudam no trabalho de SEO, pode-se ver nográfico que o Facebook enviou cerca de 1.912 visitas únicas tornando-se a terceira melhorfonte de tráfego do Goiatuba online, até mesmo na frente de outros motores de busca como oBing e Ask, ganhando também de outras redes sociais como Orkut e Twitter. O Goiatuba online também teve um trabalho de SEO envolvendo a palavra-chave“Goiatuba”, portanto para aparecer nessa pesquisa teve de ter um trabalho mais intenso, poisos primeiros colocados do Google dessa palavra-chave quando pesquisado era o site daprefeitura de Goiatuba contendo o domínio “http://www.goiatuba.go.gov.br/”, ou seja,domínios com a extensão .gov.br tende a se ter mais autoridade em termos de SEO, pois oGoogle entende que seja um site do governo e também outro site com bastante notoriedade éo da Wikipédia falando sobre Goiatuba, que é um site bastante conhecido e relevante para oGoogle, por sua vez, o Goiatuba online aos poucos foi crescendo no rankeamento com estapalavra-chave. Quando começou a otimização, o Goiatuba online estava em 83º posição doíndice do Google referente à busca da palavra “Goiatuba”, aos poucos foi subindo orankeamento, primeiro para 30º posição, depois para 6º, até chegar ao primeiro lugarconforme nos mostra a figura 24 abaixo.
  55. 55. 53 Figura 24 - Pesquisa do Google da Palavra Chave "Goiatuba" – Fonte: Do autor Enfim neste ultimo gráfico é mostrado o crescimento tanto nas visitas quanto nasvisualizações de páginas que o Goiatuba online teve no período entre Maio e Novembro doano de 2011, pode observar a tendência de crescimento logo após a inserção das técnicas. Na posição Y (vertical) é a quantidade de visitas e visualizações do site: Figura 25 - Crescimento do Goiatuba Online – Fonte: Do autor

×