Guia de SEO

Divulgue esta página

{++}Seja bem-vindo ao Guia de SEO da Agência Mestre,

Neste guia abordamos técnicas de otimização on-page, off-page, pesquisa de palavras-chave, link building e ainda dicas de redes sociais e busca local, todas para melhorar o seu rankeamento e suas visitas.

O conjunto de técnicas aqui expostas vêm da vivência dos profissionais da Agência Mestre em busca de sempre atingir os melhores resultados de busca, então é muito importante que você sempre revise este guia pois novidades podem surgir ao longo do tempo. Esperamos que você goste e em caso de sugestões e/ou dúvidas entre em contato conosco e teremos o maior prazer em responder.

Índice

Capítulo 1 – Search Engines e a Web

Capítulo 2 – Entendendo SEO

Capítulo 3 – Fatores On-Page

Capítulo 4 – Fatores Off-Page

Capítulo 5 – Diretórios

Capítulo 6 – Pesquisa de Palavras-Chave

Capítulo 7 – Link Building

Capítulo 8 – Black Hat SEO

Capítulo 9 – Punições e Filtros

Capítulo 10 – Social Media Optimization

Capítulo 11 – Local Search SEO

Capítulo 1 – Search Engines e a Web

A World Wide Web (WWW) é um conglomerado de websites interconectados que cresce mais e mais a cada dia. Se você possui um website sabe que, todo dia, surgem novos concorrentes, pessoas, empresas e grupos, que falam dos mesmos assuntos que você e, em muitos casos, de uma forma melhor. Assim, perante ao crescente número de concorrentes, cada empresa ou pessoa deseja se destacar cada vez mais, atingindo um maior público.

Quanto ao público na Web, a comScore , um provedor de informações globais, informou que o número de usuários únicos na internet atingiu um valor de 1 bilhão em Dezembro de 2008. Isto significa que perante aos 185 milhões de websites existentes na internet, apenas uma parcela mundial possui acesso a esta grande rede de informações.

Para tornar toda esta informação acessível surgiram os mecanismos de busca, tais como o Google, Yahoo! e Bing. Estes mecanismos possuem robôs automatizados que varrem toda a Web, indexando toda informação disponível e em seguida, esta informação é disponibilizada para consulta.

Estes mecanismos de busca necessitam de um algoritmo para classificar uma página com relação a um determinado termo, ou tema, fazendo com que cada página possa aparecer para uma determinada consulta na base de dados do buscador.

1.1 A origem do termo SEO

Um artigo do Search Engine Land cita que a origem do termo SEO foi relatada em 1997 no livro Net Results, que o próprio autor Bob Heyman juntamente com Leland Harden e Rick Bruner escreveram.

No livro, os autores mostram que o termo surgiu a partir de uma “conversa” entre o empresário de uma banda, quando ele questionou por que a página da banda estava na 4ª posição do buscador. Comparando as alterações atuais, Bob e Leland Harden constataram que o número de palavras-chave (Jefferson Starship) da página havia diminuido, assim o site havia caído de posição.

Assim que os designers de Bob retornaram com as palavras-chave “Jefferson Starship”, o site voltou a figurar na primeira posição do buscador.

Com isto, Bob e Leland chamaram esta nova área de Search Engine Optimization e logo após contrataram o seu primeiro SEOM (Search Engine Optimization Manager). Assim surgiu o SEO.

1.2 Primeira aparição concreta do termo SEO

Adam Audette postou em seu blog, uma história mais detalhada, cheia de imagens, que confronta a colocação do livro de Bob Heyman. Para Adam, e para muitos, fatos concretos valem mais do que palavras, então ele montou um tipo de linha do tempo do termo SEO.

A Wikipedia (EN) referencia um comentário de Danny Sullivan onde ele aponta que o termo SEO foi referenciado pela primeira vez em um post SPAM na Usenet.

Em uma busca na internet, Adam mostrou um link para o post referenciado pelo Danny Sullivan, o qual vocês podem ver abaixo. Atentem para o termo Search Engine Optimization destacado.

Até aí, esta era a primeira aparição online do termo Search Engine Optimization.

1.3 Mas esta é mesmo a primeira aparição do termo SEO?

Mas veja só o que o Adam encontrou: uma página de 15 de fevereiro de 1997 que prova que John Audette usou o termo Search Engine Optimization cerca de 5 meses antes do post SPAM referenciado na Wikipedia.

http://web.archive.org/web/19970801004204/www.mmgco.com/campaign.html

Na página do Multimedia Marketing Group (MMG), empresa online de John Audette, o termo aparece claramente:

Existem mais páginas criadas pela MMG que citam o termo, mas esta já é o suficiente para mudar a história.

1.4 Rankings na Web

Desde que nascemos, vivemos uma vida de escolhas, de caminhos a serem optados ou desprezados. A cada passo, devemos observar as variáveis do ambiente, analisá-las e tomar uma decisão. Este comportamento pode ser observado de várias formas: a escolha de uma profissão, a escolha de uma roupa para o seu dia ou ainda na escolha de uma namorada.

Todos estes fatos possuem um fator básico: classificação. Classificamos qual profissão ganha-se mais dinheiro, se tem mais fama ou ainda se tem o melhor carro. No quesito de namoradas, classificamos quais as mais bonitas, mais inteligentes, mais interessantes ou quaisquer outros fatores que desejarem. No mundo digital, mais especificamente na Web, não é muito diferente.

Esta idéia de classificação surgiu no início da Web com o surgimento dos diretórios, onde haviam várias categorias para você escolher em qual seu site se encaixava. Com a evolução da Web e das tecnologias, surgiram os mecanismos de busca, capazes de escolher automaticamente as melhores páginas que atendem melhor as suas necessidades, no caso, a sua consulta.

Toda esta capacidade de escolha dos mecanismos de busca atendem à algoritmos, índices e indicativos de qualidade, onde cada página recebe um determinado peso para uma consulta singular. Em termos gerais, se sua página é bem relevante ao algoritmo, ela deve aparecer bem posicionada nos resultados de uma ou mais consultas.

Mas você deve se perguntar: quais estes famosos algoritmos ou índices?

Podemos resumir os algoritmos de rankeamento em três principais: o PageRank, o famoso algoritmo do Google; o TrustRank, desenvolvido por pesquisadores de Stanford e do Yahoo!; por fim, e não menos importante, o BrowseRank, recentemente divulgado pela Microsoft.

1.4.1 PageRank

O PageRank é um algoritmo de avaliação de um agrupamento de páginas interlinkadas, como por exemplo a Web, que tem como finalidade classificar as páginas por relevância perante a este conjunto de páginas.

Ele foi desenvolvido em 1995 na Universidade de Stanford por Larry Page, daí vem o nome “Page” Rank. Mais tarde, Sergey Brin ingressou no projeto, dando origem, em 1998, a um novo mecanismo de busca, o Google.

A idéia básica por trás do PageRank é que cada link conta como se fosse um voto. Quanto mais votos (links) sua página recebe, maior a sua relevância.

Hoje, o PageRank conta com mais de 200 fatores para classificar uma determinada página, não incluindo apenas o voto (link), mas sim fatores como, quem linka, onde linka e sobre o que linka.

De forma geral, o PageRank foi um dos algoritmos mais importantes na Web, que conduziu a busca na internet a um patamar muito diferenciado do que se encontrava. Ainda hoje, empresas como Yahoo! e Microsoft almejam desenvolver um algoritmo tão bom e preciso como o PageRank do Google.

1.4.2 TrustRank

O TrustRank é um algoritmo de rankeamento baseado em confiança. Foi desenvolvido por Gyongyi, Garcia-Molina e Pedersen em 2004 e tem basicamente a mesma filosofia do PageRank: avaliar páginas na Web.

Podemos ver o TrustRank como uma adaptação do PageRank, mas com uma diferença principal: são escolhidas páginas de semente, onde a confiança é dada e assim, ela se espalha pela Web.

Por exemplo, atribui-se que o New York Times, um jornal americano respeitável, possui 1.0 de confiança (trust). Para cada página que ele linkar é “passado” um indicativo de confiança (trust), tornando aquele site mais confiável. Em seguida, cada página linkada por este outro site ganhará confiança (trust) também.

Agora imagine toda a Web, contendo sites de confiança, tais como Google, New York Times, Yahoo!, NASA, UOL, Terra, e em contra-partida contendo sites de baixa confiança, que exploram temas de conteúdo adulto ou conteúdo pirata. Os resultados de busca mostrariam os resultados priorizando aqueles websites com uma boa confiança.

Um importante fato é que neste tipo de algoritmo o processo inverso é possível, ou seja, pode-se definir quais páginas são SPAM e propagar um nível negativo de confiança, assim, sites que se relacionam com páginas de trust negativo poderiam se prejudicar no rankeamento final.

1.4.3 BrowseRank

Diferentemente do PageRank e do TrustRank, o BrowseRank é um algoritmo que avalia o comportamento do usuário na Web. Desenvolvido no ano de 2008 por pesquisadores da Microsoft, o novo algoritmo promete entrar com força no mercado já no Internet Explorer 8 e desbancar a hegemonia do Google como mecanismo de busca mais utilizado.

Basicamente o BrowseRank possui duas informações cruciais: quais páginas o usuário visitou e quanto tempo ele permaneceu nelas. Estas duas métricas podem realmente fazer diferença, uma vez que saber o tempo que cada usuário permaneceu em cada página pode dizer se aquela página é de confiança e possui um conteúdo relevante, assim como, podemos notar facilmente como o usuário se comporta de página em página, e quais os caminhos que ele faz com mais freqüência.

O grande ponto em que os autores do BrowseRank sustentam o seu algoritmo é que o PageRank é facilmente manipulável, pois, por exemplo, podemos criar um conjunto de websites que podem linkar para uma determinada página, o chamado link farm, fazendo com que o PageRank da página alvo seja inflado.

1.4.4 Devo me preocupar com os Rankings?

Eu diria sim e não ao mesmo tempo. Se você é daqueles como eu, que depende dos rankings para o seu trabalho ou website, eu diria que sim, você deve estudá-los, aprender como funcionam, saber como explorar o melhor do seu website para conseguir os melhores rankings. Já se você não liga muito para rankeamento ou status, ou ainda não liga para quantos usuários visitam o seu website, não esquente a sua cabeça, continue produzindo o seu conteúdo de qualidade.

O importante a ser fixado é que os rankings existem e sempre existirão, cabe a você estudar, entender e utilizar da melhor forma possível, pois o resto, eles fazem por você.

Capítulo 2 – Entendendo SEO

Search Engine Optimization (SEO) é um conjunto de técnicas, métodos e/ou estudos que visam melhorar o posicionamento de suas páginas no mecanismo de busca, ou seja, quando um usuário digita no mecanismo de busca uma palavra-chave, o objetivo do SEO é fazer com que uma (ou várias) das páginas do seu website, apareça entre os primeiros resultados da busca orgânica.

É muito importante não confundir os resultados orgânicos com os resultados patrocinados. Como exemplificado na imagem, os resultados orgânicos são marcados com verde e os resultados patrocinados são marcados com vermelho.

Google SERP

Entre estas técnicas e métodos, podemos dividir o SEO em duas frentes distintas: os fatores On-Page e os fatores Off-Page. Pela tradução direta, os fatores On-Page caracterizam-se por técnicas que alteram ou melhoram aspectos internos do site. Já os Off-page caracterizam-se pelos aspectos externos.

Entre os principais fatores On-Page, podemos listar:

  • Títulos das páginas
  • Meta tags
  • Heading tags
  • Atributo alt em imagens
  • Domínio
  • URL do arquivo
  • Conteúdo

Com relação aos fatores Off-Page, podemos listar:

  • Número de links externos
  • Qualidade dos links externos
  • Texto âncora dos links externos
  • Idade de um domínio

Os fatores mencionados acima são apenas a “ponta do iceberg” uma vez que existe uma página, criada pela empresa SEOmoz, mostrando cerca de 200 fatores e comentários de especialistas de SEO em cada um destes fatores.

Esta página ilustra claramente o trabalho de um profissional de SEO, que deve realizar uma engenharia reversa nos mecanismos de busca, testando modificações nas páginas de um website, a fim de detectar possíveis indícios de um novo fator.

Capítulo 3 – Fatores On-Page

Conforme mencionado anteriormente, os fatores de otimização On-Page objetivam a melhoria de quesitos diretamente ligados ao site, ao seu código fonte e podem envolver alguma necessidade de programação ou toque de criatividade para obter os melhores resultados com estes fatores.

3.1 Título da página

De todos os fatores On-Page, o título da página, definido pela title tag (<title>), é o mais importante ponto a se trabalhar em uma página. É quase uma unanimidade que este seja o fator mais importante em um site. Salvo o conteúdo, que não será tratado aqui como um fator, já que é o mínimo esperado de um site, a title tag merece toda a atenção do SEO.

3.1.1 Keywords e Nome do Site

Na composição do título de cada página, é primário que sejam utilizadas as palavras-chave mais pertinentes ao conteúdo oferecido por cada página, e interessante que o nome do site apareça também, assim, cultiva-se uma fixação da marca do site a medida que as pessoas se deparam com suas páginas nas ferramentas de busca.

Preferencialmente, o nome do site deve vir depois do título contextualizado da página, de forma semelhante à procedida na Agência Mestre:

  • Guia de SEO | Agência Mestre
  • SEO na Title Tag – Melhore os Títulos do seu Site | Agência Mestre
  • Ferramentas de SEO | Agência Mestre

Quando a sua marca tem relação com o conteúdo, tem-se o benefício adicional de carregar mais uma ocorrência de uma keyword importante no título da página. Quando não tem, ainda assim é válido utilizar o nome do site ou empresa para fixação/exposição da marca.

3.1.2 Quantidade de Caracteres

Além de observar a estrutura do título, outro ponto a se prestar atenção é a quantidade de caracteres utilizados no título das páginas.  Não existe nenhuma regra definindo a quantidade ideal, mas o bom senso e um pouco de observação ajudam a chegar a um bom número.

Tradicionalmente, recomenda-se o uso de 63 caracteres, pois assim, assegura-se que cada palavra no título será mostrada por inteiro nos resultados de pesquisa. Mas, com um pouco mais de observação sobre o título, percebe-se que não há perda se a quantidade de caracteres ultrapassa essa quantidade. Claro, não interessa que sejam 100 ou 120 caracteres, mas cruzar a linha dos 70 e mantidos abaixo de 80,  ainda consegue-se um bom efeito de SEO.

O ponto negativo de cruzar esses limites é que, embora a Search Engine capture a informação que está além dos 70 caracteres, o usuário não vai ver, pois, tipicamente, as Search Engines utilizam reticências (…) quando o título fica grande demais. Se a perda for pequena para o usuário e houver vantagem para a Search Engine, então vale a pena utilizar títulos maiores.

3.1.3 Sopa de Letrinhas ou Manchetes?

Mas antes de pensar em quantidade de caracteres, o papel do SEO é pensar em um título chamativo e criativo, informativo e curioso, para, de fato, atrair o clique do usuário. Não é interessante montar um título com uma pura e simples repetição de keywords:

  • SEO, Otimização de Sites, Search Engine Optimization, …

É muito mais pertinente que o título seja informativo sobre o que será encontrado no conteúdo de tal página. O título não deve ser uma salada de palavras-chave, mas, sim, uma manchete de jornal, de modo a fazer o usuário se interessar e querer saber mais sobre o conteúdo da página. Esta é a hora de exercer a criatividade e produzir títulos inteligentes, misturando a necessidade de palavras-chave para o SEO com a transmissão de informação.

3.2 Meta Tags

Seguindo a Title Tag, as meta tags a se prestar atenção agora são a meta description tag e a meta keywords. Com certeza, muitos vão torcer o nariz ao ler isso e pensar em outras meta tags que, inclusive, têm funcionalidade em SEO, como a meta tag robots. Mas vale frisar: vou falar das meta tags mais importantes para o SEO!

Para continuar o ramo da discórdia, eu sei que também deverá ser questionada a importância da meta keywords, já que, hoje em dia, muitos SEOs declaram que ela é irrelevante e muitas Search Engines as ignoram, mas vou mantê-las aqui por enquanto.

Um dos pontos a se atacar quando se está fazendo a otimização on-page de um site é a criação de meta tags para cada uma de suas páginas. Mas tanto para a description, quanto para a meta keywords, o mesmo é válido e deve ser uma regra:

Criar meta tags únicas, criativas e que seu conteúdo seja fortemente relacionado ao conteúdo da página em questão.

Isso faz toda a diferença no ranking de uma página para suas palavras-chave alvo.

3.2.1 Meta Tags de Qualidade

Gerar meta tags automáticas a partir do tema do site, ou da página, é uma alternativa muitas vezes viável e prática, mas com certeza a criação manual de meta tags gera resultados muito mais relevantes. Claro que isso não é possível de ser feito para 100% dos sites e das páginas. Mas a automatização deve ser deixada para último caso mesmo.

A qualidade de uma meta tag tem dois lados a serem avaliados:

  • Como uma pessoa avalia a meta tag
  • Como um buscador avalia a meta tag

Para uma pessoa, a meta tag precisa ser chamativa, interessante, informativa, curiosa e com um toque de call-for-action. Para um buscador, a meta tag precisa de uma dose de palavras-chave para que o algoritmo da ferramenta de busca classifique bem a página. O essencial no desenvolvimento de meta tags é achar o meio termo entre esses dois lados.

A meta description se encaixa muito bem na descrição anterior, já para as meta keywords, basta selecionar as palavras importantes da página e listá-las juntamente com suas variações e sinônimos. Apesar do baixo (ou nenhum) valor dessas meta tags para Search Engines, alguns sistemas de social bookmarking podem ainda sim usá-las para classificar o conteúdo da página em seu sistema. Para esses casos, fica interessante manter o uso de meta keywords nas páginas do site.

3.2.2 Meta Tags: Quantidade

Quantidade também é uma informação a se ficar atento no que diz respeito às meta tags, mas, claro, não é sobre a quantidade de meta tags, e, sim, a quantidade de caracteres em cada meta informação. Esse, provavelmente, é o maior desafio na criação de meta tags.

Por exemplo, da mesma forma que ao criar um título, é interessante que apareça o nome do site, mais o título da página e mais algum outro detalhe relevante, tudo isso sem ir além de 70 caracteres; para meta description, a preocupação é não cruzar 160 caracteres e ainda passar o recado sobre o conteúdo da página utilizando os termos importantes para a página.

Para manter o controle sobre a quantidade de caracteres, procure um contador de caracteres como o que nós temos em nossa página com ferramentas de SEO:

Essa informação sobre a quantidade de caracteres em cada meta tag é importante para que seja mais bem controlado o tamanho (em caracteres) de cada frase e para que elas não fiquem parecendo (ou sendo, de fato) spam. Ultrapassar a quantidade esperada de caracteres em cada meta tag é um forte indicativo de tentativa de spam.

Claro que cada valor não precisa ser seguido à risca – 161 caracteres na meta description não vai ser motivo de punição para um site. Por outro lado, 100 caracteres de pura repetição de palavras-chave não é nem um pouco recomendado. É preciso, realmente, achar o ponto de equilíbrio entre quantidade e qualidade. A nossa página do contador de caracteres tem mais detalhes sobre a quantidade de caracteres de cada meta tag.

3.3 Page Headings – HTML Tags: H1 – H6

Este é um fator On-Page que está começando a ser questionado, em especial, se realmente existe algum valor em utilizar a tag <h1> em uma página como um indicativo de conteúdo, como o título da página. Em um de seus vídeos, Matt Cutts respondeu à esse questionamento informando que é sim útil utilizar as heading tags de forma moderada e organizada – utilizar com o fim ao qual foi proposto: A organização do conteúdo em tópicos e subtópicos.

As tags heading (h1 – h6) foram criadas com o intuito de marcar pontos em destaque no seu conteúdo, mas nem sempre elas são usadas de forma adequada para fornecer ao usuário uma boa experiência na leitura. Embora para o usuário isso possa ser ainda transparente, ou seja, embora visualmente possa não ser perceptível a diferença entre um conteúdo bem organizado contra um mal organizado entre essas tags, para uma Search Engine, a organização faz todo o sentido.

Os mecanismos de busca definiram que as heading tags possuem um grau de importância para o posicionamento de sites obedecendo a mesma filosofia que nós usamos na leitura dos subtítulos de um texto, por exemplo. Com esta importância dada as heading tags, é fundamental o SEO utilizá-las de forma clara e efetiva.

3.3.1 Uso Correto de Heading Tags

A tag <h1> deve ser usada como o título principal da página, e de conteúdo muito parecido (ou igual) ao conteúdo da própria title tag. É a heading tag mais importante para uma página, informando o principal conteúdo da página. Obviamente, nela deve aparecer a principal palavra-chave da página, ficando visualmente destacada para o usuário. Desta forma, o destaque visual indica ao visitante o principal foco da página, e o fato de ser a tag <h1>,  fica indicado para a Search Engine esse mesmo foco.

Subsequente a tag <h1>, a tag <h2> deve ser utilizada quando a página abordar subtópicos referentes ao tópico mencionado no <h1>; é aí que são utilizadas variações de palavras-chave, bem como aumentada a ocorrência da palavra-chave do tema da página em pontos importantes, aumentando a relevância da página em seu tema.

Daí em diante, o processo é o mesmo para as demais tags. Se for utilizada a tag h3, ela deve ser um subtema do que está sendo tratado no h2. Para as tags h4 -h6, funciona da mesma maneira. Em vias práticas, raramente uma página irá além da heading h3, a menos que seu conteúdo seja muito extenso e de fato seja necessária a divisão em tópicos cada vez mais refinados, como é o caso deste guia.

É importante fixar que cada página deve conter um, e apenas um, <h1>. Outro fato muitas vezes esquecido e que consiste de um erro é quebrar a hierarquia das heading tags. Esta hierarquia define o uso correto das heading tags por ordem de relevância e sequência de uso no código HTML de uma página. Por exemplo:

H1

  • H2
  • H2
    • H3
      • H4
      • H4
    • H3
  • H2

Esta estrutura segue o aninhamento de heading tags e esta é a ordem segundo a qual essas tags devem ser encontradas no código, ou seja, ao se fazer a leitura (leitura mesmo) do código HTML, a primeira heading tag encontrada deve ser o h1. Prosseguindo a leitura, deve ser encontrado um h2, que pode estar divido em headings h3 e assim por diante. Também, fica válido um novo subtópico pertencente a um h2 ou um novo subtópico marcado em um h2, derivado do tema principal marcado pelo h1 da página.

O contrário de seguir essa hierarquia ficaria assim, por exemplo:

H3

  • H2
  • H1
    • H4
      • H3
      • H2
    • H4
  • H2

As heading tags são semanticamente definidas para estabelecer títulos e subtítulos em um conteúdo, e assim elas devem ser utilizadas.

3.3.2 Exemplo de Uso

O uso apropriado de heading tags pode ser exemplificado da seguinte maneira:

  • <h1>SEO – Otimização de Sites</h1>

Neste h1, ficou definido o tema principal da página. Ela é sobre SEO.

  • <h2>Estratégias de SEO</h2>

Já no texto do H2, algo mais específico, ou seja: uma subseção do H1, mas ainda com keywords relacionadas com a página. Isso ajuda as ferramentas de busca e, principalmente, o usuário a achar e classificar o que o site oferece.

  • <h3>Otimização On-Page</h3>

Assim como no H2, o H3 tem que ser um complemento do Hx(1-5) superior. E essa regra deve ser seguida até a tag H6, criando relacionamentos e organização de conteúdos de modo a orientar, tanto Search Engines, quanto visitantes, sobre o que é oferecido na página.

3.4 Palavras-chave – Conteúdo e URLs

O uso de palavras-chave deve ser planejado basicamente em 2 ramos: conteúdo e URL. Para conteúdo, é importante definir quais palavras serão utilizadas em cada página, bem como a distribuição de todas palavras pelo conteúdo do site. Já as URLs devem ser criadas baseadas no conteúdo que ela vai hospedar, geralmente, apresentando uma variação da keyword principal de tal página.

3.4.1 Desenvolvimento do Conteúdo

Aliado a idéia de organizar o conteúdo em subtópicos e definir heading tags está o planejamento do uso de palavras-chave ao longo de uma única página, bem como de todo o site. A cada novo subtópico, ramo ou derivação de tema, uma nova palavra-chave surge (e são chamadas de keywords de Long Tail) e deve ser bem cuidada. É muito comum entre SEOs ou donos de sites que se detenha toda atenção sobre a keyword principal do negócio, por gerar um volume alto de buscas e visitas individualmente. Mas isso é um erro grave.

Uma análise sobre as visitas de todas keywords de entrada em um domínio pode mostrar que, embora individualmente uma única palavra possa gerar, por exemplo, 1000 visitas (e ser a principal entrada de visitas isoladamente) contra 200 ou 100 visitas sendo geradas por keywords secundárias, o volume de visitas por keywords secundárias frequentemente supera o volume dessa keyword principal.

Ou seja, embora uma única palavra, a principal, possa gerar 5 vezes mais visitas que uma secundária (1000 vs. 200 visitas), todo o conjunto de visitas por keywords secundárias, supera essa keyword principal (1000×1 vs. 200×50 visitas).

Por isso a importância de considerar, também, as palavras secundárias e procurar listá-las todas para se ter uma melhor visão sobre o que pode ser conteúdo para uma página ou para um site. É como escrever um conteúdo pensando em otimizar a palavra “SEO”, mas também considerar o uso de “Estratégias de SEO”, “Análise de SEO”, “Otimização SEO” ou outras combinações dentro de uma mesma página e distribuídas por todo o site.

3.4.2 Otimização de URLs

Uma URL óbvia é uma ótima URL. Quando se olha para a barra de endereços do navegador e se consegue saber qual o conteúdo da página, antes mesmo de carregar esse conteúdo, temos uma URL perfeita. Uma única e simples linha que transmitirá informação suficiente sobre conteúdo e chamará atenção por si só.

A otimização de URL começa com a escolha do nome do domínio. Preferencialmente, a URL do domínio deve conter a keyword principal a se trabalhar no site. É notável como Search Engines valorizam e posicionam bem sites cujo nome do domínio são idênticos ou muito próximos dos termos buscados. A razão para isso é que a Search Engine interpreta isso como uma pesquisa navegacional.

Uma pesquisa navegacional se caracteriza por ser buscado o nome de um site, é como pesquisar “Agência Mestre” – é óbvio que o melhor resultado a se retornar será www.mestreseo.com.br. Assim, se a sua keyword principal é “ração para cachorro”, “camisetas de futebol”, etc., e o seu domínio for www.racaoparacachorro.com.br, www.camisetasdefutebol.com.br, etc., a Search Engine vai interpretar as buscas nessas keywords como navegacionais, favorecendo os sites.

Já no quesito URLs de conteúdo (das páginas do site), quanto mais curta a URL, mais fácil será lembrá-la, copiá-la, passar adiante, usá-la de todas as formas possíveis, facilitando sua divulgação. E,  de preferência, que sejam URLs sem parâmetros:

  • mestreseo.com.br/artigos/artigo-sobre-seo

Ao invés de:

  • mestreseo.com.br/artigos.php?id=132

Mesmo sendo um único parâmetro, é fácil observar que na primeira URL há uma ocorrência da palavra “SEO”, o que aumenta a relevância da página em uma busca por SEO ou artigo sobre SEO. Outro detalhe, é que números dificilmente agregram algum valor para a URL, é muito melhor o uso de palavras. Casos como “Copa do mundo 2010”, o número na URL vai fazer diferença, mas no caso geral, números não agregam valor.

Outro ponto a se observar é o separador das palavras na URL. São aceitos diversos por Search Engines, como +, _ e -. Não tenha dúvidas, vá de hífen (-) como separador das palavras, tal como no primeiro exemplo anterior. É a forma mais comum e mais difundida, não há razão para inventar ou utilizar outros separadores.

3.5 Atributo ALT de Tags de Imagem

O atributo alt aplicado em imagens é mais um item frequentemente deixado de lado na otimização de sites. Sua sintaxe HTML é a seguinte:

  • <img src=”image.jpg” alt=”Uma Imagem” />

ALT é o comando usado para identificar o Alternate Text, o texto alternativo que é exibido quando a imagem não é carregada. Tem função de suprir essa informação e também cumpre a função de acessibilidade, para ser proporcionada uma leitura da imagem. O importante é que este atributo funciona, realmente, como uma opção de acessibilidade para Search Engines. Ainda hoje, Search Engines não estão preocupadas em identificar imagens com base unicamente na imagem. Elas dependem de palavras descritivas.

Este é o propósito inicial do alt text, mas para o SEO, é mais do que isso: é uma fonte para  a adição de mais uma ocorrência de uma keyword no conteúdo de uma página, afinal, a imagem também conta como conteúdo da página. Obviamente, a imagem deve ser relacionada ao conteúdo e o alt text relacionado à imagem, assim, fecha-se o ciclo sobre a utilidade do alt text para a otimização On-Page.

Recentemente, muito se tem comentado sobre a importância de utilizar o alt text para agregar conteúdo à página e, mais uma vez, o Matt Cutts já afirmou que é importante usar o atributo e que ele deve conter até cinco palavras para não levantar a suspeita de spam. Além do mais, 5 palavras são suficientes para definir uma imagem. A questão é: quais 5 palavras?

O atributo alt é uma boa opção para aplicar as variações de keywords mais complicadas de se conseguir em um texto natural: “Otimização de SEO”, “SEO estratégia”, “SEO ferramentas”, … Vale lembrar ainda que o alt text vale como texto âncora quando a imagem está inserida em links

  • <a href=”…”><img src=”…” alt=”texto âncora” /></a>.

3.6 Linkagem Interna

A otimização dos links internos é também um passo fundamental. Os links internos são os links mais fáceis de se manipular – você pode escolher o texto âncora que desejar e fazer cada link a partir da posição de conteúdo que achar mais apropriada. Você pode escolher pelo uso de nofollow ou não; e a quantidade de links.

Além disso, e também muito importante, é o planejamento da linkagem interna como um todo. Qual página, ou grupo de páginas, tem links para quais outras páginas. É interessante observar isso e manter sempre a troca de links interna entre conteúdos relacionados.

Por último, o planejamento dos link internos serve também para garantir que a Search Engine encontre e consiga navegar por todas as páginas do domínio, desde que sejam feitos links com essa proposta. Isso significa, também, que o PageRank será distribuído entre todas as páginas do site, aumentando a possibilidade de ter todas as páginas indexadas e deixando-as mais competitivas nos resultados de busca.

Capítulo 4 – Fatores Off-Page

Diferente dos fatores On-Page, os fatores de otimização Off-Page não estão diretamente ligados ao site, ou à alterações no site, mas para a otimização do seu funcionamento, é importante que o SEO On-Page esteja bem estruturado para, de fato, se obter proveito máximo dessa otimização Off-Page.

4.1 Quantidade de Links de Entrada (Inbound links)

Links de entrada (inbound links) são os links que outros sites apontam para uma página do seu website. No início do PageRank, a regra era simples: quanto mais links, melhor. Mas esta visão mudou bem desde a concepção inicial do algoritmo. Ainda sim, a quantidade de links recebidos por uma página é uma métrica importante utilizada para definir seu posicionamento em uma determinada pesquisa. Eis a razão de tanta busca por links, de sempre querer mais links.

Através do Google e do Yahoo você pode verificar facilmente a quantidade de links para um domínio. No Google entre com o operador link: e em seguida digite o domínio desejado. Já no Yahoo! você deve entrar no SiteExplorer e digitar o domínio desejado.

É importante frisar que o operador link: do Google retorna apenas parte do conjunto de links e não a totalidade dos links que apontam para um domínio. Ainda, essa parte é aleatória, ou seja, não representa os links mais importantes, nem os mais recentes ou qualquer relação deste tipo. Para se ter a relação de links com o Google, somente através das Ferramentas para Webmasters oferecidas pelo Google.

4.2 Popularidade Global dos Links para o seu Site

Uma das principais métricas que os Search Engines usam na medição de “popularidade” do seu website é a diversidade de domínios que linkam para você, ou seja, não importa tanto quantos links você recebe, mas sim a quantidade de domínios diferentes que apontam para o seu website.

Um exemplo simples para este caso é saber que um site que possui 1.000 links de 1.000 domínios diferentes, irá rankear melhor do que um website que recebe 1.000 de 200 domínios diferentes. Logicamente neste exemplo estamos descartando todos os outros fatores.

4.3 Qualidade dos Links de Entrada

De nada adianta receber muitos links e de vários domínios diferentes se a qualidade dos websites ou páginas não possuem uma boa reputação. Para isto é importante saber de quem você recebe um link, olhando os fatores daquela página. A regra aqui é simples, é muito importante que o link que você recebe seja de um site relacionado ao seu, que não esteja banido pelos Search Engines, e que seja de conteúdo original.

Mas, como sempre, surge a dúvida: Como saber se um link é de qualidade? Tipicamente, links de qualidade vem de sites de qualidade, como grandes portais e grandes marcas. Mas não se limita a isso. Sites menores de nicho específico e que são reconhecidos como autoridade no assunto que tratam, também são provedores de links de qualidade. Não é uma questão de tamanho do site, mas quão idôneo é seu conteúdo.

O problema é receber diversos links de sites de baixa qualidade ou que sejam de fato apenas spam. A princípio, eles podem somente não agregar valor. O caso grave é o site, de fato, receber uma punição por receber tantos links de baixa qualidade.

4.4 Relacionamento de Conteúdos

Outra fator importante a se observar para se tirar proveito de um link, é o relacionamento entre os conteúdos “linkado” e “linkante”. As Search Engines não valorizam um link somente por texto âncora e relevância da página que faz o link. Elas analisam, também, a relação de conteúdos, ou seja, se ambas páginas tratam o mesmo assunto (futebol com link para outra página sobre futebol), o valor do link é maior do que se os conteúdos não são relacionados (futebol com link para página sobre carros).

Esta métrica tem sido amplamente utilizada no Google para dar maior relevância em buscas locais, fazendo com que pequenos websites de nichos especificos, possam alcançar bons rankings nas páginas de resultado.

4.5 Taxa de Aquisição de Links

Uma métrica a ser observada pelos profissionais de SEO é a taxa de aquisição de novos links. Apesar de ser um bom objetivo ganhar links, não é um bom sinal ganhar muitos links de uma única vez pois os Search Engines podem detectar isto facilmente e pensar que é algum tipo de manipulação.

4.5.1 Link Spikes

Se você monitora constamente o número de links para o seu site e de seus concorrentes, vai perceber que às vezes ocorre um comportamento singular na curva de crescimento de links: grandes aumentos seguidos de quedas bruscas.

Esses “picos” na curva de crescimento de links são chamados de link spikes e o seu comportamento pode ser observado no gráfico abaixo:

spikes

Além de serem muito interessantes para acompanhar as tendências de pesquisas (os usuários só fazem links para aquilo que procuram / acham interessante), eles servem para indicar se um site pode ou não ser penalizado pelas Search Engines.

Antigamente, uma prática comum dos spammers era aumentar absurdamente a quantidade de links de entrada de um site, para que esses subissem na classificação. Com a melhora dos algoritmos das Search Engines, essas técnicas não surtem mais o efeito esperado – e são até punidas.

A criação súbita de muitos links para um site pode ser interpretada como uma tentativa de manipulação de resultados, ao invés do acúmulo natural de links sem qualquer interferência. Podendo ser motivo para levantar a bandeira para um determinado site, ou até mesmo puni-lo.

Obviamente que não é qualquer pico de links que vai acarretar em punições nas Search Engines. Vale ressaltar que existem vários tipos de link spikes – e é isso que vai determinar ou não uma punição.

4.5.2 Causas de Link Spikes

Os Link Spikes podem acontecer naturalmente ou não, e podem ter vários motivos. Sendo eles:

  • Links Pagos
  • Link Bait
  • Comportamento
  • Notícias

Os motivos que levam ao link spike é que são determinantes para dizer se foram, ou não, motivo para a punição de um site.

Vamos supor que um site não utiliza nenhuma rede social para divulgar suas páginas, serviços e conteúdo. Aumentos súbitos de links, sejam eles com âncoras perfeitas ou genéricas, podem estar denunciando uma compra descarada de links. Isso pode levar a uma punição.

O link bait também deve ser utilizado com cuidado. Ater-se ao foco do conteúdo do site é de extrema importância – o crescimento de links para o seu site vindos de sites que não tem conteúdo relacionado ao seu, não vão te acrescentar nenhum valor em termos de Pagerank. Além do mais, as visitas vindas de links de assuntos não relacionados geralmente têm altas taxas de bounce.

Os links gerados pelo próprio comportamento dos usuários não são motivo de preocupação. As pessoas só fazem links para aquilo que as chama a atenção ou se interessam – e isso pode acontecer de maneira sazonal ou não. Por exemplo, vamos analisar as buscas por flores e presentes nos últimos 12 meses, no Brasil:

insights3

Em dezembro (natal) há um grande aumento das pesquisas para presentes e um leve aumento para flores. Já em maio e junho (dia das mães e dia dos namorados, respectivamente), há picos maiores para as pesquisas por flores do que para presentes.

Se você tem um site sobre “flores”, em dezembro, maio e junho você provavelmente terá um aumento considerável de links para o seu site – o que provavelmente representará um link spike na sua curva de crescimento de links.

O mesmo comportamento das pesquisas sazonais é observado para as notícias. Para exemplificar, podemos citar a morte do cantor Michael Jackson. Abaixo, segue o gráfico das buscas por esse assunto no Brasil nos últimos dois meses:

michael

Com a morte do cantor, o número de buscas por suas músicas cresceu muito – não tanto quanto as buscas pelo nome do próprio cantor. Um site sobre músicas e letras de músicas, por exemplo, provavelmente teria um crescimento razoável de links nessa época.

É válido ressaltar que numa campanha de link building, mais vale a qualidade do que a quantidade.

Monitorar a quantidade de inbound links do seu site / blog é de extrema importância para os seus trabalhos de SEO. Além de te fornecer informações sobre os efeitos de suas campanhas de link building, você também é capaz de verificar o comportamento geral dos usuários para determinadas pesquisas – que pode te auxiliar a melhorar as suas estratégias, desde o uso de keywords e a elaboração de conteúdo, até a procura por links externos.

4.6 Links Recíprocos

Um dos caminhos mais fáceis a se seguir para conseguir links é através de links recíprocos, ou troca de links, ou, em inglês, link exchange. Como sabemos, além da linkagem interna, receber links externos, ou seja, de outros domínios (sites/blogs), é importante para um bom posicionamento de sites nas buscas. Mas por que esse método é tão usado? Como funciona? E por que tomar cuidado com links recíprocos?

4.6.1 O que são Links Recíprocos?

Em inglês, são também chamados de reciprocal links, uma tradução exata do termo, links recíprocos consistem de um número de sites que se interlinkam ou um único site que troca links exclusivos com outros sites.

Links Recriprocos

O processo para se formarem links recíprocos é muito simples: normalmente o webmaster de site ou blog entra em contato com outro e oferece um link para ele, pedindo em troca um linkback, um link para ele mesmo a partir do site ou blog deste outro webmaster.

Isso costuma funcionar muito bem. Como todos estão interessados em conseguir links, nada mais justo do que uma troca de links, assim, ninguém sai “mais favorecido” que o outro. Os dois ganham links e pronto.

Algum tempo atrás isso fez popularizar os Rings ou anéis/alianças de sites em que todos linkavam um para os outros, normalmente por meio de banners, gifs animadas ou imagem que eram os logos desses sites. Ainda hoje, isso existe e muitos sites e blogs participam de esquemas assim.

Para os mais familiarizados com SEO, isso já acendeu o sinal de alerta, certo?

4.6.2 Cuidado com Links Recíprocos

Para os menos familiarizados com técnicas de otimização de sites, o alerta, aqui, fica por conta do chamado link farm, “fazendas de links”. Link farm define um conjunto de sites que linkam um para os outros ou um conjunto de sites que linkam todos para um só site, também chamados de doorway pages. O ponto importante a se observar: Link Farms são punidas pelo Google.

Pois bem, recentemente, o Matt Cutts fez uma enfatizada ressalva sobre “evite o uso de links recíprocos” na sua campanha de Link Building. O que para ele representou essa significativa mudança foi a adição do termo “em excesso”, ou excessivamente, ficando então “evite o uso de links recíprocos excessivamente” em sua campanha de Link Building. Isso faz toda a diferença.

Quer dizer então que o uso de links recíprocos para o Link Building do meu blog está liberado? Não! E sim. O que está dito nas guidelines do Google é que é normal que aconteçam links recíprocos na Internet. Sem dúvida, procurando pelo diretório de sites do Google, será encontrado um link para o Yahoo! e, no diretório do Yahoo!, um link para o Google.

A questão é que são links relevantes, que vão realmente ajudar ou completar o processo de informação do visitante do site.

4.6.3 Valide seus Links Recíprocos

Ainda, o Matt Cutts avisa que um portfolio de links sobrecarregado de links recíprocos acende a luz de alerta no Google. Ou seja, você tem sim o seu limite de links recíprocos: até uma certa quantidade você realmente está livre de punições. É aí que entra a parte de “evite o uso excessivo de links recíprocos”: investir todos seus esforços para conseguir links exclusivamente através da troca de links não será muito saudável. Não é natural que todos (ou a maior parte de) seus links sejam recíprocos.

Hoje em dia eu não vejo mais tantos sites envolvidos em alianças ou coisas do gênero, talvez realmente isso tenha perdido o seu valor. Alguns anos atrás isso era muito frequente.

A princípio, links recíprocos deveriam acontecer dentro do processo natural de descobertas na Internet, e não por pedidos e trocas objetivando ganhar um novo link. Um ponto muito interessante de se refletir quando é hora de decidir entre fazer ou não a troca de links é: Se não houvesse search engines e eu não precisasse de links para as search engines eu faria a troca de links?

Você deve se perguntar se o site para o qual você vai linkar realmente vai ajudar os seus visitantes, se você mesmo visitaria, e por consequência, recomendaria o site. Isso é um link: uma recomendação que você faz ao seu visitante.

Não é que os links recíprocos estejam liberados ou que sejam definitivamente proibidos. Mas se for fazer, tente focar a qualidade e a importância, para o visitante, de visitar tal site.

4.7 Número de Links em uma Página

Uma das perguntas que é mais discutidas na área de SEO é quantos links devo possuir em uma página, ou melhor, qual o número máximo de links em uma página?

Esta pergunta sempre foi muito controversa, vários acreditavam em poucos links, outros diziam que muitos links não tinham problemas. Já na visão do Google, em suas Guidelines para Webmasters possui um comentário sobre a quantidade de links:

  • Make a site with a clear hierarchy and text links. Every page should be reachable from at least one static text link.
  • Offer a site map to your users with links that point to the important parts of your site. If the site map is larger than 100 or so links, you may want to break the site map into separate pages.
  • Create a useful, information-rich site, and write pages that clearly and accurately describe your content.
  • Think about the words users would type to find your pages, and make sure that your site actually includes those words within it.
  • Try to use text instead of images to display important names, content, or links. The Google crawler doesn’t recognize text contained in images.
  • Make sure that your <title> elements and alt attributes are descriptive and accurate.
  • Check for broken links and correct HTML.
  • If you decide to use dynamic pages (i.e., the URL contains a “?” character), be aware that not every search engine spider crawls dynamic pages as well as static pages. It helps to keep the parameters short and the number of them few.
  • Keep the links on a given page to a reasonable number (fewer than 100).

Esta grande questão foi esclarecida em um artigo do Matt Cutts, onde ele afirma que, de início, o Google recomendava isto pelo fato do que somente era indexado 100Kb de uma página, ou seja, uma página com 100 links (ou mais) poderia facilmente cruzar este limite de 100kb e, assim, parte de seu conteúdo (incluindo links) poderia não ser indexado.

Em seguida, ele afirma que hoje a história é outra, o Google indexa muito mais do que 100Kb por página mas, o motivo da recomendação mudou: agora eles pensam na experiência do usuário. Um usuário não gosta de encontrar muitas formas de caminhar na página. Lógico que existem excessões, mas normalmente você deseja poucos links, links informativos, e normalmente isto não passa de 100 links por página.

Mas aí você pode se perguntar, automaticamente o meu site será considerado SPAM caso eu tenha mais de 100 links? A resposta é não.

Does Google automatically consider a page spam if your page has over 100 links? No, not at all. The “100 links” recommendation is in the “Design and content” guidelines section.

É claro, que se você praticar técnicas de Black Hat você poderá ser punido, mas se os seus 200, ou 300 links, forem bem relevantes aos usuários, não existe problema algum.

Um forte argumento para sustentar a idéia de poucos links é a questão do Link Juice, quanto mais links você tiver em sua página, mais você estará distribuindo seu Juice entre as páginas internas. Talvez a melhor opção é pensar em uma arquitetura interna mais organizada ou mais orientada a certas páginas.

4.8 Endereços IP

Cada website cria uma relação com o outro através de um link, conectando duas páginas (ou arquivos). Mas se olharmos como a internet funciona, veremos que cada conexão (link) é uma ligação entre servidores, bem parecido com a idéia do funcionamento da web. E isto pode-se visualizar no momento em que você faz a conversão de um nome de um domínio(URL) em um IP, que nada mais é do que o endereço do servidor na web.

Assim como nós podemos ver o endereço de IP de cada website na internet, os Search Engines podem fazer o mesmo a fim de identificar quem é quem e assim analisar melhor como a web está relacionada. A partir disto, vários links entre páginas com IP classe C semelhantes e do mesmo dono podem ser interpretados como um esquema de troca de links no mesmo servidor, e logo podem ser desvalorizados. Mas para entender esta questão, é importante entender sobre classes e endereços IP.

Primeiro, um endereço IP é um número na forma NNN.NNN.NNN.NNN,  4 números separados por pontos que variam de 0 a 255, mas possuem algumas limitações de uso e especificações. Um exemplo de endereço IP: 64.233.161.104 (Google). Este número é o endereço real de www.google.com – a URL é como uma máscara para facilitar memorização.

O endereço IP é dividido em classes que servem para restringir o uso e cumprir alguns outros detalhes que não interessam no momento. Para este escopo, basta entender a formação do endereço IP e as 3 classes de IP: A , B e C – que dividem e organizam o IP da seguinte maneira:

  • A.B.C.NNN

Voltando à afimação em negrito, sites na mesma classe C são sites que ocupam a mesma faixa de endereços IP, por exemplo:

  • 64.233.161.104
  • 64.233.161.105
  • 64.233.161.110
  • 64.233.161.111

Se uma Search Engine identifica que vários sites de uma mesma classe C estão trocando links entre si e ainda são do mesmo dono, ela passa a desvalorizar todo esse conjunto de links ou até mesmo pode penalizar os sites envolvidos. É como você falar de você mesmo (linkar para os próprios sites) – não diz muita coisa. E dependendo de o quanto você fala de si mesmo, pode acabar com a paciência de quem ouve (usuários / SEs). Em adendo, se você ainda tentar manipular isso para mascarar a propaganda própria e alguém descobrir, com certeza você perderá muitos créditos – a penalização por uma Search Engine.

Sendo assim, evite a troca de links que se configurem neste quadro, a punição pode demorar, mas não falha.

Capítulo 5 – Diretórios

Diretórios de sites são sites na Internet que funcionam como uma biblioteca: possuem várias seções organizadas por tópicos, categorias e subcategorias. Incluir um site em um diretório é como incluir um livro em uma biblioteca: você escolhe o tema e a categoria que melhor se aplicam e deixa o livro catalogado da maneira correta, tal como o site.

Da mesma forma que as pessoas vão até a biblioteca procurar informações, as spiders dos sites de busca, e também as pessoas, vão aos diretórios de sites consultar as categorias e procurar informações. Em especial, as spiders vão coletar informações para o seu banco de dados e organização do seu índice nas páginas de resultado de uma busca.

Mas nem todo diretório é igualmente importante…

5.1 Link Building e Cadastro de Sites

O cadastro de sites em diretórios é um passo dentro do contexto geral de uma campanha de Link Building. Ao cadastrar um site em um diretório e o site receber aprovação para aparecer na listagem de sites deste diretório, surge um novo e importante link para o site a ser divulgado.

Contudo, não basta simplesmente fazer uma busca no Google por diretórios de sites e cadastrar um site em todos os resultados da busca. O Google, e os demais buscadores, não tratam todos os diretórios da mesma forma, pois nem todos os diretórios são idôneos, sendo necessário um pré-julgamento antes de cadastrar o seu site em diretório.

5.2 Escolher Diretórios para Cadastro

A busca diretórios de sites no Google tem mais de 2 milhões de resultados, e a busca cadastro de sites, quase 500 mil. Felizmente o Google, de alguma forma, já fez uma pré-seleção dos diretórios aos quais podemos dar atenção, mas ainda assim, devemos analisar a proposta destes sites para definir se realmente vale a pena o cadastro.

Antes de cadastrar o seu site em um diretório, avalie qual a proposta deste diretório. Por exemplo, os buscadores normalmente dão maior confiança a diretórios que possuam revisores dos sites, ou seja, diretórios que façam uma checagem se o seu site segue à determinadas regras (que variam com o diretório), para ser listado.

Por outro lado, diretórios “pague e você está dentro” tem sua credibilidade em dúvida. Por quê? Porque o Google vê nos diretórios uma fonte confiável de informação, vê que os diretórios são fontes de sites de confiança, sites relevantes e que vão beneficiar o usuário. Se o diretório não for assim, os buscadores não dão tanta consideração para os links do diretório.

Mas isso não significa que diretórios pagos devam ser desprezados, pois o Yahoo! Directory é pago e é de confiança, pois possui revisão editorial do site, ou seja, quando você cadastra seu site no diretório do Yahoo!, uma pessoa verifica se o seu site segue as regras e inclui o seu site ou não.

Uma outra política praticada por alguns diretórios, com a qual se deve tomar cuidado, é a troca de links. Alguns diretórios somente permitem que você cadastre o seu site se, e somente se, você colocar no seu site um link de volta para o diretório. O problema aqui é que pode ficar caracterizada a troca de links, que é passível de punição pelo Google.

Além da troca de links, diretórios com muitas propagandas são duvidosos. Diretórios gratuitos que permitam que você pague para estar na página inicial ou para estar listado devem deixar isso claro, ou seja, devem deixar explicito uma área de “links patrocinados”, onde só aparecem os sites que pagam.

5.3 PageRank, Link Building, Diretórios

Não fique iludido com diretórios que possuam um alto PageRank, o Google pode não estar considerando os links deste diretório se este não for um diretório sério para cadastro de sites.

Aposte em diretórios que tenham sua política de revisão editorial para inclusão em sua listagem de sites ou ainda diretórios que falam do mesmo nicho de mercado que você. Estes sim serão relevantes. Os links que surgirem destes diretórios certamente serão de grande peso e valor para o seu site, aos olhos de Search Engines.

5.4 Vale a Pena Cadastrar Sites em Diretórios?

O Google procura identificar informação de qualidade nos diretórios de sites que encontra pela Internet para dar, ou não, o devido valor ao diretório encontrado. E, justamente por encontrar muitos diretórios de baixa qualidade e baixo controle de cadastro é que ele fez uma significativa alteração em suas guidelines: desde o ano de 2008, não consta mais entre as Guidelines do Google para webmasters a recomendação de que o webmaster deve cadastrar seu site em diretórios.

Essa alteração do Google em suas guidelines não implica que é o fim dos diretórios de sites, pelo menos, não ainda. Apenas é algo que o Google não recomenda mais, mas isso implica em uma forte possibilidade de o Google não mais contar links dos diretórios de site no futuro.

Antigamente, cadastrar sites em diretórios fazia muito sentido, pois eles eram a maior fonte de descoberta de novos sites para as ferramentas de busca. Hoje, se nós refletirmos um pouco, pode-se concluir que já não faz mais tanto sentido cadastrar sites em diretórios para ser encontrado, pois você pode usar as ferramentas para webmasters de cada search engine para contar a elas que o seu site existe e já cadastrar o Sitemap.xml com todas suas URLs.

Se, agora, a única função de um diretório é dar um voto a um site e, cadastrar em dezenas (centenas) de diretórios, só vai fazer influenciar os resultados de busca, faz sentido o Google não considerar links de diretórios que o site cadastrado não seja revisado para que seja validado o voto.

Por enquanto você pode continuar cadastrando em diretórios, eles ainda têm um pouco de força, mas não se limite a isso, pois no futuro, a tendência é que esses links não sejam mais relevantes para o Google.

Capítulo 6 – Pesquisa de Palavras-Chave

Saber o que os internautas procuram na internet é um dos pontos chave quando criamos um site. Quais keywords usar em um site para que os buscadores encontrem o seu conteúdo na web? Para encontrar as palavras-chave que devem ser atacadas é necessário conhecer muito bem o conteúdo do site e descobrir como as pessoas tentam encontrá-lo – as palavras utilizadas exatamente. Para isso, o próprio conteúdo do site deve dar as primeiras dicas na sua pesquisa.

Ainda no começo, é importante identificar o nicho de leitores do site. As palavras-chave podem não estar explícitas nas páginas do site, no entanto, podemos usar palavras relacionadas, palavras que os leitores utilizam para falar do seu conteúdo.

Por outro lado, também devem ser identificadas as palavras negativas ou que estão fora do contexto para que não sejam colocadas keywords com baixo grau de similaridade no mesmo grupo de páginas. Visar o assunto principal de cada página do site e manter o foco é essencial. Utilizar sinônimos como keywords pode ser interessante, mas o foco não pode ser perdido.

No caminho para encontrar as palavras-chave corretas, comece do amplo para obter o específico. Leia sua página e coloque num rascunho todas as palavras que você julgar importantes para a página. Em seguida, analise e observe se realmente todas as palavras escolhidas estão relacionadas a página específica que você esta trabalhando ou se elas não estão se referindo ao site de maneira geral, ou seja, listar keywords relacionadas a SEO e estratégias em uma página que é somente sobre pesquisa de palavras-chave. Embora seja o tema do site, não é o da página.

Feito isso, é hora de expandir esta lista com auxílio de ferramentas e começar a ordenar por quais keywords começar a otimização no site baseando em volume de tráfego, dificuldade de enfrentar a concorrência, custo da palavra-chave em links patrocinados e outras métricas que forem convenientes ou de interesse.

6.1 Ferramentas Para Pesquisa de Keywords

O próprio Google oferece ferramentas que ajudam na pesquisa de palavras-chave. O Google Adwords e o Google Insights são duas das ferramentas de ajuda na pesquisa de keyword mais usadas. Também, o mecanismo de busca do Google é uma opção interessante, tanto pela funcionalidade do Google Suggest, como pelos próprios resultados da pesquisa, onde você vê o que os sites das primeiras posições estão utilizando.

Na sequência detalhes de uso das ferramentas Keyword External Tool (Google AdWords) e Google Insights for Search.

6.1.1 Keyword External Tool – Google AdWords

Na ferramenta de pesquisa de keywords do AdWords (Keyword External Tool) são oferecidas duas opções para obter as sugestões de palavra-chave: inserir palavras ou frases descritivas, ou utilizar a opção de digitar a URL de um site e deixar a ferramenta decidir keywords relacionadas.

Na primeira opção, digitamos palavras ou frases para iniciarmos a pesquisa e obtemos uma lista de palavras relacionadas.

kwdexttool-11

kwdexttool-21

Na lista de resposta da ferramenta, é interessante habilitar a exibição de todas essas informações no drop down sobre as “colunas a serem exibidas”, e assim obter todas as informações. A partir daí, basta analisar cada conjunto de keywords reordenando segundo a importância de cada coluna para obter as mais interessantes, sejam as mais caras, as de maior volume de busca, uma combinação de tudo, enfim, o que for mais interessante.

Outra opção de pesquisa nesta ferramenta, não tão utilizada quanto a primeira, é inserir a URL do site no campo especificado. Neste caso, a própria ferramenta analisa o conteúdo da URL digitada e monta a lista de termos relacionados baseando-se nesta análise do conteúdo.

6.1.2 Google Trends

O Google Trends é uma ferramenta desenvolvida pelo Google para entender o nível de buscas para um determinado termo. Com a ferramenta é possível analisar o comportamento de buscas de uma palavra em comparação com até 4 outras palavras. O gráfico ainda pode ser limitado por tempo ou país, possibilitando visualizar até quais os estados e cidades daquele país realizaram mais consultas sobre a palavra-chave em questão.

Google Trends

6.1.3 Google Insights for Search

No Google Insights, ao serem definidas as palavras a se investigar (até 5 de cada vez), ele retorna o volume de busca de cada keyword e outras informações como termos relacionados mais usados e novos termos relacionados e, ainda, um heatmap para indicar em qual região (país/estado/cidade) cada palavra é mais utilizada.

Alguns filtros podem ser usados para refinar os resultados obtidos. Os filtros podem especificar por região, categorias (Internet, Marketing, Negócios, Computadores e outras) e datas.

Voltando ao exemplo anterior e completando a ferramenta do Adwords, aqui podemos visualizar qual, de fato, seria a melhor Keyword a ser utilizada considerando o volume de buscas em determinada faixa de tempo. Na imagem abaixo, utilizei um filtro de região para somente mostrar dados relativos ao Brasil.

google-insights-11

Nota-se que a busca por notebook hp (azul) é mais intensa do que a busca por notebook asus ou acer, portanto, por volume de buscas, a keyword notebook hp é a que pode agregar mais, por outro lado, pode ser a que mais dê trabalho, se a concorrência for eficiente nos buscadores.

Na sequência, observa-se o heatmap que identifica as regiões de maior procura para uma determinada keyword e, logo abaixo, 2 colunas de extrema importância: Top searches e Rising searches. A primeira é fonte de novas keywords. A segunda, ainda mais interessante, é um top 10 dos termos relacionados que mais tiveram aumento de buscas – aqui está uma grande fonte de conteúdo e linkbait.

Importante notar também o botão “+ Google”, que permite assinar o feed de atualizações de ambas colunas. É essencial acompanhar as principais keywords pelo feed para que sempre sejam identificadas rapidamente novas keywords relacionadas ao conteúdo do site.

6.1.4 Google Suggest

O Google possui em sua página inicial, assim como nas suas páginas de busca, uma ferramenta de sugestão, onde ao digitar uma palavra, ou início dela, o Google lhe dá sugestões do que você pode estar procurando, facilitando assim a sua digitação.

Google Suggest

O interessante é observar que quase sempre o Google provê uma lista de palavras que são muito próximas do que você está procurando e neste caso são boas palavras para você utilizar na sua estratégia de SEO. Já que o Google as sugere, porque não atacá-las em suas páginas?

6.1.5 Yahoo! Search Assist

Assim como o Google possui o seu Google Suggest, o Yahoo! possui o Search Assist, que possui a mesma finalidade de sugerir palavras similares ao que se está digitando. Para a estratégia de SEO é muito importante observar estas sugestões e capturar as palavras que possuem melhor relacionamento com o seu nicho.

Yahoo! Search Assist

6.1.6 Twitter Search

O Twitter é uma importante ferramenta de comunicação em tempo real e o seu conteúdo é muito dinâmico. Através da busca do Twitter é possível saber o que estão falando sobre determinado tema e assim extrair algumas palavras relacionadas ao tema buscado, mas como a ferramenta é dinâmica, você pode acompanhar um tema por tempo ilimitado, dando a possibilidade de se adaptar às novas palavras.

Twitter Search

Capítulo 7 – Link Building

Link Building é o conjunto de técnicas de SEO responsável pela arquitetura interna de links de um site e pela conquista de links externos, que são tão importantes quanto os links internos. Como já explicamos, os links são a forma pela qual os buscadores navegam pela internet, descobrem novos sites e determinam o ranking dos sites. Os links produzem vários benefícios para um website, tais como:

  • Links tornam o seu site mais visível as search engines: Enquanto os robôs de busca viajam pela web, eles seguem links. Eles indexam uma determinada página, seguem os links que saem da mesma, indexam as novas paginas, seguem os links destas e assim por diante. Basicamente os robôs de busca enxergam a internet como a figura abaixo, onde os pontos em vermelho são as páginas dos sites e em verde temos os links:Internet - Uma núvem de linksNo centro da figura podemos notar uma certa concentração da nuvem de links, nesse centro temos os sites mais importantes que recebem a maioria dos links.
  • Search Engines usam a quantidade de links apontando uma página como determinante de importancia da mesma: Quando muitos links apontam para sua página, isso indica para a search engine que a sua página é significativa e que o seu conteúdo é relevante.
  • Links fornecem informação extra sobre a pagina para os quais apontam: As palavras-chave que aparecem nos links que apontam para o seu site muitas vezes são usadas, pelos search engines como informação adicional sobre o seu site. Quando muitos links referenciam o seu site com uma dada palavra, se essa palavra já não for uma palavra-chave do seu site, ela pode ser incorporada como uma.
  • Links trazem robôs de busca para sua página, mas também trazem visitantes: Esta é uma das funções mais importantes dos links, já que no fundo o objetivo de se otimizar um site é atrair mais visitas.

Os objetivos de conseguir links com uma campanha de Link Building são, não só conseguir links para aumentar o PageRank e um melhor posicionamento do site nas buscas, como também conseguir aumentar as visitas do site.

A principal questão quando se fala em Link Building é: como ganhar links? As estratégias de Link Building respondem à essa pergunta e abrem diversas opções de atuação.

Link Building

7.1 Link Building: Por Onde Começar?

Quando se inicia um trabalho de Link Building, o primeiro passo é arrumar a casa, ou seja, vasculhar todo o site, redescobrindo cada página existente e qual o assunto tratado em cada página para que sejam definidas as palavras-chave que cada página deve focar e, por consequência, o texto âncora que deve ser usado para linkar para cada página.

Assim que você tiver o conhecimento de cada página e cada palavra-chave que ela aborda, é hora de começar a linkagem interna das páginas do seu site. É no próprio site que o Link Building começa.

7.1.1 Linkagem Interna

O desenvolvimento de Links Internos faz parte da técnica de Link Building, envolvendo diversos aspectos da própria estrutura do site. E para tal tarefa é necessário que se conheça o site, tão bem quanto a palma da mão.

Faça uma checagem em seu software de Web Analytics, veja quais são as páginas que mais recebem visitas no seu website, veja quais palavras-chave elas abordam e qual o posicionamento destas páginas nos Search Engines. De posse desta informação, crie uma tabela, relacionando uma palavra-chave com uma determinada página e ao encontrar uma destas palavras em um artigo ou conteúdo, faça um link para a página escolhida.

Ao longo desse processo, você acaba descobrindo, e se necessário, re-estruturando a arquitetura de links do site, dando origem a novos links, conforme as páginas são re-escritas, e, de acordo com a qualidade da página que está linkando, é possível conseguir melhorar o posicionamento da página que está recebendo o link.

Para sites muito grandes, demanda bastante tempo, mas com certeza vale a pena e é de resultado certo, pois existem muito mais páginas de onde conseguir links.

7.1.2 Semântica de Links

A forma com que você cria um link em uma página é muito importante, possuindo uma forte relação com a qualidade do Link Building. Para entender melhor como a semântica pode nos ajudar, vamos considerar os seguintes casos:

Qual a melhor opção de linkagem?

Para quem já tem conhecimentos em SEO, rapidamente conclui que os exemplos 1 e 3 são melhores que o segundo exemplo. O exemplo número dois fornece um link, o que é bom, mas não agrega ao link nenhum valor semântico, pois a Agência Mestre (mestreseo.com.br) não é uma referência para “clique aqui”. Se “clique aqui” fosse usado em uma busca, com certeza a mestreseo.com.br não apareceria nas primeiras posições.

O exemplo 1 contém o nome mestreseo, que é o próprio nome do domínio, mas se alguém procurar por mestreseo rapidamente vai encontrar o nosso site.

Outra coisa importante a se notar é que uma URL informativa, porém concisa, ajuda para a relevância que o crawler agrega a uma página, ou seja: se um post tiver a URL www.mestreseo.com.br/posts.php?id=12 , ele não terá nenhum valor semântico para o conteúdo do post. Você consegue supor o assunto de tal post?

Por outro lado, utilizar www.mestreseo.com.br/seo/o-que-e-seo torna-se muito mais informativo e relevante, agora é possível supor do que o post trata.

Finalmente, o exemplo 3 é sem dúvidas a melhor linkagem. Da forma que está escrito, ele fornece o link e, principalmente, campo semântico para o conteúdo daquele link. Quando o buscador chegar a esta âncora linkando para www.mestreseo.com.br e ainda com o texto “dicas de SEO”, ele vai entender que o site é referência para dicas de SEO.

7.2 Links Externos: A Parte Fácil

Agora que você já colocou ordem na casa, a linkagem externa pode ser iniciada. Um bom começo é iniciar o cadastro em diretórios.

Como já vimos, isso não deve ser feito indiscriminadamente. É preciso fazer uma avaliação e seleção dos diretórios aos quais cadastrar um site. O importante é procurar diretórios onde um site somente seja incluído após uma verificação em cima dele, ou seja, o diretório deve ter um controle de qualidade, seja um diretório pago ou gratuito. É importante ainda, procurar diretórios altamente relevantes ao seu tipo de conteúdo, para que eles agreguem um valor semântico maior no link que estarão criando para o seu website.

Outro meio simples de conseguir links que levem pessoas e/ou buscadores para o seu site, é através da divulgação do site por Feeds e Social Bookmarks. As redes sociais onde você pode enviar links de conteúdo recebem muitas visitas diariamente, além de possuirem uma forte autoridade com os Search Engines, logo elas passam a ser uma boa fonte de aquisição de links.

7.4 Links Externos: A Parte Difícil

Até aqui a sua campanha de Link Building vai muito bem, pois só dependeu dos seus próprios esforços e você conseguiu produzir links por conta própria. Agora vem a parte mais difícil, conseguir que outros sites façam um link apontando para você.

Casa arrumada, hora de conhecer os vizinhos. Esse é exatamente o espírito. Para conseguir links de outros sites, uma das piores táticas é ser agressivo: “Olhe o meu site, faça um link para ele”. O mais importante é ser educado e honesto.

Os vizinhos do seu site são os outros sites que tratam do mesmo assunto que você. É destes sites que surgem os links mais interessantes, por serem de assuntos relacionados ao seu. Preferencialmente, aborde os sites que não divulguem exatamente a mesma informação que você mas sim de um tema relacionado possibilitando que você complemente o conteúdo deste outro site.

Digamos por exemplo: a Agência Mestre fala sobre SEO, mas nunca trata de Link Building por não ser especialidade nem interesse do blog falar sobre isso, e eu tenho um pequeno, porém interessante, blog que só trata de Link Building. Eu poderia falar do meu blog e de sua proposta ao Agência Mestre para que quando fosse citado link building no site, o meu blog fosse referenciado. Assim, vão surgir links naturalmente para o meu blog. E como o Agência Mestre é maior que o meu pequeno blog, eu vou ser bem visto.

Em especial, quando se trata de blogs, a abordagem correta realmente é a de começar um relacionamento. Deixar comentários em blogs pedindo links é péssimo, mas ser participativo, deixar comentários inteligentes pode acabar rendendo links.

Para empresas, é mais adequado um email formal mostrando seu interesse, seu conhecimento, sua importância. São links mais difíceis de serem conseguidos.

O mais importante: Conteúdo Relacionado! Consiga links de sites com conteúdo relacionado ao seu : SEO x Link Building, jogos de atari x jogos de wii, cifras de música x letras de música, e por aí vai. Não é proibido ter links de conteúdo não-relacionado, a questão é que estes serão menos relevantes.

7.5 Link Building: Precauções

Nem tudo são flores no processo de Link Building, existem cuidados a serem tomados durante a campanha de Link Building para que o trabalho não seja perdido.

O principal é não se envolver no chamado Link Farm, técnica Black Hat SEO, onde vários sites se interlinkam e acabam todos sendo punidos pelo Google. Isso não significa que linkar para outros sites é proibido, muito pelo contrário, deve ser feito, é assim que funciona a Internet, ela precisa destes links.

A versão menor do Link Farm também deve ser evitada, ou seja, o cross-linking entre 2 sites exclusivamente. Na melhor das hipóteses, o Google vai ignorar todos esses links, na pior, vai punir os dois sites. Melhor não arriscar.

É importante ainda usar o Link Building para promover todo o site, e não exclusivamente uma página. Promovendo todo o site, novos links vão surgir por todo o site, promovendo uma única página, todos os links novos vão ser para a mesma página, o googlebot pode não olhar para isso com bons olhos, pode entender que está ocorrendo uma tentativa de manipulação dos resultados e punir esta página que está sendo promovida.

Isso também chama a atenção para dois outros pontos que devem ser evitados: sempre o mesmo texto âncora no link para uma determinada página e mesmo texto ao redor do link. Esses dois pontos juntos podem caracterizar links “encomendados” e o Google vai punir com certeza.

7.6 Outbound Links

Um elemento muito importante na estratégia de SEO são os Outbound Links, aqueles links que criamos para outros websites. Eles têm um papel crítico na estratégia de linkagem, conectando você a outros websites, aumentando assim a sua “rede de contatos”. Esta rede de contatos é vista pelo Google como um clube de amigos, onde se você indica sites de qualidade, você tem uma possível chance de ser uma fonte de conteúdo de qualidade. Logo, além de produzir conteúdo de qualidade, é importante participar do clube de sites de qualidade.

A primeira coisa que você precisa fazer é pensar como um criador de conteúdo autoritário. É imprescindível criar conteúdo relevante para os seus usuários assim como linkar para um conteúdo relevante, logo, em sua pesquisa por um tema, verifique se o conteúdo em que você deseja linkar é relevante, se possui alguns links externos, e se quem escreve é autoridade no assunto.

O processo de Outbound Links é como um clube. Assim que você começar a produzir conteúdo relevante criando links para as fontes autoritárias, o reconhecimento começa a aparecer e você entra no clube. Através desse reconhecimento é que você vai conseguir os links mais importantes e o tráfego também.

7.7 Técnicas de Linkbait

Linkbait é uma das técnicas mais importantes para se ganhar links. Como o nome sugere, é uma isca para links – um conteúdo (vídeo, texto, conjunto de imagens, documento, widgets, etc.) que mexe com as pessoas e acabam gerando links. Em especial, através de um linkbait, é possível ganhar muitos links em pouco tempo sem levantar suspeitas sobre tentativa de spam.

7.7.1 Link Bait de Informação

Informação útil tem uma alta probabilidade de receber links, logo, a produção de informação única e de qualidade se torna um linkbait. Por exemplo: um arquivo tutorial de como configurar um servidor web é uma link bait de informação. Um usuário irá ler o artigo um dia que irá ajudá-lo, e então ele poderá postar o link indicando que ele foi útil. Além disso, usar palavras chaves como “top 10“, “tutorial” e “dicas” é uma forma usada há muito tempo e até hoje funciona bem para títulos voltados para linkbait. Neste ponto, o fator atualização é fundamental – um site deve estar sempre atualizado.

7.7.2 Link Bait de Novidades

Ser o primeiro site a reportar uma novidade pertinente irá tipicamente dar ao seu site um status de fonte de novidades. Então, assim que você vir alguma coisa nova e interessante, coloque no seu blog. Postar com com opiniões diferentes e atualizadas tem um valor ainda maior do que simplesmente divulgar a novidade.

7.7.3 Link Bait de Humor

Pessoas adoram rir, e conteúdo de humor é bem viral por natureza. Um exemplo é o site do pudim. Chega a ser cômico como ele conseguiu primeira posição dos buscadores para a keyword “pudim” por muito tempo somente com uma imagem.Outros exemplos interessantes são as animações em flash e vídeos engraçados, como a animação “O cara tussiu”, uma paródia do Jaspion.

7.7.4 Link Bait por Controvérsia

Citar coisas polêmicas é arriscado, mas pode gerar tráfego também. Geralmente ocorre com questões políticas, sociais, raciais e sobre gosto musical. Pessoas adoram falar mal. Se você publicar algo polêmico, é alta a chance de alguém comentar em algum blog e fazer o link para o seu site para citar o exemplo. Mas é necessário cuidado: um linkbait polêmico e controverso pode derrubar a reputação do site ou blog que publicou tal conteúdo. É necessário inteligência e bom senso antes de tudo.

7.7.5 Link Baits de Pessoas Famosas

Pessoas procuram muito por atores, bandas, etc. Fazer um artigo interessante sobre eles (como descrição de vida pessoal) é algo muito interessante, principalmente para os fanáticos. Você pode juntar este exemplo com o citado acima – fale que Mamonas Assassinas até era “legalzinho, mas nem tanto”, por exemplo. O oposto também é válido: falar o óbvio, mas que ninguém falou ainda: “Mamonas Assassinas foi a banda mais original e engraçada.” O óbvio também funciona como linkbait.

Capítulo 8 – Black Hat SEO

Black Hat SEO é o termo utilizado para caracterizar técnicas de SEO consideradas “ilícitas” ou abusivas, ou seja, técnicas que aproveitam uma possível brecha nos algoritmos de classificação de resultados ou exageram o uso de alguma técnica White Hat SEO. Em oposição, o White Hat SEO é composto por técnicas de SEO consideradas válidas por search engines.

Uma curiosidade: O uso dos termos white hat (chapéu branco) e black hat (chapéu preto) deriva de filmes Western (Velho-Oeste), onde o mocinho do filme sempre usava um chapéu branco, e o vilão, um chapéu preto.

8.1 Histórico Black Hat

O termo black hat SEO começou a ficar popular em 2004, mas foi ao longo de 2006 que a busca por este tipo de informação realmente aumentou.

insights-black-hat

Outra curiosidade: no mundo todo, o local onde mais se busca por Black Hat SEO, é a Índia. Em um segundo lugar muito distante, aparece o Reino Unido, seguido de perto pelos EUA.

8.2 Técnicas de SEO Black Hat

Antes de partir para técnicas Black Hat, tenha em mente que a razão pela qual você deve conhecer estas técnicas é para que não as utilize por acidente, muito menos intencionalmente, pois, como mencionado anteriormente, elas são práticas não recomendadas por search engines.

Para cada técnica de White Hat SEO, quase sempre, existe uma versão black hat dela. As mais conhecidas são:

  • Keyword stuffing
  • Texto escondido
  • Links escondidos
  • Doorway pages
  • Cloaked pages
  • Link farming
  • Spam em comentários de blog
  • Comprar links
  • Troca de links

8.2.1 Keyword Stuffing

Basicamente, Keyword Stuffing é o uso excessivo de keywords em seu conteúdo, ou seja, você faz uma página sobre notebook e escreve a palavra para todo lado. O título fica “Notebook, notebooks, venda notebook, notebook hp, …”; bem como toda porção da página fica com cara de spam de tanto que se repete a palavra.

Isso é um abuso de uma técnica white hat, ou seja, fazer com que sua keyword principal apareça pela página, mas sem abusar.

8.2.2 Texto Escondido

Texto escondido é justamente o que o nome diz: o webmaster procura uma maneira de esconder o texto da visão do visitante, seja por sobreposição de camadas (divs) através do uso de CSS ou simplesmente usando a propriedade display none, também do CSS, para que o texto não apareça.

O objetivo é esconder texto com alta densidade de keywords (texto utilizando a técnica de Keyword Stuffing) para que o visitante não veja o texto mal produzido, mas que a search engine encontre o texto e coloque o site algumas posições adiante, já que tem tantas menções de uma determinada keyword.

Mesmo que não seja utilizado keyword stuffing, se o texto for identificado como puramente para search engines e manipulação de seus rankings, a técnica é considerada black hat.

8.2.3 Links Escondidos

Para esconder links, as mesmas técnicas citadas anteriormente podem ser utilizadas, e o link fica escondido por CSS. Mas por que esconder um link? Como sabemos, os links carregam uma grande força para definir o rankeamento de sites em uma pesquisa.

Assim, implantar links escondidos em outros sites (seus próprios sites ou não), faz com que search engines encontrem links preparados especialmente para manipular os resultados, ou seja, com o texto âncora perfeito, mas que visitantes nem sabem que estão ali. A função destes links é puramente “passar PageRank.”

8.2.4 Doorway Pages

É muito provável que todos já tenham se deparado com uma doorway page em algum momento. São páginas feitas para tentar resolver uma falha do site final e funciona da seguinte maneira:

doorway-pages

O site é um site em imagem, flash ou simplesmente mal produzido em termos de SEO e, ao invés de se trabalhar em cima deste site, um novo domínio é comprado com as keywords no nome (www.keywordprincipalaqui.com.br) e este domínio, que na verdade vai ser uma única página – a Doorway Page, será super otimizado para esta keyword e contará com um conjunto de links otimizados para o site principal.

8.2.5 Cloaked Pages

A técnica de Cloaking consiste de mostrar conteúdos diferentes para diferentes tipos de usuários. Assim, ao receber uma visita, o visitante deve ser identificado como uma search engine ou não (procurando descobrir o IP ou User-agent) e, caso seja uma search engine, deve ser exibida uma página extremamente otimizada, rica em keywords e prontinha para ser classificada em primeiro.

cloaking

Mas, se o visitante não for uma search engine, então mostra-se uma página comum. Como isso visa exclusivamente obter rankings melhores nas buscas (não visa nenhum benefício para o usário), isto é considerado uma técnica Black Hat SEO.

8.2.6 Link Farming

De modo simples, um Link Farming pode ser implementado simplesmente fazendo diversas Doorway Pages, ou seja, cria-se diversos domínios super otimizados, com diversas keywords que o site principal precise, todos linkando para este site.

link-farming

O maior ponto falho desta técnica Black Hat, é que todo o tempo investido em todas esses outros domínios poderia ter sido investido diretamente no site principal, evitando, assim, uma técnica black hat e resultando em um site de mais qualidade. Mas de fato, vários links de conteúdos relacionados são conseguidos.

8.2.7 Spam em Blogs e Fóruns

Ainda seguindo a linha de ganho de links, utilizar scripts para postar automaticamente em fóruns e comentar em blogs foi muito usado antigamente como uma tática black hat para Link Building. Depois do surgimento do atributo nofollow, essa técnica de Black Hat SEO caiu em desuso, mas ainda acontece bastante.

Como normalmente um usuário de fórum pode fazer uma assinatura com links e postar links em seus comentários, isso foi uma forma fácil de se conseguir links. Funciona de modo análogo para blogs.

Dica especial: para escapar destas postagens automáticas de modo automático também, existe uma função em PHP que elimina a codificação HTML, é a função htmlspecialchars(). Ela transforma caracteres HTML em códigos de caracteres texto. Por exemplo, se o black hat enviar um link para http://www.blackhat.com.br/ com a âncora “black hat”, ou seja:

  • <a href=”http://www.blackhat.com.br/”>black hat</a>

Ao invés de aparecer o link:

Apareceria o código escrito por extenso:

  • <a href=”http://www.blackhat.com.br/”>black hat</a>

Sem o hiperlink entre as páginas.

8.2.8 Comprar Links

Uma estratégia de link building também considerada Black Hat é a compra de links, mas há uma ressalva, pois existe um caso em que a compra de links não é considerada black hat:

  • quando o link comprado recebe o atributo rel=”nofollow”

Pois assim, o webmaster indica para a search engine que não tem a intenção de manipular os rankings com o link vedido/comprado. E como as search engines identificam links comprados? Naturalmente, elas não revelam essa informação, pois se o fizessem, os black hats correriam atrás de contorná-la.

8.2.9 Troca de Links

A troca de links é uma prática considerada Black Hat também por search engines. Consiste simplesmente de encontrar outros sites e blogs dispostos a trocar links com o seu próprio website. Assim, todos ganham links e, possivelmente, rankings. Geralmente, no momento inicial a troca de links sempre funciona, mas quando é muito intensa, fatalmente ela resulta em punição para os sites que participam deste esquema de linkagem.

8.2.10 Por que não aplicar Black Hat SEO?

Pois é, o Darth Vader está certo, existem certas vantagens em se juntar ao lado negro da força. Métodos fáceis e rápidos de se ganhar links, de popular as páginas do site com keywords, oferecer à search engine conteúdo extremamente otimizado, enquanto os visitantes recebem uma versão mais amigável. Vamos todos virar black hats então? Não!

O que o Darth Vader “esqueceu” de te avisar é que toda técnica de SEO Black Hat é passível de punição nos resultados de pesquisa. Cada uma delas. Haja visto o caso do site alemão da BMW que foi punido, anos atrás, por utilizar cloaking em sua página inicial, que mostrava uma página amigável para pessoas e outra extremamente rica em keywords (keyword stuffing) para search engines.

Em um caso mais recente, o Google do Japão foi punido por compra de links. Em uma estratégia de uma empresa de marketing contratada pelo próprio Google Japão, alguns links foram comprados para promover o buscador por lá, e o resultado foi a punição do Google Japão. Se você disser que este é um caso suspeito, eu até concordo, mas, acredite, não é bom arriscar.

Links e texto escondido são as técnicas black hat mais fracas. Basta uma simples análise do CSS e elas já são identificadas. Doorway pages, link farming, troca de links também não são tão complicadas de se detectar. Pode até ficar complicado, mas acabam podendo ser identificadas.

Spam em comentários de blogs e fóruns também são fáceis de se filtrar, especialmente porque partem do mesmo princípio de se bloquear spam por email – uma lista de nomes que tipicamente faz spam. No caso de emails, uma lista de emails, no caso de sites, uma lista de sites que tipicamente atacam fóruns e blogs em busca de links.

E para que você não fique especulando sobre a possibilidade de usar uma ou outra técnica black hat, veja o que acontece com o tráfego do site quando uma punição é aplicada:

90percent-drop

Encara sofrer uma perda de 90% das visitas do site?

Capítulo 9 – Punições e Filtros

Basicamente o trabalho de SEO envolve o aumento de visitas em um determinado website através de técnicas que promovem as suas páginas nos resultados de busca dos Search Engines.

Apesar de falarmos em técnicas para promoção de páginas, os principais mecanismos de busca, tais como Google, Yahoo e Bing possuem um guia de conduta, ou melhor, as Diretrizes para Webmasters que regem o sistema de rankeamento de seus resultados de busca. Estas diretrizes dizem o que e como os webmasters devem se portar e conduzir o andamento dos seus websites. Seria um tipo de “manual do escoteiro” que tanto o Google, Yahoo e Bing possuem. Vejamos as principais diretrizes do Google:

9.1 Diretrizes do Google

O Google provê as diretrizes mais específicas e detalhadas dentre os 3 grandes buscadores e as divide em 3 grandes áreas, onde podemos ressaltar os principais tópicos:

9.1.1 Diretrizes de Conteúdo e Design

  • Construa um site com uma hierarquia clara e links de texto. Cada página deve ser acessada a partir de pelo menos um link de texto estático. Isto faz com que cada página que você possui tenha oportunidade de aparecer nos resultados de busca;
  • Crie um site útil, com muitas informações e páginas que descrevam de forma clara e precisa o seu conteúdo. Sem isto, os usuários não poderão recomendar o seu site ou voltar nele no futuro;
  • Tente usar texto, em vez de imagens, para exibir nomes, conteúdo ou links importantes;
  • Verifique se há links quebrados e corrija o código HTML. Isto é fundamental para que os mecanismos de busca consigam ler as páginas que você linka.

9.1.2 Diretrizes Técnicas

  • Recursos especiais como JavaScript, cookies, IDs de sessão, frames, DHTML ou Flash podem não ser interpretados corretamente pelos mecanismos de busca;
  • Deixe que os robôs de pesquisa rastreiem seu site sem que IDs de sessão ou argumentos acompanhem navegação no site. Tente eliminar as IDs de sessão que ficam em sua URL
  • Use o arquivo robots.txt no servidor da web. Esse arquivo informa aos rastreadores quais diretórios podem ou não ser rastreados. Um dos grandes problemas neste caso são arquivos robots.txt com a linha “Disallow: /” que indica para os mecanismos de busca não lerem nenhum arquivo daquele website. Certifique-se que isto não ocorre no seu.

9.1.3 Diretrizes de Qualidade

  • Crie páginas principalmente para os usuários, não para os mecanismos de pesquisa. Não engane seus usuários nem apresente aos mecanismos de pesquisa um conteúdo diferente daquele que você exibe aos usuários;
  • Não participe de esquemas em que os links são usados para aumentar a classificação de seu site ou que utilizem o PageRank;
  • Evite usar texto ou links ocultos;
  • Não utilize técnicas de Cloaking (camuflagem do conteúdo real da página) nem faça redirecionamentos não-autorizados;
  • Não crie páginas com palavras-chave irrelevantes
  • Não crie várias páginas, subdomínios ou domínios com conteúdo duplicado;
  • Evite usar páginas de “entrada”, criadas apenas em função do que o usuário está buscando nos mecanismos de busca

Mas e quando alguém infringe estas diretrizes? Em que caso ele se encaixa, ou o que ocorre com o website? Vamos por partes.

9.2 Black Hat SEO como fonte de problemas

O problema das técnicas de Black Hat é que os mecanismos de busca visam a perfeição em seus resultados de busca, assim, ao longo do tempo, melhoram cada vez mais os seus filtros em busca da detecção destas técnicas que infringem suas diretrizes, fazendo com que os websites que utilizam-se das técnicas sejam punidos conforme suas políticas.

9.3 Mas como funcionam as punições?

Toda vez que o Google detectar através dos seus filtros ou através de uma revisão manual, que o seu website infringiu as diretrizes, uma punição será aplicada. Mas estas penalidades vem sendo muito comuns por existir uma divisão interessante: existem as penalidades de uma única página e existem as penalidades do website por completo. Vamos entendê-las melhor:

9.3.1 Penalidade -950

A idéia desta penalidade é “jogar” a sua página para o fim dos resultados. Basicamente, o que acontece é que páginas que antes rankeavam bem para os seus termos são, simplesmente, exibidas na última página de resultados. Em muitos casos pode afetar apenas um grupo de busca, pois em outras consultas a URL aparece normalmente. Esta penalidade “vai e vem” de acordo com as atualizações do Google e acaba por ser uma situação estranha, onde você em um determinado momento esta na primeira página e em outro momento está na última.

9.3.2 Penalidade -30

Esta penalidade afeta todo o website e tem por finalidade deixar com que todas as páginas do website apareçam depois da terceira página. Alguns profissionais de SEO apontam esta punição como manual e como sendo uma grande perda de Trust (confiança) por parte do Google no website que sofre a punição. As novas tendências apontam que o nome do domínio não recebe a mesma punição.

9.3.3 Exclusão do Índice

Outra penalidade existente é a exclusão do índice ou completo banimento dos resultados de busca, que quando aplicada, simplesmente, remove todas as URLs do website dos resultados de busca, tornando-o acessível via mecanismo de busca. Este tipo de penalidade ocorre normalmente em websites que utilizam técnicas que infringem de forma grave as diretrizes dos webmasters, tais como efetuar técnicas de cloaking ou criação de doorway pages, que são páginas focadas em determinadas palavras, objetivando que os mecanismos de busca dêem mais relevância a elas.

9.4 E como saber se eu fui punido?

Como vimos acima, todas as punições fazem com que você perca posicionamento no resultados de busca. Isto irá afetar diretamente as suas visitas, fazendo com que você apresente um gráfico de visitas muito diferente do que estava acostumado a receber.

Se você notou esta anomalia, siga os seguintes passos para conferir se realmente existe uma punição no seu website:

  1. Verifique a origem do seu tráfego. Quantos % o Google (ou outros mecanismos de busca) era responsável antes da queda de visitas? Quantos % é agora? Se a queda de tráfego foi a relacionada ao Google então marque um ponto positivo para punição.
  2. Faça a seguinte consulta no Google “site:meusite.com.br”. Confira se suas páginas aparecem na listagem. Esta consulta deve retornar todas as suas páginas indexadas no Google. Caso não retorne você pode estar punido.
  3. Pesquise por termos que você figurava na primeira página. Caso encontre-os sempre depois da posição 30, você pode ter sofrido uma punição -30 em seu domínio.
  4. Procure por termos que você figurava na primeira página. Se não encontrá-los nas primeiras 95 páginas do Google, você deve ter recebido uma punição -950 na página em específico.

9.5 Como evitar estas Penalidades?

O objetivo de qualquer dono de website é nunca ter um website punido ou que seja removido dos resultados de busca, então abaixo listo algumas dicas para não sofrer nenhuma punição em seu website:

  1. Não use palavras-chave em excesso na sua página, títulos e meta tags, objetivando a melhoria de posicionamento.
  2. Não se envolva em qualquer tipo de troca de links, seja entre amigos ou entre uma rede de parceiros. Ganhe links naturalmente e não foque em trocar links para ganhar PageRank.
  3. Não crie páginas que serão vistas pelos mecanismos de busca de uma maneira e pelos usuários de outra forma.
  4. Faça seu site pensando no usuário e para o usuário. Deixe que os mecanismos de busca tratam de indexar toda esta informação.

9.6 Como Voltar ao Google? O Pedido de Reconsideração

Obviamente, o primeiro passo é “deixar a casa em ordem.” Se você realmente tomou parte de alguma ação que viola as diretrizes de Search Engines, a primeira coisa a se fazer é desfazer as alterações que causam a punição

Se você não tem certeza se alguma alteração feita viola as diretrizes, achar o erro fica mais difícil, mas continua sendo essencial, tanto achar, como corrigir o problema.

Algumas pessoas dizem que isso e um pouco de tempo é suficiente para que o site volte ao seu posicionamento normal. A alternativa é fazer o pedido de reconsideração, mas aí, é fundamental que o site esteja impecável, para não passar mais umas semanas na geladeira.

9.6.1 Title, Meta Description e H1’s

Verifique os títulos e meta descriptions de suas páginas. Estão realmente descritivos e condizentes com os respectivos conteúdos ou estão spammados? De qualquer maneira, faça-os da maneira o mais descritiva e breve possível, sem focar tanto na repetição da keyword da página, deixe algo limpo e somente voltado para usuários.

9.6.2 Conteúdo

Da mesma maneira que o item anterior, o ideal é verificar a qualidade do conteúdo. Mesmo que o conteúdo seja relevante, é bom verificar de maneira criteriosa o quanto ele está otimizado para favorecer o aparecimento de keywords e textos âncoras para links para outras páginas.

Outro item que deve ser levado em consideração é o conteúdo duplicado. Se você é conhecido por copiar conteúdo de outros sites, é uma boa hora para reescrever esses conteúdos.

9.6.3 Meta Keywords

Embora atualmente elas sejam irrelevantes para os mecanismos de busca, procure não utilizar mais que 200 caracteres nesse campo. Se atenha ao necessário à página, somente; ou nem use.

9.6.4 Links

Caso você ainda não tenha feito, coloque o atributo rel=”nofollow” em links de parcerias (que podem ser caracterizados como troca de links). Se você tem um blog e foi pago para inserir links para outros sites, coloque nofollow nesses links também.

Você não precisa cancelar suas parcerias, mas precisará deixar claro ao usuário que se trata de um espaço publicitário e o uso do nofollow nos links é imprescindível.

9.6.5 Black Hat

Naturalmente, qualquer forma de Black Hat SEO deve ser investigada e tratada da melhor maneira possível. Tipicamente estas técnicas violam as diretrizes de Search Engines, podem até acontecer acidentalmente e, por isso, é importante conhecê-las, para saber onde procurar os erros. Depois de corrigidos os problemas, hora do pedido de reconsideração.

9.6.6 Pedido de Reconsideração

Agora que está tudo certo com o site, hora de fazer o pedido de reconsideração. Para tanto, basta acessar a conta no Google Webmasters Tools do seu site e encontrar a opção “Reconsideração de Site”, desta maneira:

pedido de reconsideração

Após clicar nessa opção, será aberta uma nova aba ou guia em seu navegador com o tutorial do google sobre como fazer o pedido de reconsideração. Junto com ele existe um link para o pedido.

formulário de pedido de reconsideração

Seja atento ao preencher o pedido de reconsideração pois, ao contrário do que muitas pessoas imaginam, esse é um pedido sério e é sim analisado manualmente por pessoas designadas para essa tarefa.

Se dentro de algumas semanas não ocorrer nenhuma diferença no seu site, você pode considerar a possibilidade de refazer o pedido. Entretanto, seja coerente, antes disso revise o site novamente e verifique se realmente ele está livre de motivos para não ter sido reconsirado.

Pedido realizado, é importante aguardar, manter o bom trabalho no site e continuar o acompanhamento de posicionamento e visitas. Não é garantida rapidez na resposta nem certeza de que o site volta ao índice, mas é certo que o melhor é manter o trabalho de qualidade no site.

Capítulo 10 – Social Media Optimization (SMO)

Primeiro, o que são Mídias Sociais:

Mídias Sociais são tecnologias e práticas on-line, usadas por pessoas (isso inclui as empresas) para disseminar conteúdo, provocando o compartilhamento de opiniões, idéias, experiências e perspectivas(e eis o seu 1º grande diferencial). Seus diversos formatos, atualmente, podem englobar textos, imagens, áudio, e vídeo. São websites que usam tecnologias como blogs, mensageiros, podcasts, wikis, videologs, ou mashups (aplicações que combinam conteúdo de múltiplas fontes para criar uma nova aplicação), permitindo que seus usuários possam interagir instantaneamente entre si e com o restante do mundo.

Praticamente em todo trabalho de SEO entra em cena uma abordagem de SMO como complemento da otimização Off-page. Este é um recurso muito importante no desenvolvimento de todo o projeto.

Contudo, é necessário inteligência para não perder o foco sobre o uso correto de SMO por redes de conteúdo e redes de relacionamento, ou seja, evitar transformar tal ferramenta em uma verdadeira rede de propagandas, esquecendo a sua principal função: relacionamentos. As redes sociais devem ser utilizadas como forma de entrar em contato com as pessoas e receber o feedback, não empurrar ainda mais propaganda para cima delas.

Então vamos a algumas dicas de como utilizar melhor as Mídias Sociais:

10.1 Relacione-se

Mídias Sociais, como o próprio nome já diz, são locais onde as pessoas trocam opiniões, fazem contatos criando novas amizades e relacionamentos. Ninguém quer ver sua propaganda o tempo todo! Não é uma boa estratégia utilizá-la como um meio apenas para divulgação! Crie amigos e interaja!

10.2 Saiba o que falam de você e de seu produto

Acompanhe os feedbacks positivos e negativos, saiba o que dizem sobre sua marca e relacione-se com esse usuário e entenda o porque de tal opinião. Mostre preocupação pelo que você esta vendendo!

10.3 Reconheça a propaganda positiva

Se alguém elogiou seu produto ou serviço, porque não perder alguns minutos do seu tempo para agradecer. É importante o usuário sentir que a opinião dele é relevante para sua marca – e ela é! Recompense-o de alguma maneira, seja falando bem dele e de seu conteúdo ou até mesmo lhe enviando uma amostra grátis.

10.4 Compartilhe sempre

Se alguém opinou positivamente sobre você ou sua marca, convença-o a compartilhar esta opinião com os amigos que ele possui nas mídias sociais, não se esqueça que esses amigos também tem outros amigos que podem compartilhar a opinião e ajudar ainda mais a sua campanha.

10.5 Pense nos outros

Não divulgue apenas a sua marca, mas também a de outros usuários. Nada melhor do que ver o seu conteúdo divulgado por outras pessoas. Não é mesmo? Promova sites, posts e seus respectivos conteúdos aos quais achou algum tipo de interesse ou que seja relacionado com sua marca! No fim, as pessoas que te acompanham vão se beneficiar e ter mais confiança em suas divulgações.

10.6 Interaja

Se conecte a todos que puder: daquele que venera seu produto até aquele que não pode nem ouvir falar dele. Não se esqueça que a troca de experiências vale muito, defender seu produto, buscar melhorias , saber o que falam é muito importante. E do outro lado, quem reconhece o valor daquilo que você oferece, merece também reconhecimento e atenção.

10.7 Dê exclusividade

Existem usuários que veneram sua marca e são grandes fãs do seu conteúdo ou produto? Por que não dar exclusividade aos mesmos? Faça-o sentir parte integrante e exclusiva de sua campanha, o informe de mudanças, atualizações. Faça-o ser o primeiro a saber das novidades que rondam seu produto! Envie brindes, informativos e deixe claro a importância da opinião dele!

Capítulo 11 – Local Search SEO

A cada dia presenciamos a criação de uma nova empresa em nosso bairro ou na nossa rua. Estou falando de lojas de flores, lojas de conveniência, fast food ou ainda pequenos shoppings. Não muito distante, a cada dia surgem mais e mais websites de pequenas empresas na internet, com a finalidade de divulgar um serviço ou produto, que em muitas vezes é específico para uma região. Só que a grande pergunta que estas pequenas e médias empresas guardam em suas mentes é a seguinte: “Como ganhar visibilidade na internet, no meio de tanta coisa?”.

A solução não é nova, já é algo bem utilizado pela sociedade: a criação de listas de serviços ou empresas, no estilo “Páginas Amarelas”.
Neste mercado de “Páginas Amarelas” da internet, o Google possui um serviço muito interessante chamado Google Local Business, que tem por finalidade disponibilizar uma interface para quem possui empresas realizarem o cadastro das mesmas e quando uma busca é feita no Google Maps ou busca tradicional do Google, ele exiba os resultados de uma determinada área.

Por exemplo, ao digitar na busca tradicional do Google as palavras “flores Itajubá”, o Google exibem uma lista de empresas que estão cadastradas no Google Local Business e algumas informações sobre elas, tais como endereço e telefone:
Resultados Locais

10.1 Qual a importância de aparecer nos resultados locais?

Você deve estar se perguntando neste momento qual a importância de aparecer nos resultados locais. A resposta está exatamente na pergunta: você terá acesso as buscas locais, ou seja, pessoas próximas a sua empresa, que procuram algo na região e provavelmente já conhecem ou ouviram falar da sua empresa. Desta forma, você está diante de um público altamente focado no que busca e que possuem um interesse em produtos da área, aumentando a possibilidade de uma possível conversão (aquisição do produto/serviço).

Outro ponto importante é que você é privilegiado pelo Google na constituição dos resultados de busca tradicionais, pois normalmente a caixa de resultados locais é inserida no topo dos resultados de busca, ganhando assim uma grande visibilidade e muitos cliques.

É fácil de verificar isto, realize uma série de pesquisas incluindo uma cidade, como por exemplo “hotéis em São Paulo”, “bares no Rio de Janeiro” ou ainda “pousadas em Salvador”. Em alguns resultados você poderá obter o mapa com as empresas locais no meio dos resultados locais ou ainda no início dos mesmos.

11.2 Como aparecer nos Resultados Locais?

Para aparecer nos Resultados Locais é simples, basta dirigir-se à página do Google Local Business Center (http://www.google.com/local/add/) e realizar o cadastro da sua empresa, clicando em “Adicionar nova empresa”:
Google Business Center

Será solicitado várias informações sobre a empresa e logo apos o cadastro será requisitada uma confirmação via telefone ou via carta. Ambas são muito simples e consistem em inserir um código para validar a sua empresa.

Apos um certo tempo, o Google fará a inclusão da sua empresa nos resultados locais com todas as informações que você forneceu. É possível editar os dados da sua empresa a qualquer momento, indo no seu painel do Google Local Business Center.

Como aparecer entre os primeiros dos Resultados Locais?
Esta é uma das perguntas que todos fazem ao entenderem como inserir a empresa nos Resultados Locais. Basicamente, o Google faz o mesmo rankeamento que faz nos resultados orgânicos mas com alguns ajustes para que os “sinais locais” sejam fortes no rankeamento. Existem vários “sinais” que o Google pode utilizar, entre eles, podemos citar:

  • Existência do endereço físico da sua empresa nas páginas do website. É muito importante que eles estejam em formato HTML e não imagem, caso contrario o Google não conseguirá ler o endereço.
  • Empresas da região, ou websites da região devem indicar você (sua empresa) através de links, assim o Google entenderá que “especialistas” da região indicam o seu serviço. É a mesma política que perguntar a um jornaleiro onde fica a próxima lanchonete. Com certeza ela irá indicar uma lanchonete próxima e que seja boa.
  • O servidor do seu website deve estar em um IP local, ou seja, se você puder colocar o seu website em um servidor com IP da sua região ele terá um grande diferencial no rankeamento.
  • O Google utiliza várias fontes para adquirir conhecimento local, então faça uso de websites que lhe dão a possibilidade de fazer reviews da sua empresa ou reviews sobre empresas da região. Entre alguns website gostaria de reforçar o Apontador, que é uma excelente fonte de empresas locais.
  • Nunca deixe a sua empresa sem uma categoria específica no Google Local Business. Tenha certeza que a categoria foi escolhida e que ela represente exatamente o que a sua empresa ou produto expressa.
  • Insira o seu serviço ou produto no titulo do seu cadastro no Google Local, assim o Google irá fornecer uma maior relevância para a sua empresa em um determinado tópico, no caso, a sua categoria.

Existem vários outros fatores que influenciam o seu rankeamento nos Resultados Locais, mas basicamente os mais impactantes são estes.

11.3 Problemas no Brasil

Um dos maiores problemas do Brasil para as buscas locais é o problema com a desorganização dos IPs, pois em vários casos quando se faz a conversão do IP para um ponto local (latitude e longitude) o resultado é uma aproximação, que em alguns casos pode ser desastrosa.
Para atestar isto, realize uma pesquisa no Google Insights pelo termo “flores”:
Google Insights

Nos resultados podemos ver alguns estados realizando buscas em maior quantidade do que outros, mas o estranho é como o estado de Rondônia possui um volume de buscas maior do que o estado de São Paulo, que com certeza possui uma população bem maior, e também possui uma quantidade muito maior de usuários de internet.

Mesmo assim esta seria uma análise pontual, mas vou citar o meu caso. Atualmente moro em uma cidade do Sul de Minas Gerais, chamada Itajubá. A minha internet é fornecida por um provedor local que atende somente na região do Sul de Minas. Ao realizar uma conversão do meu IP para uma localização, a ferramenta IP2Loc do SEOmoz (assim como várias outras ferramentas) diz que estou localizado no Rio de Janeiro. É uma diferença de 300km! Imagine o impacto disto para as buscas locais. De nada adianta fornecer floriculturas no Rio de Janeiro para um morador de Itajubá.

IP to Location

Apesar deste grande problema para pequenas cidades do interior, o trabalho de Resultados Locais pode ser muito bem trabalho em grandes cidades como São Paulo e Rio de Janeiro, onde a população é muito ativa na internet e os IPs normalmente são definidos dentro da própria cidade.

Divulgue esta página