Tutorial de robots.txt
Olá leitores da Agência Mestre! Como muitos de vocês sabem, os mecanismos de busca utilizam-se de robôs de busca, também conhecidos como webcrawlers, para percorrer…
Olá leitores da Agência Mestre! Como muitos de vocês sabem, os mecanismos de busca utilizam-se de robôs de busca, também conhecidos como webcrawlers, para percorrer…
Neste último fim de semana o google atualizou o PageRank publicando novos valores para os sites e páginas na Internet. Mas como o PageRank funciona mesmo? E como fazer para aumentar o PageRank?
Mesmo com o anúncio de que o Google agora pode indexar seu conteúdo em Flash, não é aconselhado ainda que se desenvolva um site assim se você está interessado em obter uma boa colocação nos resultados de busca.
O que fazer com as páginas de conteúdo ultrapassado? Simplesmente deletá-las? Algumas dicas do que fazer com essas páginas para não prejudicar o SEO do seu site.
Os Black Hat Seo muitas vezes são criativos e você pode aprender como utilizar versões White Hat destas técnicas para melhorar seu ranking
Uma dúvida diferente que as pessoas têm quanto a indexação de sites e páginas nas ferramentas de busca na Internet é em relação aos tipos de arquivos que são de fato indexados – PDF, SWF, PHP, JPG, ASP entre outros – e como as search engines tratam esses tipos de arquivo. Elas são capazes, inclusive, de reconhecer vírus na Internet.
Confira a minha participação no SEOcast, um podcast voltado ao SEO. Na primeira parte do podcast, fui entrevistado sobre a minha vida pessoal e profissional. Na segunda parte participei de uma discussão técnica sobre 10 coisas que o Google não gosta no seu site. Vale apena conferir!
Google Sitelinks são os links mostrados logo abaixo dos snippets das páginas nos resultados de busca do Google. Os sitelinks são usados para facilitar a navegação pela página, pemitindo ao usuário encontrar rapidamente a informação que está procurando.
O robots.txt é um arquivo muito importante que deve ser criado a fim de evitar conteúdo duplicado e indexação de pastas não desejadas e sem importância. Veja um trecho de um robots.txt otimizado para Word Press.
Deep links assim são o resultado de pessoas achando o conteúdo das páginas mais profundas do site interessantes e linkando para essas páginas, que dizer, foi necessária alguma navegação no site até achar a informação e, o principal, a informação foi achada e foi linkada! Deep links ajudam na construção da credibilidade do site – Tudo que um buscador quer.
Trabalhar melhor o menu superior é uma boa opção para aumentar a relevância de uma keyword dentro do seu site e ainda uma chance de conseguir links externos.
Um guia de SEO para estruturas de URLs. Alguns cuidados que devemos ter para criar URLs que não se pareçam com spam e conteúdo duplicado.