Este é um Guest Post escrito por Adriano Luz do blog Afiliados na web. Se você também quer escrever um guest post no Quero Criar um Blog entre em contato através do formulário de contato.
Over Optimization e Negative SEO são termos que ficaram muito comuns após o surgimento do algoritmo do Google, o Penguim.
Já se fazem aproximadamente 8 meses que o Google lançou o algoritmo e de lá para cá estes termos passaram a ser muito utilizados por webmasters e bloggers. Na verdade, estes termos tem aterrorizado os webmasters que trabalham com práticas ilícitas e tentavam burlar as regras dos buscadores para obter vantagens, visando exclusivamente obter vantagem com Programa de Afiliados.
Com o surgimento do Penguim e as constantes evoluções do Google Panda, o Google iniciou um combate pesado a sites e blogs que praticam o chamado Web Spam e outras praticas ilegais. O Panda, como já era de conhecimento de todos, sempre teve o foco em rebaixar sites no rankemaneto das buscas que praticavam o chamado Over optimization, que nada mais é do que alterar e muito o conteúdo tendo foco exclusivo para os buscadores.
Uma pratica comum de Over Optimization é o Keyword Stuffing, que consiste em repetir muitas vezes uma palavra-chave dentro das páginas com único objetivo de prevalecer nos resultados das buscas.
Já o Google Penguim, teve o foco exclusivo em combater o Web Spam, que é a criação de vários links espalhados na internet de uma forma não orgânica, visando unicamente se prevalecer nos resultados das buscas.
Este tipo de comportamento era comum a diversos webmasters, que criavam aos montes links em fóruns, sites de baixíssima qualidade com ferramentas automatizadas para este processo. Muitos webmasters conseguiam criar links na cada dos milhares em pouco tempo de trabalho.
No geral, o Negative SEO (ou SEO Negativo) consiste na união das duas práticas, que é o Over Optimization e o Web Spam.
Mais o que aconteceu com os webmasters que utilizavam-se destes recursos? Certamente foram punidos pelo Google, tendo seus sites e blogs rebaixados drasticamente nos resultados do buscador em poucos dias e, nos casos mais graves, sendo até excluídos definitivamente das buscas.
Com estas alterações, o Google mostrou a todos os webmasters que esta fiscalizando fortemente suas ações e punindo corretamente o mau uso dos recursos SEO. Estes sites e blogs dificilmente consegue se reerguer após este tipo de queda, visto que o Google exige que todos os links criados como Web Spam sejam excluídos e que os problemas de Over Optimization seja sanado das páginas.
Com relação ao Over Optimization é até mais fácil, pois o webmaster tem acesso a suas páginas e consegue com certa facilidade resolvê-los, porém o web spam já é bastante difícil de se resolver. Meses depois do surgimento do Google Penguim, o Google lançou uma ferramenta dentro do Webmasters Tools chamada Google Disalow Links, que serve para que webmasters possam informar ao Google alguns links para serem desconsiderados, porém tempo para que o Google analise os dados enviados pelo webmasters é longo e o resultado nunca é igual como se o webmaster não tivesse tido problema com Web Spam, recuperando apenas uma parte do potencial de rankeamento do projeto.
Quais aspectos o Google Penguim tem analisado?
Existem alguns aspectos que o Google tem analisado nos links que apontam para uma determinada página, e o principal deles é a variação do texto ancora. Sempre foi notório que a utilização de textos ancoras nos links aumentava o poder de rankeamento das páginas nas palavras, porém a utilização em excesso aponta que não existiu naturalidade na aquisição destes links.
Uma página que tem acima de 50% de links com texto ancora igual a palavra-chave principal da página, demonstra uma certa artificialidade na construção dos links, pois, quando ocorre de forma natural os textos ancoras são muito variados, pois cada autor cria seus links de formas diferentes.
Um outro aspecto que tem sido analisado pelo Penguim é a qualidade das páginas onde encontram-se os links para uma determinada página, pois se ela é linkada de sites de spam ou sites de má qualidade, obviamente acarreta em um rebaixamento em seus resultados.
Como fica o Futuro do SEO?
A pratica de SEO esta se tornando cada vez mais delicada e webmasters e bloggers demandam um conhecimento acentuado para conseguirem prevalecerem do potencial de rankeamento. Burlar mecanismos de busca ainda é possível, mais não aconselhável.
O que recomendo a quem deseja aumentar seu tráfego é investir em conteúdo, qualidade de navegação, sites com boa estética e leves e outras características que são essencial aos buscadores, pois o restante surge com naturalidade.
Utilizar-se de meios artificiais para que isso ocorra, comprovadamente não tem sido uma boa alternativa. E você, o que pensa a respeito?
Gustavo,
Pelo meu ver e experiência estão ultimamente levando grande impacto sobre toda a blogosfera com essa vastas atualizações,logo o resultado disso foi minha banição coma Google Adsense, entretanto, com o aprendizado tenho tomado cuidado com meus textos, antes de publicá-los.
Abraços
Ola Adriano. Post de qualidade que foca pontos muito interessantes. Cumprimentos.
Luís.
Acho que isso seja meu problema, quase todo texto do meu blog sao palavras-chave acho que é isso que esta me prejudicando.
Gustavo,
Só tenho a lhe agradecer pela oportunidade de publicar um guest post em um blog tão conceituado como o quero criar um blog.
Parabéns pelo trabalho.
Adriano Luz
Adriano,
obrigado pelo artigo que certamente irá ajudar muito nossos leitores.
abraço.