Por Nuno Matias *




Desde a criação de uma página de Internet ou de um blogue, com a escolha do tipo de alojamento, à criação da plataforma e dos primeiros conteúdos e respectiva organização, encontrar um público para os mesmos é extremamente relevante, sejam leitores ou visitantes. Antes da remuneração efectiva, através de programas de afiliação, por exemplo, o número de visitas são a recompensa mais justa para o árduo trabalho efectuado. Mas a recompensa pode tardar em chegar. E é, precisamente, nesse momento que nos interrogamos sobre o referenciamento natural nos motores de busca. Por este motivo, o mercado de serviços associados ao SEO (Search Engine Optimization) está a crescer a passos largos.




Contudo, os caminhos dos motores de busca são impenetráveis e os esforços desenvolvidos nem sempre são sinónimo de êxito a curto-prazo. É preciso analisar milhões de conteúdos criados e disponibilizados online, encontrar os nichos onde penetrar, com vista a recolher, de forma paciente, o fruto do trabalho de concepção e redacção.



O referenciamento pago é, para muitos, uma opção em detrimento do referenciamento natural. Há também aqueles que, para se proteger de surpresas desagradáveis e evitar perdas, contornam esta via, mas acabam por se deparar com sites de Black Hat SEO durante as suas pesquisas.



[caption]Nuno Matias[/caption]
Os principais motores de busca empregam esforços consideráveis no sentido de fazer evoluir os seus algoritmos e qualificar os resultados das pesquisas efectuadas nas suas plataformas. É uma tarefa levada a cabo, incessantemente, há dez anos, cujos resultados são facilmente constatáveis. Mas todos os sistemas têm detractores e confrontam-se com elementos que pretendem contornar as regras para acelerar o ROI.
Inicialmente, surgiram práticas como o cloaking, o keyword stuffing, os redireccionamentos de URL ou a técnica das páginas satélite. Os motores de busca não demoraram a penalizar estes métodos, tornando-os obsoletos e forçando os hackers a reinventarem-se.


Foi então que apareceu o software de spamming. O princípio é simples: ligar-se a um determinado número de sistemas de gestão de conteúdos, alguns dos quais com um Page Rank elevado, para fazer passar em fóruns ou em comentários os links que escolherem, criando assim trackbacks utilizados pelos motores de busca, nomeadamente o Google, para determinar a popularidade de uma página Web. Este tipo de software permite criar perfis e tópicos, oferece funcionalidades como o Google Scrap ou ainda o Hrefer, que criam automaticamente assinaturas, resolvem ou contornam captchas, geram conteúdos automaticamente, criam endereços de correio electrónico para validar contas e utilizam proxys para assegurar o anonimato. Na verdade, são os canivetes suíços do referenciamento "sujo", sendo que alguns deles estão disponíveis por um preço extremamente acessível, levando a cair na tentação de se optar pelo lado obscuro do SEO.


De modo geral, é preciso combater estes softwares que realizam de forma automática o trabalho sujo do Black Hat SEO. Para esse fim, são utilizados webservices antispam, mas não são 100% eficazes.


Esta não é, de todo, uma opção recomendável. Para além do facto de o spam na internet ser semelhante ao spam do correio electrónico, há inúmeras razões para não ceder à sedução do Black Hat SEO. Com este método correm-se vários riscos, como ser rapidamente identificado como gerador de spam, constar das principais listas negras dos serviços anti-spam, deixar de ser referenciado e desaparecer dos resultados de pesquisa.


Da mesma forma que os hackers se adaptam às evoluções dos motores de busca, estes também se adaptam aos métodos dos hackers. Sabemos que se trata de uma preocupação fundamental pois permite inovar rapidamente e aperfeiçoar os algoritmos através da classificação de palavras-chave, back-links, etc. Mas a adaptação de um algoritmo pode verificar-se fatal para alguns sites, anunciando um potencial desastre quando se realizarem futuros ajustes. É, deste modo, essencial fazer boas escolhas técnicas mesmo antes do início do projecto, como por exemplo, privilegiar os sistemas de gestão de conteúdos que geram poucos códigos para potenciar uma relação quantidade de código-conteúdo equilibrada, sem nunca esquecer nenhum dos pré-requisitos do referenciamento natural. Estes são muitos e variam em função das plataformas, mas facilmente se encontra uma lista num dos sites ou blogues sobre este tema.


Importa igualmente dar preferência à utilização de um endereço IP único e, neste âmbito, impõe-se a utilização de um servidor privado ou dedicado. Esta escolha influenciará de forma positiva o critério de rapidez do futuro site, factor determinante para os motores de busca. O abuso das balizas Meta (nomeadamente keyword e description) reduziu a importância que tinham há alguns anos no âmbito do referenciamento natural, sendo, por isso, essencial o respeito pelas mesmas.


Desta forma, em vez de utilizar técnicas Black Hat, é preferível apoiar-se no poder das redes sociais (nalguns casos, os primeiros impulsionadores de tráfego são o Facebook e o Twitter e não os motores de busca) e, se pretende alcançar um público qualificado, optimizar a transformação (isto é: favorecer um contacto, substituir por um buzz, beneficiar de uma monetização dos conteúdos).
Para aqueles que preferem ignorar estes conselhos, não será difícil encontrarem rapidamente as técnicas de Black Hat SEO. Mas que, pelo menos, estejam cientes dos riscos.




*Country Manager da Amen Portugal