Search Experience Optimization: um novo SEO para 2021

Se é necessário pensar o passado para compreender o presente, imagine o tamanho da importância de se voltar no tempo para projetarmos o futuro.

No entanto, mais do que um exercício de futurologia vazio, este post tem como objetivo analisar como o Google, através de suas alterações de algoritmo, direcionou – e direcionará – todos os caminhos do mercado de SEO.

Além disso, também gosto de enfatizar a existência de uma internet antes e outra depois do aparecimento do Google. Da mesma forma que o próprio termo SEO inevitavelmente se confunde com o mecanismo de busca que possui mais de 92% de share entre todos os buscadores no mundo, atualmente.

No princípio, criou-se a internet, e ela era sem forma e vazia; havia trevas sobre a face do abismo; disse o Google: haja SEO; e houve SEO.

No início a World Wide Web era apenas uma pequena teia de documentos, composta principalmente por artigos acadêmicos, interligados por meio de links e URLS.

Porém, com o crescimento dessa rede, houve a necessidade de organizar as já milhares de páginas a essa altura publicadas em repositórios.

Foi com essa premissa que os primeiros buscadores nasceram na década de 90, funcionando basicamente como um catálogo virtual que emulava o que já existia no mundo analógico.

As páginas eram agrupadas por tema, ou mesmo ordem alfabética, e tinham seu acesso facilitado enquanto fonte de pesquisa. Exatamente como uma biblioteca digital.

O Google, entretanto, estava destinado a revolucionar esse mercado já a partir de seu surgimento, em 1998.

O buscador, depois de sua entrada no mercado, instituiu o pagerank, um algoritmo que ordenava as páginas para mostrar sempre o melhor resultado nas primeiras posições.

Dessa maneira surgiu o termo Search Engine Optimization – ou simplesmente SEO – que era essencialmente uma ciência exata. Quanto mais se repetiam as palavras-chave no código e conteúdo do site, melhores as chances de um bom posicionamento na busca.

Nesse ponto cabe a explicação de que algoritmo do Google nada mais é do que é um conjunto de operações que determinam como os resultados serão mostrados aos usuários. De forma lúdica, podemos pensar nesse algoritmo como um robô que rastreia, organiza e ordena as páginas da internet.

Assim, é possível dizer que lá no início o robô do Google rastreava os links procurando por páginas que contivessem o termo buscado e as ordenava baseado em diversos critérios, particularmente na sua relação com outros sites da web e no quanto ele era referenciado.

O algoritmo seguia, então, uma lógica parecida com a já utilizada no mundo acadêmico em relação à classificação de artigos.

Malandro é malandro, SEO é SEO

Por outro lado, no início de tudo e quando a internet ainda era tudo mato, houve uma espécie de corrida dos espertos, em que técnicas que exploravam brechas do algoritmo foram amplamente ensinadas e disseminadas

Nascia assim o arqui-inimigo do Google, contra quem até hoje batalhas são travadas: o famigerado black hat, as técnicas maliciosas e passíveis de punição.

Era comum, por exemplo, vermos blocos de palavras-chave distribuídas aleatoriamente ao longo das páginas. Essa técnica posteriormente ficou conhecida como keyword stuffing e posteriormente também foi classificada como black hat pelo Google.

Outra técnica hoje suscetível a penalização, mas comum nos tempos em que Don-Don jogava no Andaraí, era esconder blocos de palavra-chave no meio do site. Customizar o texto com a mesma cor do fundo ou reduzir o tamanho da fonte a próximo de zero eram algumas das conhecidas malandragens criadas para ludibriar o algoritmo e melhorar o posicionamento nas buscas.

Os sites eram, acima de tudo, cheios de palavras-chave, mas vazios de relevância.

Recapitulando como era SEO no início de tudo

  • Nenhum contextualização entre palavra-chave e conteúdo;
  • Técnicas para enganar o algoritmo;
  • Tudo mato;

O que mudou no SEO de lá pra cá?

Desde o seu lançamento, o Google já passou por diversas mudanças significativas de algoritmo, sendo a grande maioria delas na última década.

As primeiras mudanças de algoritmo, ainda no começo dos anos 2000, buscavam coibir o uso de técnicas maliciosas para um melhor ranqueamento e penalizar quem obteve vantagem utilizando atalhos não condizentes com o propósito da empresa: organizar as informações do mundo todo e torná-las universalmente acessíveis e úteis.

A partir da segunda década do século, no entanto, uma série de mudanças com ênfase na qualidade do conteúdo se sucederam. As alterações passaram não só a promover a contínua caça ao black hat, mas também a visar transformar a experiência com os resultados de busca em algo cada vez mais agradável para o usuário.

Para o Google, inclusive enquanto veículo de mídia e publicidade em que se transformou, mais importante que um usuário realizar uma busca é que essa pessoa encontre o que de fato estava pesquisando, e que este conteúdo lhe seja proveitoso, claro.

Se a experiência proporcionada for satisfatória o bastante para fazê-lo voltar à outras buscas de forma tão breve quanto frequente, certamente que será ainda melhor.

As mudanças de algoritmo ao longo do tempo e os impactos nas técnicas de SEO

Punição ao black hat e a má qualidade do conteúdo

  • Florida (2003): combate às más práticas como o keyword stuffing;
  • Panda (2011): luta contra sites com conteúdo de baixa qualidade e excesso de publicidade;
  • Penguin (2012): penalização de diversos esquemas de black hat, especialmente na obtenção de backlinks;

Preocupação com a intenção de busca, segurança e experiência do usuário

  • Hummingbird (2013): Revisão completa do algoritmo para considerar a intenção de busca do usuário e o universo semântico do termo pesquisado, levando em conta os sinônimos e o contexto, por exemplo;
  • HTTPS/SSL Update (2014): Tornou o HTTPS, sites que possuem certificado de segurança, fator de ranqueamento. Movimento para incentivar uma internet mais segura;
  • Mobile Friendly Update (2015): Priorização nos resultados de busca a sites adaptáveis para dispositivos móveis. Quanto mais amigável para mobile, mais relevante se tornou o site;
  • Rankbrain (2015): Complemento às ideias trazidas pelo Hummingbird, utiliza aprendizado de máquina para melhor compreensão do campo semântico das buscas, permitindo interpretação de uma frase de busca inédita a partir de buscas já conhecidas pelo robô;
  • Fred (2017): Privilégio a conteúdos originais, bem escritos e estruturados, que proporcionem uma boa experiência de leitura ao usuário. Legibilidade passa a ser um fator preponderante;

Premiação à expertise, autoridade e credibilidade

  • Medic Core (2018): Grande mudança de algoritmo com impacto especial em sites da área de saúde e finanças, com conteúdo de impacto direto na vida das pessoas (Your Money, Your Life). Essa atualização trouxe pela primeira vez, portanto, a necessidade de usar a autoridade a favor do conteúdo (EAT). Seja o ratificando pela assinatura de especialistas ou pelo depoimento de clientes/pacientes.
  • EAT (2019): Sigla para Expertise, Authoritativeness and Trustworthiness (Expertise, Autoridade e credibilidade na tradução para o português), a atualização ampliou as definições trazidas pelo Medical Update para outras áreas de conteúdo e deixou claro que as credenciais dos autores e relevância da empresa no nicho de pesquisa seriam preponderantes no posicionamento orgânico das buscas.

Humanização do algoritmo

  • BERT (2019): O mais novo algoritmo do Google promete uma revolução ao permitir que o mecanismo de busca entenda as pesquisas de uma maneira mais semelhante aos humanos, além de utilizar aprendizado de máquina para interpretação do contexto. Quando implementado em português, visto que foi lançado inicialmente apenas para pesquisas em língua inglesa, o Bidirectional Encoder Representations from Transformers ajudará compreender, pelo contexto, se uma busca tem intenção relacionada ao bairro do Flamengo ou ao clube de futebol, por exemplo.

Search Experience Optimization, a ressignificação do SEO

Se há pouco tempo o conteúdo já foi rei, estando no foco do dia a dia de agências e profissionais de SEO, hoje é o usuário quem está absolutamente no centro das atenções.

Há quem defenda, e me incluo nesse grupo, ressignificar a sigla SEO. Muito mais do que otimização para motores de busca, é preciso trabalhar numa otimização para experiências de busca, ou seja, Search Experience Optimization.

Um trabalho de SEO só poderá ser bem sucedido se, antes de tudo, atender a um comportamento de busca e compreender sua intenção.

Por isso, o trabalho de SEO deixou de ser puramente técnico para abraçar as ciências humanas e se aproximar daquilo que é inerentemente humano.

Dúvidas, dores, dificuldades e questionamentos de pessoas reais – não de robôs – são fontes em que todos que se interessam por SEO devem beber para conseguir vislumbrar traduzir esses sentimentos em forma de conteúdo útil.

O foco no usuário, na esteira das mais recentes mudanças de algoritmo promovidas pelo Google, se reflete na absoluta preocupação com a usabilidade em dispositivos móveis, por exemplo, mas também no privilégio a conteúdos contextualizados e semanticamente relacionados ao comportamento e à intenção de busca do usuário.

Em suma, Search Experience Optimization é mais do que apenas um conceito, é uma exigência.