Vazamento dos dados do algoritmo do Google movimentou o mundo do SEO e trouxe à tona verdades que o Google sempre negou veementemente. Confira quais são.
Nesta semana, o mundo do SEO foi abalado por uma notícia surpreendente: dados confidenciais do algoritmo de busca do Google foram vazados e rapidamente se espalharam pela internet. Esse vazamento trouxe à tona segredos e detalhes do funcionamento interno do algoritmo, confirmando diversas teorias que os analistas de SEO já discutiam há anos.
Quero mostrar as dez teorias que se mostraram verdadeiras e explicar uma a uma, para que você entenda como o Google ranqueia os sites.
Tudo começou com este artigo da sparktoro no final de semana.
Entendendo os dados vazados
Aleyda Solis fez um rápido resumo no X (antigo Twitter) onde resumiu parte do vazamento:
- Existem recursos de classificação de 14K que o Google utiliza para ranquear um site e muito mais nos documentos;
- O Google tem um recurso que eles computam chamado “siteAuthority”;
- O Navboost possui um módulo específico totalmente focado em sinais de clique que representam os usuários como eleitores e seus cliques são armazenados como votos;
- O Google armazena qual resultado tem o clique mais longo durante a sessão;
- O Google tem um atributo chamado hostAge que é usado especificamente “para proteger spam novo no tempo de veiculação”;
- Um dos módulos relacionados aos índices de qualidade da página apresenta uma medida de visualizações no nível do site do Chrome.
Embora possa existir muita confusão, não podemos dizer que os documentos vazados explicam fielmente como funciona o algoritmo de busca do Google. O documento é extenso e, na verdade, mostra que a busca do Google é uma grande ecossistema, não exatamente um algoritmo trabalhando sozinho.
O documento descreve 2.596 módulos com 14.014 recursos de classificação relacionados a vários serviços do Google.
Vazamento dos dados do algoritmo do Google – 10 verdades que o Google sempre negou
1. A importância dos backlinks de qualidade
Os links continuam sendo importantes. Vazaram métricas como sourceType indicando o valor dos links com base em onde a página está indexada.
Por anos, os especialistas em SEO têm defendido a teoria de que a qualidade dos backlinks é importante para o ranqueamento de um site. Com o vazamento, foi confirmado que o algoritmo do Google dá uma enorme importância aos backlinks vindos de sites com alta autoridade e relevância.
Não se trata apenas da quantidade, mas sim da qualidade dos links que apontam para seu site.
Os dados vazados também mostram que backlinks de sites confiáveis e respeitados aumentam significativamente a autoridade do domínio, resultando em melhores posições nas SERPs (Search Engine Result Pages).
Você se lembra quando o Google falava que se você sofresse ataque de link, não era necessário fazer disavow, porque o Google sabia quais links eram ruins e eles não prejudicariam seu site?
O que sempre fez diferença nisso tudo é também o próprio site. Jogar milhares de links ruins na Forbes não terá nenhum resultado, mas jogar centenas de links ruins no blog pessoal de alguém provavelmente irá matá-lo.
Eu sou prova disso. Em 2019, tive um site que teve esse mesmo final e apenas SEOs experientes acreditaram em mim quando relatei o ocorrido.
2. Conteúdo longo e relevante
Outra teoria confirmada foi a de que o conteúdo longo e bem estruturado tende a performar melhor.
O Google valoriza páginas que oferecem informações completas e detalhadas sobre um assunto, garantindo qualidade para o usuário.
Com o vazamento, os dados revelaram que artigos com mais de 1200 palavras, que abordam um tópico de maneira abrangente e incluem várias subtópicos relevantes, são frequentemente recompensados com posições mais altas nos resultados de busca.
3. Velocidade do site e experiência do usuário
A velocidade de carregamento do site e a experiência do usuário (UX) sempre foram considerados como fatores importantes para o ranqueamento.
O vazamento confirmou que o Google tem métricas específicas para avaliar a rapidez com que um site carrega e como os usuários interagem com ele.
Sites que carregam rapidamente e oferecem uma navegação intuitiva, sem muitos elementos que possam tirar a atenção do usuário, têm uma vantagem significativa no ranqueamento.
4. E-A-T (Expertise, Authoritativeness, Trustworthiness): autoridade e confiança do site
O conceito de E-A-T, que se refere à Expertise (Especialização), Authoritativeness (Autoridade) e Trustworthiness (Confiabilidade), foi amplamente discutido no mundo do SEO.
O vazamento mostrou que o Google usa critérios rigorosos para avaliar a qualidade das páginas baseados nesses três pilares.
Sites que demonstram alta expertise no conteúdo, têm autoridade no nicho e transmitem confiança são priorizados nos resultados de busca.
A documentação revela um recurso chamado “siteAuthority”, indicando que o Google mede a autoridade em todo o site.
Sandbox
A documentação menciona um atributo “hostAge” usado para a sandbox de novos sites, contradizendo a negação do Google de sandbox.
Sandbox é um conceito que profissionais de SEO usam para explicar por que um site novo que ia para o ar, demorava alguns meses para conseguir visitas e realmente “decolar”.
Agora é revelado que isso realmente existe, domínios novos demoram a ser confiáveis e pegarem tração na busca.
5. Intenção do usuário (User Intent)
Compreender e satisfazer a intenção do usuário é outro fator crítico que foi confirmado.
O Google tem se aprimorado continuamente na identificação da intenção por trás das buscas dos usuários, ajustando os resultados para melhor atender às suas necessidades.
Se um usuário está procurando informações detalhadas, produtos para compra ou respostas rápidas, o algoritmo é capaz de detectar essas intenções e entregar os resultados mais relevantes.
Sites que alinham seu conteúdo com as diferentes intenções de busca dos usuários tendem a obter melhores posições.
6. Sinais sociais
Os sinais sociais, como compartilhamentos e engajamento em redes sociais, sempre foram um tópico de debate entre os especialistas em SEO.
O vazamento confirmou que, embora não sejam fatores diretos de ranqueamento, os sinais sociais podem sim influenciar indiretamente a visibilidade de um site.
Independente disso, os conteúdos que são amplamente compartilhados e discutidos nas redes sociais tendem a receber mais atenção, aumentando a probabilidade de ganhar backlinks naturais e tráfego orgânico.
7. Otimização para dispositivos móveis
Com a crescente utilização de dispositivos móveis, a otimização para mobile tornou-se uma prioridade.
O vazamento revelou que o Google dá grande importância ao design responsivo e à performance em dispositivos móveis.
Sites que oferecem uma experiência fluida e rápida em smartphones e tablets são favorecidos no ranqueamento, refletindo a prioridade do Google em proporcionar uma excelente experiência de usuário em todos os dispositivos.
8. Freshness do conteúdo
A teoria de que o Google valoriza conteúdos novos e atualizados também foi confirmada.
O algoritmo dá preferência a conteúdos recentes, especialmente para buscas relacionadas a notícias e tópicos em constante mudança.
Manter o conteúdo atualizado e relevante é crucial para garantir que as páginas continuem a performar bem nos resultados de busca.
9. Uso de Rich Snippets e dados estruturados
Os Rich Snippets e os dados estruturados ajudam o Google a entender melhor o conteúdo de uma página e a exibi-lo de forma mais atraente nos resultados de busca.
O vazamento confirmou que o uso de dados estruturados pode melhorar significativamente a visibilidade de um site, aumentando a chance de aparecer em Featured Snippets e outras formas enriquecidas de resultados.
10. CTR na busca, tempo de permanência e taxa de rejeição
O Google examina os cliques e o envolvimento nas pesquisas durante e após a consulta principal (referida como “consulta NavBoost”).
Por exemplo, se muitos usuários pesquisarem “Rand Fishkin” e não encontrarem SparkToro, mas alterarem imediatamente sua consulta para “SparkToro” e clicarem em SparkToro.com no resultado da pesquisa, SparkToro.com (e sites que mencionam “SparkToro”) receberão um impulso nos resultados da pesquisa para a palavra-chave “Rand Fishkin”.
Quando eu falava isso em eventos, muitos davam risada….
Ao contrário das negações públicas do Google, sistemas como o NavBoost usam dados de cliques para influenciar as classificações.
O Google presta atenção ao comportamento do usuário após clicar em um resultado de busca. O tempo de permanência (dwell time) e a taxa de rejeição (bounce rate) são indicadores importantes de quão útil e relevante é o conteúdo para os usuários.
Páginas que mantêm os visitantes por mais tempo e têm baixas taxas de rejeição tendem a ser recompensadas com melhores posições nos resultados de busca.
“Ah, mas então quem não usa Analytics não vai ranquear? Já que não teria como ver a taxa de rejeição?”.
Bem, o Analytics existe para mostrar o dado a você, isso não quer dizer que esse dado não exista ou não seja medido pelo Google de alguma forma. Afinal a busca ocorre no sistema dele. Por que ele não mediria isso?
No vazamento também não fica claro que a taxa de rejeição é realmente usada e qual seu peso em relação aos outros mais de mil fatores de ranqueamento relacionados.
Bônus e curiosidades – Twiddlers
Aparecem várias menções aos Twiddlers no documento. Twiddlers são funções de reclassificação executadas após o algoritmo de pesquisa principal do Ascorer, algo semelhante a filtros e ações no WordPress.
Os Twiddlers ajustam a pontuação de recuperação de informações ou alteram a classificação de um documento antes de ele ser apresentado ao usuário.
Essas funções de reclassificação também podem promover a diversidade, limitando o tipo de resultados em uma SERP. Para isso, são usados vários experimentos ao vivo e sistemas nomeados como ‘NavBoost’, ‘QualityBoost’, ‘RealTimeBoost’ e ‘WebImageBoost’.
Esses sistemas desempenham um papel decisivo no ajuste fino dos resultados finais da pesquisa apresentados aos usuários.
Conclusão – o que penso disso tudo?
Bem, por mais que muitas pessoas estejam postando que esse vazamento vai mudar tudo o que as pessoas sabem sobre SEO, a verdade é que para quem já trabalha e fazia testes, o vazamento mudou muito pouco ou quase nada sobre o que já conhecíamos. No máximo temos mais uma validação, agora totalmente oficial, de como certas frentes de trabalho funcionam.
O vazamento dos dados do algoritmo do Google trouxe uma visão sem precedentes sobre os fatores que realmente importam para o ranqueamento nos mecanismos de busca.
As teorias que os analistas de SEO vinham discutindo há anos foram confirmadas, reforçando a importância de estratégias bem fundamentadas.
Backlinks de qualidade, conteúdo longo e relevante, velocidade do site, E-A-T, compreensão da intenção do usuário, sinais sociais, otimização para dispositivos móveis, frescor do conteúdo, uso de rich snippets e dados estruturados, e a atenção ao comportamento do usuário são componentes essenciais para alcançar e manter boas posições no Google.
Mas, para quem não fazia testes e acreditava cegamente no Google, essas revelações realmente podem trazer mudanças.
Profissionais de SEO e webmasters têm agora a oportunidade de ajustar suas estratégias com base em informações concretas, dirigindo melhor seus esforços para alcançar melhores resultados.
Fique atento às próximas atualizações e continue aprimorando suas práticas de SEO para se destacar no competitivo mundo digital.
Deixe no seu comentário: o que voce acha disso tudo?
Referências: Search engine land – SwipeInsight – Edge Flash
Melhor artigo que vi sobre o vazamento do google! Muito bom Almy! Mas cá entre nós, como você mesmo falou… não tem nenhuma novidade para quem testa a anos o algorítimo do google.