Introdução
Há mais de uma década, vem sendo discutida a possibilidade de o Google adicionar um visualizador de ações automatizadas ao Google Search Console, semelhante ao visualizador de ações manuais existente. Essa ferramenta permitiria que os proprietários de sites vissem se o desempenho de seus sites foi afetado negativamente pelos algoritmos de classificação de pesquisa do Google.
Recentemente, Danny Sullivan, o contato de pesquisa do Google, expressou seu apoio a essa ideia no X (antigo Twitter). Sullivan mencionou que havia discutido recentemente a possibilidade com a equipe de pesquisa do Google e que previa revisitar o conceito.
A evolução da ideia
A ideia está sendo discutida desde pelo menos 2015. Embora inicialmente descartada, ela foi revisada periodicamente, inclusive em 2018. Sabe-se que os próprios Googlers podem procurar problemas algorítmicos específicos com sites específicos, usando ferramentas internas, como um servidor de penalidades do Google.
Desafios na implementação de um visualizador de ações automatizado
Sullivan destacou dois desafios importantes na implementação desse visualizador:
1. Potencial de abuso:
- Jogar com o sistema: A revelação de indicadores algorítmicos de spam poderia permitir que os malfeitores manipulassem e ajustassem suas táticas para evitar penalidades, o que seria prejudicial à integridade dos resultados de pesquisa.
2. Natureza das ações algorítmicas:
- Automatizadas e não específicas: As ações algorítmicas não são direcionadas a sites específicos, mas detectam padrões em todo o conteúdo. Isso significa que não há processo manual para suspender uma ação algorítmica, ao contrário das ações manuais que podem ser revisadas e suspensas individualmente.
Explicação completa de Sullivan
Sullivan explicou que os sites que estão sofrendo quedas na classificação podem não ser necessariamente afetados por uma ação algorítmica de spam. Muitas vezes, os sites podem não ter uma boa classificação devido ao fato de outros sistemas avaliarem seu conteúdo como menos útil ou relevante. Ele expressou seu apoio ao fornecimento de mais transparência no Search Console, para que os proprietários de sites possam ver se foram afetados por uma ação algorítmica, semelhante às ações manuais.
Como lidar com problemas de spam e qualidade:
-
Ações manuais: As ações manuais são específicas e podem ser revisadas mediante solicitação.
-
Ações algorítmicas: São automatizadas e baseadas em padrões, impossibilitando a intervenção manual.
Simpatia pelos proprietários de sites:
- Sullivan reconheceu a frustração de não saber a causa de uma queda de tráfego e sugeriu a ideia de um sistema de notificação em que os proprietários de sites pudessem indicar "Não é spam!". Isso poderia ajudar a aprimorar os sistemas automatizados de detecção de spam do Google, embora apresente o risco de os verdadeiros spammers alegarem falsamente inocência.
Melhorar a transparência:
- Sullivan discutiu a possibilidade de mostrar mais indicadores no Search Console, o que poderia ajudar os criadores a entender melhor o desempenho de seu conteúdo. No entanto, ele observou o desafio de equilibrar a transparência com o risco de manipulação do sistema.
Seguindo em frente
Embora a ideia de um visualizador de aç ões automatizadas no Search Console não seja nova, ela enfrenta desafios significativos relacionados à transparência, ao abuso do sistema e à natureza das ações algorítmicas. Os comentários recentes de Sullivan indicam que o Google está aberto a explorar maneiras de fornecer mais insights e suporte aos proprietários de sites, o que pode levar a novas ferramentas e melhorias no futuro.
Por enquanto, os profissionais de SEO e os proprietários de sites devem continuar a monitorar seus dados do Search Console, concentrar-se na criação de conteúdo de alta qualidade e manter-se atualizados sobre quaisquer alterações ou anúncios do Google em relação aos algoritmos e ferramentas de classificação de pesquisa.