Auditoria de SEO: O Que é e o Que Verificar no Seu Site

Análise técnica de SEO em tela de computador com dados de auditoria

Antes de qualquer trabalho de otimização de sites, existe uma etapa que define se o que vem depois vai funcionar ou não: a auditoria de SEO. Sem ela, você está aplicando correções sem saber onde estão os problemas reais, priorizando o que parece urgente em vez do que efetivamente impacta o ranqueamento.

Uma auditoria de SEO bem feita não é uma lista genérica de itens para marcar. É um diagnóstico do estado atual do site que revela por que certas páginas não ranqueiam, por que o Google não está indexando o que deveria, por que o tráfego caiu depois de uma atualização do algoritmo ou simplesmente por que o site nunca saiu do lugar apesar do conteúdo produzido.

Este artigo cobre o que verificar em cada etapa de uma auditoria, quais ferramentas usar e como interpretar o que você encontrar. Não entra em como corrigir cada problema, isso é escopo de execução. O objetivo aqui é o diagnóstico.

O Que é uma Auditoria de SEO e Quando Fazer

Uma auditoria de SEO é um processo estruturado de análise do site que identifica problemas técnicos, de conteúdo e de autoridade que estão impedindo o crescimento orgânico. Ela cobre desde a forma como o Googlebot rastreia e indexa o site até a qualidade dos backlinks que apontam para ele.

Você precisa de uma auditoria quando:

O site existe há algum tempo mas nunca passou por uma revisão técnica formal. Qualquer site com mais de seis meses de vida acumula problemas silenciosamente: redirects desnecessários, páginas indexadas que não deveriam estar, conteúdo duplicado gerado por filtros ou parâmetros de URL, imagens sem alt text, títulos repetidos entre páginas. Esses problemas não geram erros visíveis para o usuário mas são claramente percebidos pelo Googlebot.

Houve uma queda de tráfego sem causa aparente. Quedas que coincidem com atualizações do algoritmo do Google geralmente têm causa técnica ou de qualidade de conteúdo identificável. A auditoria é o que revela qual.

O site foi migrado, redesenhado ou teve mudanças estruturais. Migrações são o cenário de maior risco para SEO. URLs mudam, redirects falham, conteúdo some. Uma auditoria pós-migração é obrigatória.

O trabalho de SEO não está gerando resultado esperado. Quando a produção de conteúdo está acontecendo mas o tráfego não cresce, quase sempre existe um problema técnico impedindo que o esforço editorial se converta em posicionamento.

Rastreamento e Indexação: o Google Está Acessando Suas Páginas?

Essa é a primeira camada da auditoria e a mais crítica. Não importa a qualidade do conteúdo se o Googlebot não consegue acessar, rastrear e indexar as páginas corretamente.

O Que Verificar

Cobertura de indexação no Search Console. O Google Search Console mostra quantas páginas estão indexadas, quais têm erros e quais foram excluídas do índice e por quê. Abra o relatório de Cobertura e analise cada categoria: páginas com erro (4xx, 5xx), páginas excluídas por noindex, páginas descobertas mas não indexadas, e páginas válidas. A diferença entre o número de páginas que o site tem e o número indexado é o primeiro dado relevante da auditoria.

Arquivo robots.txt. Acesse seudominio.com/robots.txt e verifique se existe alguma diretiva bloqueando páginas estratégicas. É um dos erros mais comuns e mais impactantes: bloquear acidentalmente a pasta do site inteiro ou seções importantes durante uma migração e nunca reverter.

Sitemap XML. Verifique se o sitemap existe, se está sendo enviado ao Search Console e se as URLs listadas nele são as mesmas que você quer que o Google indexe. Sitemaps desatualizados com URLs que retornam 404 ou que não existem mais sinalizam desorganização para o Googlebot.

Crawl budget. Para sites com muitas páginas, o Google limita quantas URLs rastreia em um determinado período. Se o site tem páginas de paginação, filtros de e-commerce ou URLs com parâmetros gerando variações infinitas do mesmo conteúdo, o crawl budget está sendo desperdiçado em páginas sem valor em vez de ser concentrado nas páginas estratégicas.

Ferramenta: Screaming Frog para rastrear o site de forma similar ao Googlebot e identificar erros de rastreamento, redirects em cadeia e páginas bloqueadas. Google Search Console para os dados reais de como o Google está vendo o site.

Como Interpretar

Páginas importantes que aparecem como “descobertas mas não indexadas” no Search Console geralmente indicam problemas de qualidade de conteúdo ou de autoridade da página, não de rastreamento. O Google encontrou a página mas optou por não indexar. Páginas com erro de servidor (5xx) são problemas de infraestrutura que precisam de atenção imediata. Páginas bloqueadas por robots.txt ou noindex que deveriam estar indexadas são o tipo de erro mais fácil de identificar e mais rápido de resolver.

Problemas de On-Page: Títulos, Meta Descriptions, Headings e URLs

Depois de confirmar que o Google consegue acessar e indexar o site, a auditoria avança para os elementos on-page. São os fatores que o Google lê em cada página individualmente para entender o tema e avaliar a relevância.

O Que Verificar

Title tags. Cada página deve ter um título único, com até 60 caracteres, contendo a palavra-chave principal preferencialmente no início. Na auditoria, você vai encontrar páginas sem título, páginas com o mesmo título repetido em múltiplas URLs e títulos que foram truncados pelo Google porque passam do limite de caracteres. O Screaming Frog exporta uma lista de todas as titles do site com o tamanho de cada uma, o que torna essa verificação rápida mesmo em sites grandes.

Meta descriptions. Não são fator direto de ranqueamento, mas influenciam o CTR nos resultados de busca. Páginas sem meta description fazem o Google escolher um trecho do conteúdo automaticamente, o que raramente é o melhor texto possível para convencer o usuário a clicar. Verifique quais páginas não têm meta description e quais têm descrições repetidas.

Estrutura de headings. Cada página deve ter um único H1 contendo a palavra-chave principal. A hierarquia de H2 e H3 deve ser respeitada: não usar H3 sem H2 precedente, não pular níveis da hierarquia. Na auditoria, o foco é identificar páginas sem H1, páginas com múltiplos H1 e estruturas de heading que não fazem sentido hierárquico.

URLs. URLs com parâmetros dinâmicos, com caracteres especiais, com mais de 3 níveis de profundidade para páginas estratégicas ou sem a palavra-chave principal são candidatas a revisão. Além disso, verifique se existem múltiplas versões da mesma URL acessível (com e sem www, com e sem barra final, com http e https) sem redirecionamento canônico.

Dados estruturados. Se o site usa Schema markup, verifique se está implementado corretamente usando o Rich Results Test do Google. Schemas com erros são ignorados pelo algoritmo.

Como Interpretar

Títulos duplicados são o problema mais comum e mais fácil de priorizar: cada URL sem título único é uma oportunidade perdida de sinalizar relevância para o Google. Páginas sem H1 ou com múltiplos H1 indicam falta de estrutura editorial que compromete a clareza do tema para o algoritmo. URLs com parâmetros sem canonical são potencialmente responsáveis por conteúdo duplicado que dilui autoridade.

Velocidade e Core Web Vitals: LCP, INP e CLS na Prática

Desde que o Google incluiu os Core Web Vitals como fator de ranqueamento, a velocidade deixou de ser apenas uma métrica de experiência do usuário e passou a influenciar diretamente o posicionamento orgânico. A auditoria de SEO precisa cobrir essa camada com dados reais, não apenas estimativas.

O Que Verificar

LCP (Largest Contentful Paint). Deve estar abaixo de 2,5 segundos. Na auditoria, o foco é identificar quais URLs específicas estão falhando nessa métrica e qual elemento está sendo identificado como o maior conteúdo da página, geralmente uma imagem hero ou bloco de texto acima da dobra.

INP (Interaction to Next Paint). Substituiu o FID como métrica de responsividade. Mede o tempo de resposta da página à interação do usuário, como clique em botão ou link. Deve estar abaixo de 200ms. Problemas de INP geralmente têm origem em JavaScript pesado executando na thread principal.

CLS (Cumulative Layout Shift). Mede a estabilidade visual da página durante o carregamento. Quando elementos mudam de posição enquanto a página carrega, o CLS aumenta. O limite aceitável é abaixo de 0,1. Causas comuns são imagens sem dimensões definidas no HTML e anúncios ou embeds carregados de forma assíncrona que empurram o conteúdo.

Ferramenta: PageSpeed Insights para análise por URL com dados de campo reais coletados pelo Chrome. Google Search Console, na seção Experiência, para uma visão agregada de quantas URLs do site estão com Core Web Vitals bons, precisam de melhoria ou estão ruins.

Como Interpretar

O PageSpeed Insights entrega dois conjuntos de dados: dados de laboratório (simulação) e dados de campo (experiência real de usuários do Chrome). Priorize sempre os dados de campo quando disponíveis, pois refletem o que o Google efetivamente considera no ranqueamento. URLs com Core Web Vitals marcados como “Ruim” no Search Console têm impacto direto no posicionamento e devem ser priorizadas na correção. URLs com “Precisa de melhoria” são candidatas à segunda rodada de otimização após as críticas serem resolvidas.

A linkagem interna é uma das alavancas mais subutilizadas de SEO. Uma boa estrutura de links internos distribui autoridade para as páginas estratégicas, facilita o rastreamento pelo Googlebot e orienta o usuário para a próxima etapa da jornada. A auditoria de SEO verifica se essa estrutura existe e se está funcionando corretamente.

O Que Verificar

Páginas órfãs. São páginas que existem no site mas não recebem nenhum link interno. O Googlebot descobre essas páginas apenas via sitemap, o que reduz a frequência de rastreamento e a transferência de autoridade. Qualquer página estratégica sem links internos apontando para ela é um problema.

Profundidade de cliques. Páginas estratégicas devem estar a no máximo três cliques de distância da home. Páginas mais profundas recebem menos autoridade e são rastreadas com menos frequência. O Screaming Frog gera um relatório de profundidade de cliques que permite identificar rapidamente quais páginas estão enterradas na estrutura.

Textos âncora. O texto clicável de cada link interno é um sinal de relevância para o Google sobre o tema da página de destino. Links com âncora “clique aqui” ou “saiba mais” desperdiçam essa oportunidade. Na auditoria, identifique os principais links internos do site e avalie se os textos âncora são descritivos e incluem a palavra-chave da página de destino.

Links quebrados. Links internos que apontam para URLs que retornam erro 404 são um problema duplo: prejudicam a experiência do usuário e interrompem o fluxo de autoridade entre as páginas. O Screaming Frog identifica todos os links quebrados em uma passagem.

Como Interpretar

Páginas estratégicas sem links internos são a prioridade imediata: a correção é simples (adicionar links de outras páginas relevantes) e o impacto é direto. Links com âncoras genéricas são oportunidade de melhoria, não emergência. Links quebrados em páginas com alta autoridade de domínio são prioritários porque estão desperdiçando potencial de transferência de autoridade.

O Que Verificar

Volume e qualidade dos domínios referenciadores. Quantidade de backlinks é menos importante do que a qualidade dos domínios que os enviam. Um link de um portal com alta autoridade editorial vale mais do que cem links de sites sem relevância. Na auditoria, analise os domínios referenciadores pelo Domain Rating (Ahrefs) ou Domain Authority (Moz) e identifique quais são as fontes mais valiosas.

Links tóxicos. Links provenientes de sites spam, link farms, redes de links privadas (PBNs) ou sites sem relevância temática alguma podem prejudicar o posicionamento. O Ahrefs e o SEMrush classificam backlinks por toxicidade e permitem identificar os suspeitos rapidamente.

Textos âncora dos backlinks. Um perfil de backlinks saudável tem variedade natural de âncoras: nome da marca, URL direta, variações da palavra-chave e âncoras genéricas. Um perfil com excesso de âncoras exatas de keyword pode ser interpretado pelo Google como manipulação, especialmente se os links vieram de forma não natural.

Links perdidos recentemente. Backlinks que existiam e foram removidos podem explicar quedas de tráfego. O Ahrefs rastreia o histórico de backlinks perdidos e permite identificar se uma queda de autoridade coincide com a perda de links importantes.

Como Interpretar

Um perfil de backlinks com poucos domínios referenciadores de alta qualidade é muito mais saudável do que um com centenas de links de sites de baixa qualidade. Links tóxicos identificados pela ferramenta não precisam ser desautorizados imediatamente: avalie o contexto antes de usar o disavow tool do Search Console, porque desautorizar links de forma indiscriminada pode remover links legítimos junto com os problemáticos.

Conteúdo Duplicado e Canonicalização

Conteúdo duplicado é um dos problemas mais comuns em sites com algum volume de páginas e um dos mais difíceis de perceber sem uma auditoria. O Google não penaliza conteúdo duplicado diretamente, mas quando múltiplas URLs têm conteúdo idêntico ou muito similar, a autoridade fica diluída entre elas e o algoritmo pode escolher indexar a versão errada.

O Que Verificar

Versões duplicadas do domínio. O site deve ser acessível por uma única versão de URL: com www ou sem, com HTTPS ou HTTP, com barra final ou sem. Todas as outras versões devem redirecionar para a canônica. Verifique se http://, https://, http://www. e https://www. estão todas redirecionando corretamente para a versão definitiva.

Páginas de paginação. Páginas de blog, categorias e e-commerces frequentemente geram URLs de paginação (/page/2, /page/3) com conteúdo que varia apenas nos posts listados. Configure canonical apontando para a página principal da categoria ou use atributos de paginação corretamente.

Parâmetros de URL em e-commerces. Filtros de cor, tamanho, ordenação e disponibilidade criam variações de URL com o mesmo conteúdo de produto. Sem canonical ou sem bloqueio via robots.txt, o Google indexa todas essas variações como páginas separadas, diluindo a autoridade da página de produto principal.

Conteúdo thin e near-duplicate. Páginas com conteúdo muito raso (menos de 300 palavras sem propósito claro) ou com conteúdo quase idêntico a outras páginas do próprio site são candidatas a consolidação ou remoção. O Screaming Frog identifica páginas com pouco conteúdo e ferramentas como o Siteliner detectam similaridade de conteúdo entre páginas do mesmo domínio.

Tags canonical. Verifique se todas as páginas têm canonical tag configurada, mesmo que apontem para si mesmas (self-referencing canonical). Canonicals ausentes deixam o Google sem orientação clara sobre qual versão priorizar.

Como Interpretar

Versões duplicadas do domínio sem redirecionamento são prioridade máxima: o impacto é amplo (afeta o domínio inteiro) e a correção é direta. Parâmetros de URL gerando páginas duplicadas são prioritários em e-commerces pelo volume de páginas envolvido. Conteúdo thin isolado pode ser tratado depois, a menos que esteja em URLs estratégicas.

Ferramentas Usadas em Cada Etapa da Auditoria

Uma auditoria de SEO completa usa ferramentas diferentes para camadas diferentes do diagnóstico. Nenhuma ferramenta cobre tudo com a profundidade necessária:

Google Search Console: Cobertura de indexação, Core Web Vitals agregados, dados de desempenho orgânico (cliques, impressões, CTR, posição média), erros de dados estruturados e links externos reconhecidos pelo Google. É a ferramenta mais importante da auditoria porque mostra dados reais de como o Google está vendo o site, não simulações.

Screaming Frog SEO Spider: Rastreamento completo do site que identifica problemas de on-page (títulos, meta descriptions, headings, URLs), links quebrados, redirects em cadeia, páginas com canonical incorreto, profundidade de cliques e muito mais. A versão gratuita rastreia até 500 URLs, suficiente para sites pequenos.

PageSpeed Insights: Análise de velocidade e Core Web Vitals por URL, com dados de laboratório e dados de campo reais. Essencial para a etapa de performance da auditoria.

Rich Results Test: Validação de Schema markup por URL. Identifica erros de implementação e confirma se a página é elegível para rich snippets.

Ahrefs ou SEMrush: Análise de backlinks, identificação de links tóxicos, histórico de links perdidos, pesquisa de palavras-chave e análise de concorrentes. São ferramentas pagas, mas indispensáveis para a camada de autoridade da auditoria.

Siteliner: Detecção de conteúdo duplicado dentro do próprio domínio. Gratuito para sites de até 250 páginas.

Como Interpretar os Resultados e Priorizar Correções

Uma auditoria de SEO bem executada vai gerar uma lista longa de problemas. O desafio não é encontrá-los, é saber o que resolver primeiro. A priorização segue uma lógica de impacto e esforço.

Prioridade máxima: problemas que impedem indexação. Qualquer problema que está bloqueando o Google de acessar, rastrear ou indexar páginas estratégicas vai no topo da lista. Robots.txt bloqueando conteúdo importante, páginas com noindex acidental, erros de servidor 5xx em URLs estratégicas e domínio sem HTTPS são exemplos. O impacto é imediato porque o site literalmente não existe para o Google enquanto esses problemas persistem.

Prioridade alta: problemas de on-page em páginas estratégicas. Títulos duplicados ou ausentes, páginas sem H1, URLs sem keyword e meta descriptions ausentes nas páginas com maior potencial de tráfego. São correções de baixo esforço técnico com impacto direto no ranqueamento.

Prioridade alta: Core Web Vitals no vermelho. URLs marcadas como “Ruim” no Search Console têm impacto confirmado no posicionamento. Resolva as páginas mais estratégicas primeiro (home, principais páginas de serviço ou produto, artigos de maior tráfego).

Prioridade média: estrutura de links internos. Páginas órfãs e páginas estratégicas muito profundas na hierarquia. O impacto é real mas menos imediato do que os itens anteriores. A correção exige planejamento editorial além de mudança técnica.

Prioridade média: conteúdo duplicado e canonicalização. A menos que o site seja um e-commerce com centenas de variações de produto, o impacto costuma ser menos agudo do que os problemas técnicos de rastreamento. A exceção são as versões duplicadas do domínio sem redirecionamento, que ficam na prioridade máxima.

Prioridade menor: links tóxicos e perfil de backlinks. Salvo em casos de penalização manual confirmada no Search Console, o perfil de backlinks raramente é a causa principal de problemas de ranqueamento em sites que nunca praticaram link building agressivo. Monitore, mas não trate como emergência.

Um bom diagnóstico de auditoria entrega essa classificação de prioridade junto com os problemas identificados. Sem priorização, a lista de itens a corrigir paralisa qualquer equipe, porque tudo parece urgente ao mesmo tempo.

Conclusão

Uma auditoria de SEO bem feita é o que separa um trabalho de otimização com direção clara de um trabalho que produz muito esforço sem resultado proporcional. Ela revela o estado real do site, não o estado que você imagina que ele está.

O processo que descrevi aqui cobre as camadas principais: rastreamento e indexação, on-page, velocidade, links internos, backlinks e conteúdo duplicado. Cada camada usa ferramentas específicas e gera dados que precisam ser interpretados em conjunto, não de forma isolada.

Entender como o SEO técnico se comporta com IA ajuda a contextualizar por que alguns problemas identificados na auditoria têm mais urgência do que outros no cenário atual de busca.

Se você quer fazer uma auditoria estruturada no seu site e ter um diagnóstico claro com prioridades definidas, é exatamente esse trabalho que ofereço no meu serviço de SEO técnico. O resultado é um relatório de problemas priorizados por impacto, não uma lista genérica de itens para marcar.

Leia também

Artigos Relacionados