As mensagens de status “Detectada, mas não indexada no momento” (Discovered – Currently not indexed) e “Rastreada, mas não indexada no momento” (Crawled – Currently not indexed) tem aparecido cada vez mais para os geradores de conteúdo dentro do Google Search Console, ferramenta responsável para ajudar webmasters na indexação de sites e blogs.
Neste artigo vamos ensinar como corrigir todos os problemas e erros relacionados a estas mensagens que, apesar de serem parecidas, possuem significados bem diferentes.

Seções desta página
O que significa “Detectada, mas não indexada no momento”
O status “Detectada, mas não indexada no momento” significa que o Googlebot detectou o seu site ou a sua página, sabe que a URL existe, mas por algum motivo ainda não realizou a varredura de indexação e rankeamento na busca orgânica.
Este é um problema que pode estar relacionado com a falta de atualizações regulares do conteúdo de uma página, podendo acontecer frequentemente com aqueles que possuem um blog, mas não realiza atualizações nem publicações de novos artigos há muito tempo.
O que significa “Rastreada, mas não indexada no momento”
O status “Rastreada, mas não indexada no momento” significa que a URL já foi rastreada pelo Googlebot, mas ele decidiu não indexá-la na busca orgânica por algum erro ou problema em específico.
Apesar de vários gurus e experts em SEO afirmarem que este é um status que indica conteúdo fraco, de qualidade duvidosa, ou que um XML Sitemap não foi corretamente enviado para o Search Console, existem algumas outras teorias que tratam este assunto de uma forma mais abrangente.
Erros que impedem a indexação e o rastreamento de uma página
Assim como escrevemos acima, por ser um assunto delicado e com poucas informações oficiais disponibilizadas pelo suporte do Google, e também pela ferramenta Search Console, nem todos os gurus e experts em SEO conseguem chegar a um denominador comum.
Explico: seria muito mais fácil para o criador de conteúdo se o Google colocasse em seu relatório o motivo ou o problema pelo qual o Googlebot decidiu não rastrear ou detectar uma página.
Mas enquanto este relatório mais detalhado não existe, montamos uma lista que pode te ajudar a resolver estes problemas e possíveis erros.
Corrigindo problemas de SEO e métricas da web
Se você ainda não está familiarizado com este assunto, recomendamos veementemente a leitura do nosso artigo sobre “Core Web Vitals” que explica detalhadamente todas as métricas relacionadas com a experiência que os seus visitantes têm ao visitar o seu site.
Através das “Métricas da Web” você fica por dentro de todo o seu conteúdo estrutural e como anda a saúde do seu site. Incluindo os problemas com a experiência de navegação.
- Core Web Vitals: métricas de experiência do usuário final do Google
- Guia SEO: Manual completo e definitivo sobre otimização de sites
Falta de backlinks ou link building com autoridade
Não é uma regra, mas pode acontecer de sites ou blogs recém criados demorarem mais tempo para serem detectados e/ou rastreados pelo Googlebot.
Nossa principal dica para resolver este problema é configurar corretamente um XML Sitemap e ter uma boa rede de link building, incluindo backlinks internos e externos saudáveis, que são recebidos organicamente através de páginas que possuem boa autoridade de domínio.
- Por que XML Sitemap é importante para SEO
- Como criar estratégias para Link Building com táticas inteligentes
- O que é autoridade de domínio: como verificar e aumentar sua relevância
Conteúdo duvidoso, de má qualidade ou duplicado
Outro fator importante a ser conferido é se o conteúdo da sua página, site ou blog possui boa qualidade. Caso contrário, as chances deste conteúdo cair na malha fina do Googlebot são reais.
Inclusive, sites e blogs que produzem conteúdos genéricos, que violam direitos autorais e realizam plágios de outros artigos — o famoso Ctrl C + Ctrl V — também entram para esta lista de impedimentos do Googlebot.
Outro item importante que deve ser verificado é sobre os conteúdo duplicado. Isso gera dúvidas no Googlebot e, por isso, pode fazê-lo decidir por sua não indexação.
- Como criar estratégias para marketing de conteúdo
- Os maiores segredos para ter um site de sucesso e memorável
Site ou blog com pouca atualização
Outro problema que pode estar diretamente relacionado a este tipo de problema é a falta de atualização frequente da página em questão, sendo sinalizado pelo Googlebot como site com pouca ou mínima atividade. Por isso, a dica é convencer o Google de que seu site está produzindo conteúdo com regularidade.
Então, partindo do princípio de que o seu XML Sitemap esteja devidamente configurado no Search Console, comece a produzir, durante uma semana, cerca três artigos por dia e use o agendamento de posts do WordPress para publicá-los em horários específicos.
Na maioria dos casos, em poucos dias o Googlebot vai começar a detectar e fazer a varredura do seu conteúdo com mais rapidez e, consequentemente, indexando-o rapidamente na SERP (Página de Resultados do Mecanismo de Pesquisa).
Domínios novos e sites recém criados
Este problema de indexação e rastreamento de conteúdo também acontece muitas vezes em sites e blogs que foram recém criados e que usam um domínio relativamente novo.
Para contornar esta situação, nossa dica é configurar corretamente — mais uma vez — o XML Sitemap no Google Search Console e realizar os procedimentos de backlinks e link building citados mais acima, neste mesmo artigo. Além de, é claro, começar a gerar o máximo de conteúdo.
Se tudo der errado…
Infelizmente, se você chegar até este último tópico, significa que já tentou de tudo e nenhum dos procedimentos sugeridos teve um efeito satisfatório diante da busca orgânica nem no Search Console.
Então, nossa sugestão é que você (1) apague o artigo não indexado ou não rastreado, (2) marque sua URL com “status 410”, (3) reescreva com outras palavras todo o seu conteúdo em um novo artigo e (4) publique-o novamente.
Foto: Kindel Media via Pexels.