Robots.txt para Blogger
Configuração Completa do robots.txt no Blogger Explicada Passo a Passo
Se você usa o Blogger e quer melhorar a indexação do seu site no Google, configurar corretamente o arquivo robots.txt é muito importante.
Muitos blogs acabam tendo problemas de SEO por causa de URLs duplicadas, páginas desnecessárias indexadas e parâmetros automáticos do Blogger. Por isso, um robots.txt bem configurado ajuda o Google a entender quais páginas devem ou não aparecer nos resultados de pesquisa.
Neste artigo vou explicar detalhadamente cada linha desse código:
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Disallow: /share-widget
Disallow: /feeds/
Disallow: /comments/
Disallow: /*?updated-max=
Disallow: /*?max-results=
Disallow: /*?by-date=
Disallow: /*?m=1
Disallow: /*?m=0
Disallow: /*?amp=
Disallow: /*?showComment=
Disallow: /*?spref=
Sitemap: https://www.site.com/sitemap.xml
O que é o robots.txt?
O robots.txt é um arquivo usado para orientar os robôs dos mecanismos de busca, como o Google, sobre quais áreas do site podem ou não ser acessadas.
Ele serve para:
evitar indexação de páginas inúteis;
reduzir conteúdo duplicado;
melhorar o rastreamento do site;
organizar melhor o SEO;
informar onde está o sitemap.
No Blogger, esse arquivo pode ser ativado em:
Configurações → Rastreadores e indexação → robots.txt personalizado
Explicando cada linha do robots.txt
Permissão para anúncios do Google
User-agent: Mediapartners-Google
Disallow:
Essa parte libera o robô do Google AdSense para acessar todo o site.
O Mediapartners-Google é o robô responsável pelos anúncios do Google. Deixar essa área liberada ajuda o sistema de anúncios a analisar corretamente o conteúdo das páginas.
Regras para todos os robôs
User-agent: *
O símbolo * significa:
“Essas regras valem para todos os robôs.”
Ou seja, tudo que estiver abaixo será aplicado aos mecanismos de busca.
Bloqueio da página de pesquisa
Disallow: /search
Bloqueia páginas internas de pesquisa do Blogger.
Exemplo:
https://www.site.com/search?q=teste
Essas páginas normalmente não trazem valor para SEO e podem gerar conteúdo duplicado.
Bloqueio do share-widget
Disallow: /share-widget
Impede indexação do widget de compartilhamento do Blogger.
Essa página não possui conteúdo útil para aparecer no Google.
Bloqueio dos feeds RSS
Disallow: /feeds/
Bloqueia os feeds RSS/XML do Blogger.
Exemplo:
/feeds/posts/default
Esses feeds são úteis para leitores RSS, mas geralmente não precisam aparecer nos resultados de pesquisa.
Bloqueio dos comentários
Disallow: /comments/
Evita indexação de páginas individuais de comentários.
Isso ajuda a reduzir páginas duplicadas e sem relevância.
Bloqueio de parâmetros automáticos do Blogger
O Blogger cria várias URLs com parâmetros extras. Esses parâmetros podem gerar versões duplicadas da mesma página.
updated-max
Disallow: /*?updated-max=
Bloqueia URLs de paginação por data.
Exemplo:
?updated-max=2026-05-01
max-results
Disallow: /*?max-results=
Bloqueia URLs com quantidade personalizada de resultados.
Exemplo:
?max-results=10
by-date
Disallow: /*?by-date=
Impede indexação de filtros por data.
parâmetro m=1 e m=0
Disallow: /*?m=1
Disallow: /*?m=0
Esse é um dos bloqueios mais importantes no Blogger.
Os parâmetros ?m=1 e ?m=0 criam versões alternativas da página para dispositivos móveis e desktop.
Exemplo:
https://www.site.com/post.html?m=1
Sem esse bloqueio, o Google pode indexar várias versões iguais da mesma postagem:
versão normal;
versão mobile;
versão com parâmetros extras.
Isso pode causar problemas de conteúdo duplicado.
Usar:
Disallow: /*?m=1
Disallow: /*?m=0
é mais recomendado do que:
Disallow: /*?m=
porque o bloqueio fica mais específico e evita problemas com outros parâmetros futuros.
Além disso, após atualizar o robots.txt, os novos posts tendem a ser indexados já na URL limpa, sem ?m=1, desde que o Blogger e o canonical estejam corretos.
AMP
Disallow: /*?amp=
Bloqueia URLs AMP automáticas.
Exemplo:
?amp=1
Caso você não utilize AMP oficialmente, esse bloqueio ajuda a evitar páginas duplicadas.
showComment
Disallow: /*?showComment=
Bloqueia links que abrem comentários específicos.
Essas URLs normalmente não têm utilidade para SEO.
spref
Disallow: /*?spref=
Bloqueia parâmetros de compartilhamento do Blogger.
Sitemap do Blogger
Sitemap: https://www.site.com/sitemap.xml
Aqui você informa ao Google onde está o mapa do site.
O sitemap ajuda os mecanismos de busca a encontrarem:
postagens;
páginas;
atualizações;
novas URLs.
No Blogger, o sitemap é gerado automaticamente.
Essa configuração é boa para SEO?
Sim.
Essa configuração é considerada muito boa para blogs no Blogger porque:
✅ reduz URLs duplicadas
✅ evita indexação inútil
✅ melhora organização do rastreamento
✅ ajuda o Google a focar nas postagens principais
✅ mantém o sitemap ativo
✅ reduz problemas com URLs ?m=1
Ela é bastante usada por blogs que querem melhorar SEO no Blogger.
O robots.txt remove páginas do Google?
Não diretamente.
O robots.txt apenas impede o rastreamento. Se uma URL já estiver indexada, ela pode continuar aparecendo no Google por algum tempo.
Para remover URLs já indexadas é necessário:
usar canonical corretamente;
solicitar remoção no Google Search Console;
aguardar nova atualização do índice.
Conclusão
Um robots.txt bem configurado no Blogger pode ajudar bastante no SEO do site.
Bloquear parâmetros desnecessários evita conteúdo duplicado e melhora a organização das URLs indexadas pelo Google.
A configuração mostrada neste artigo é uma das mais recomendadas para quem usa Blogger com domínio personalizado e deseja manter o site mais limpo para os mecanismos de busca.
