Robots.txt para Blogger

 

Robots.txt para Blogger: Configuração Completa Explicada Passo a Passo

Configuração Completa do robots.txt no Blogger Explicada Passo a Passo

Se você usa o Blogger e quer melhorar a indexação do seu site no Google, configurar corretamente o arquivo robots.txt é muito importante.

Muitos blogs acabam tendo problemas de SEO por causa de URLs duplicadas, páginas desnecessárias indexadas e parâmetros automáticos do Blogger. Por isso, um robots.txt bem configurado ajuda o Google a entender quais páginas devem ou não aparecer nos resultados de pesquisa.

Neste artigo vou explicar detalhadamente cada linha desse código:

User-agent: Mediapartners-Google
Disallow:

User-agent: *
Disallow: /search
Disallow: /share-widget
Disallow: /feeds/
Disallow: /comments/
Disallow: /*?updated-max=
Disallow: /*?max-results=
Disallow: /*?by-date=
Disallow: /*?m=1
Disallow: /*?m=0
Disallow: /*?amp=
Disallow: /*?showComment=
Disallow: /*?spref=

Sitemap: https://www.site.com/sitemap.xml

O que é o robots.txt?

O robots.txt é um arquivo usado para orientar os robôs dos mecanismos de busca, como o Google, sobre quais áreas do site podem ou não ser acessadas.

Ele serve para:

  • evitar indexação de páginas inúteis;

  • reduzir conteúdo duplicado;

  • melhorar o rastreamento do site;

  • organizar melhor o SEO;

  • informar onde está o sitemap.

No Blogger, esse arquivo pode ser ativado em:

Configurações → Rastreadores e indexação → robots.txt personalizado


Explicando cada linha do robots.txt

Permissão para anúncios do Google

User-agent: Mediapartners-Google
Disallow:

Essa parte libera o robô do Google AdSense para acessar todo o site.

O Mediapartners-Google é o robô responsável pelos anúncios do Google. Deixar essa área liberada ajuda o sistema de anúncios a analisar corretamente o conteúdo das páginas.


Regras para todos os robôs

User-agent: *

O símbolo * significa:

“Essas regras valem para todos os robôs.”

Ou seja, tudo que estiver abaixo será aplicado aos mecanismos de busca.


Bloqueio da página de pesquisa

Disallow: /search

Bloqueia páginas internas de pesquisa do Blogger.

Exemplo:

https://www.site.com/search?q=teste

Essas páginas normalmente não trazem valor para SEO e podem gerar conteúdo duplicado.


Bloqueio do share-widget

Disallow: /share-widget

Impede indexação do widget de compartilhamento do Blogger.

Essa página não possui conteúdo útil para aparecer no Google.


Bloqueio dos feeds RSS

Disallow: /feeds/

Bloqueia os feeds RSS/XML do Blogger.

Exemplo:

/feeds/posts/default

Esses feeds são úteis para leitores RSS, mas geralmente não precisam aparecer nos resultados de pesquisa.


Bloqueio dos comentários

Disallow: /comments/

Evita indexação de páginas individuais de comentários.

Isso ajuda a reduzir páginas duplicadas e sem relevância.


Bloqueio de parâmetros automáticos do Blogger

O Blogger cria várias URLs com parâmetros extras. Esses parâmetros podem gerar versões duplicadas da mesma página.


updated-max

Disallow: /*?updated-max=

Bloqueia URLs de paginação por data.

Exemplo:

?updated-max=2026-05-01

max-results

Disallow: /*?max-results=

Bloqueia URLs com quantidade personalizada de resultados.

Exemplo:

?max-results=10

by-date

Disallow: /*?by-date=

Impede indexação de filtros por data.


parâmetro m=1 e m=0

Disallow: /*?m=1
Disallow: /*?m=0

Esse é um dos bloqueios mais importantes no Blogger.

Os parâmetros ?m=1 e ?m=0 criam versões alternativas da página para dispositivos móveis e desktop.

Exemplo:

https://www.site.com/post.html?m=1

Sem esse bloqueio, o Google pode indexar várias versões iguais da mesma postagem:

  • versão normal;

  • versão mobile;

  • versão com parâmetros extras.

Isso pode causar problemas de conteúdo duplicado.

Usar:

Disallow: /*?m=1
Disallow: /*?m=0

é mais recomendado do que:

Disallow: /*?m=

porque o bloqueio fica mais específico e evita problemas com outros parâmetros futuros.

Além disso, após atualizar o robots.txt, os novos posts tendem a ser indexados já na URL limpa, sem ?m=1, desde que o Blogger e o canonical estejam corretos.


AMP

Disallow: /*?amp=

Bloqueia URLs AMP automáticas.

Exemplo:

?amp=1

Caso você não utilize AMP oficialmente, esse bloqueio ajuda a evitar páginas duplicadas.


showComment

Disallow: /*?showComment=

Bloqueia links que abrem comentários específicos.

Essas URLs normalmente não têm utilidade para SEO.


spref

Disallow: /*?spref=

Bloqueia parâmetros de compartilhamento do Blogger.


Sitemap do Blogger

Sitemap: https://www.site.com/sitemap.xml

Aqui você informa ao Google onde está o mapa do site.

O sitemap ajuda os mecanismos de busca a encontrarem:

  • postagens;

  • páginas;

  • atualizações;

  • novas URLs.

No Blogger, o sitemap é gerado automaticamente.


Essa configuração é boa para SEO?

Sim.

Essa configuração é considerada muito boa para blogs no Blogger porque:

✅ reduz URLs duplicadas
✅ evita indexação inútil
✅ melhora organização do rastreamento
✅ ajuda o Google a focar nas postagens principais
✅ mantém o sitemap ativo
✅ reduz problemas com URLs ?m=1

Ela é bastante usada por blogs que querem melhorar SEO no Blogger.


O robots.txt remove páginas do Google?

Não diretamente.

O robots.txt apenas impede o rastreamento. Se uma URL já estiver indexada, ela pode continuar aparecendo no Google por algum tempo.

Para remover URLs já indexadas é necessário:

  • usar canonical corretamente;

  • solicitar remoção no Google Search Console;

  • aguardar nova atualização do índice.


Conclusão

Um robots.txt bem configurado no Blogger pode ajudar bastante no SEO do site.

Bloquear parâmetros desnecessários evita conteúdo duplicado e melhora a organização das URLs indexadas pelo Google.

A configuração mostrada neste artigo é uma das mais recomendadas para quem usa Blogger com domínio personalizado e deseja manter o site mais limpo para os mecanismos de busca.