Boa tarde! Meu nome é Henrique e sou consultor SEO pela agência https://liveseo.com.br/
Estamos com uma dúvida sobre uma das coberturas do Search Console: "URL enviado bloaqueado pelo arquivo robots.txt".
De fato, bloqueamos alguns parâmetros padrões da Vtex para que o rastreio seja mais eficiente. Porem, o google fala que estamos enviando esses parâmetros pela sitemap, mas não estamos:
O sitemap está sendo atualizado periodicamente, mas esses erros continuam crescentes. Alguém já passou por isso antes? Poderia me ajuda?
Se perceber, dentro do print que buscou "map" vai verificar que existem outros XMLs que são chamados, nesse geral(sitemap.xml) não vai exibir esse map mesmo.
Nathan, agradeço a resposta. Mas o arquivo robots.txt não impede que certos URLs sejam enviados pelo sitemap. Ele, na verdade, não passa de um guia para os robôs dos motores de busca.