Oi pessoal, estou com um problema aqui. A VTEX está criando inúmeras URLs de busca/filtro personalizada, ou seja, as URLs não tem parâmetro algum para eu conseguir bloquear no robots.txt.
Porque eu tenho diversas URLs sendo criadas assim, algumas com /antienvelhecimento/antienvelhecimento, combinações que realmente não fazem sentido. Algumas dessas URLs estão ranqueando e à nível de SEO é importante que para a maioria, isso não aconteça. Você consegue me ajudar?
Não tem como colocar um noindex nessas páginas?
Preciso que ou essas páginas levem um noindex, ou que essas páginas consigam ser otimizadas (adição de conteúdo e meta tags personalizadas) ou que eu elas ganhem um parâmentro para eu bloquear isso no robots, mas pelo o que eu entendi, essa última não dá para fazer. As outras duas são possíveis?
Na VTEX você tem acesso ao robots e também nos templates, você pode por o noindex da forma que quiser, porém acredito fortemente que sua categorização está errada e precisa ser revista... não é comum isso "/antienvelhecimento/antienvelhecimento" acontecer
@Nathan Prestes adicionar um número considerável de urls no robots não poderia prejudicar o SEO do site? Porque como são urls únicas e específicas, eu tenho receio de ficar aquela listona, sabe?
Você também consegue me ajudar com materiais de apoio sobre categorização? Eu nunca tinha mexido com VTEX, então estou um pouco perdida sobre como resolver as coisas. Tudo o que tiver que consiga me ajudar é bem vindo, estou lendo muita coisa no help e vou começar com os cursos esse final de semana.