Como bloquear no robots.txt páginas de filtros?

Mas qual o sentido disso?

Pois ele cria milhares de urls que acabam canibalizando na Serp e consome muito crawl budget

Segue a documentação de onde você pode inserir as regras:

https://help.vtex.com/tutorial/rastreamento-google-search-console-robots-txt/