Ciao Jester72.
Con ogni probabilità, lasciando Google libero di navigare il tuo sito, troverai in serp solamente le pagine HTML proprio perché gli altri contenuti saranno considerati duplicati.
Solitamente il motore di ricerca è in grado di gestire questo tipo di situazioni ma il fatto che tu stia creando automaticamente un pdf per ogni post potrebbe creare problemi.
In questo scenario, bloccare le URL attraverso il file robots.txt è probabilmente la scelta più giusta da fare: risparmi banda, consenti al crawler di spendere il suo tempo facendo sul tuo sito cose più utili ed eviti possibili problemi dovuti alla duplicazione dei contenuti.
Una nota a margine: non conosco la struttura dei tuoi URL né il contenuto del tuo file robot.txt; ti consiglio però di usare sempre la regola più precisa che riesci a creare. Eliminando, ad esempio, tutte le URL con un "?" rischi di fermare l'indicizzazione del crawler anche in casi che invece potevano essere gestiti più efficacemente in altra maniera (come con un redirect 301 o il rel canonical).
Per approfondimento ti consiglio la lettura delle due risposte che un dipendente di Google ha dato in questo thread a domande simili alla tua.
Buon lavoro!
(P.s. bentornato sul Forum!)