Ritorno nella discussione perchè dopo aver testato lungamente A1 website analyzer, posso concludere che il software non è adatto alla scansione di siti grandi dimensioni per due ordini di motivi :
- Il report fornito è sporco e approssimativo , se si cerca di estrarre link broken e le pagine che li contengono.
- Molto spesso i link non sono davvero rotti
Riguardo** xenu**, anche il suo report è davvero approssimativo e in un formato poco friendly.Quando bisogna misurarsi con migliaia di broken link su migliaia di pagine, ritengo che il programma non sia adatto.
Riguardo screaming frog, non mi sembra che si possa estrarre un .CSV contenente broken link da un lato e pagine che li contengono dall'altro. Felice di essere contraddetto
Ho anche fatto varie ricerche sull'**estrazione dei dati direttamente da wmtl, ma anche in questo caso credo non sia possibile estrarre i dati di cui ho bisogno.
**
Ritorno a chiedere se qualcuno conosca un altro programma in grado di restituire un file csv con da una parte i link broken e dall'altra tutte le pagine che li contengono, insomma "il parametro con link da " di WMTL.
Grazie e continuo la mia ricerca, dovessi trovarlo prima io vi avverto.