Ciao a tutti.
Vorrei avere delle vostre opinioni su come muovermi per questa scelta.
Prendo spunto da un post di Agoago sul forum Seonida, ecco il link:
seonida.com/seo/186-una-vostra-opinione-su-un-caso-search-engine-optimization-2.html
Questa è la parte che mi interessa:
"...Google puo' essere interrogato all'infinito con centinaia di migliaia di query al giorno (con una banale linea adsl) e cercando per esempio un frasetta di 4 parole tra virgolette + * si ottengono in tempo reale decine di potenziali parole diverse che seguono-prolungano "naturalmante" quella frasetta iniziale.
Insomma, si sviluppa un documento tramite markov a base 3-4-5 grams, con risultati sorprendenti, ed in tempo reale. ..."
La mia domanda, suggerimento su come procedere è questa:
mi conviene interrogare Google prelevando la pagina (SERP) con il seguente link: google.it/search?hl=it&q="i+funghi+sono"%2B*&btnG=Cerca+con+Google&meta=
oppure conviene che mi appoggi alle API presenti su questo indirizzo:
code.google.com/apis/ajaxsearch/web.html
Sicuramente il primo modo di procedere è molto più veloce da sviluppare ma oltre ad andare contro le linee guida di Google, dopo alcune migliaia di query Google ti comunica che il tuo pc potrebbe essere infetto da virus perchè sta ricevendo troppe query....si potrebbe ovviare con proxy ma comunque il numero di query sarebbe elevato.
Con le API invece il discorso cambia, primo non si andrebbe contro le linee guida di Google e secondo il numero di query è illimitato(non ne sono sicura di questa ultima cosa). E' leggermente più incasinato il discorso perchè sono API Ajax e quindi bisogna prelevare il contenuto di una pagina in cui l'HTML non è composto come nel primo caso dalla SERP ma da un codice javascript e quindi bisogna salvare il contenuto ritornato dalla chiamata, comunque volendo si può fare.
Se qualcuno mi può dire cosa ne pensa.
Grazie a tutti.
Matteo Boffo.