- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Progetto SERPP: software per controllare la posizione dei siti
-
Progetto SERPP: software per controllare la posizione dei siti
Salve ragazzi,
Skimer mi ha presentato un progetto che vorrebbe sviluppare insieme alla comunità di Giorgiotave ed offrirlo gratuitamente come progetto gt.
Si tratta si un software che controlla la posizione dei siti web sui motori di ricerca e poi effettua dei report.
Credo che piano piano si possa creare un buon prodotto con più funzioni.
Ora arriva Skimer e vi spiega nel dettaglio il progetto
-
Grazie Giorgio per la fiducia che mi ha concesso.;)
Passo immediatamente a descrivervi cosa vorrei sviluppare insieme a questa bellissima comunità. l'ho chiamato con estrema fantasia il "progetto SERPP" (SERP Project)
Da un disagio, nasce una domanda e quindi un problema che deve essere risolto.
Disagio : voglio uno strumento free che mi permetta di fare analisi dettagliate ( anche grafiche) sul posizionamento nelle serp di un sito (o più siti) per un numero di chiavi di ricerca a piacere, senza API.
Mi sembra di aver individuato un grosso vuoto. In rete i servizi free sono limitatissimi, lenti e scarsamente usabili. Quelli a pagamento non li ho provati, ma sono Genovese e sono restio ad alleggerire il portafoglio a cuor leggero;)
Me la cavo con il VBA di excel è dopo un po' di prove sono riuscito a sviluppare una prima versione di uno strumento che sembra avere le premesse per diventare veramente potentissimo.
(foto) (triplaW).cuocogirando.com/images/cuocogirando/Serpp_GTforum/user_controllo.JPG
Al momento cosa fa il mio programma : analisi chiavi di ricerca singola o multipla per un sito alla volta su serp google.it
-
analisi singola: imposto i dati iniziali di profondità dei risultati (max 500) e ogni quanto tempo excel esegue la query di interrogazione a google. Nei campi a sinistra della form inserisco keyword e il sito da analizzare. clik su "avvia analisi singola". mostra i risultati direttamente nella form. tempo di analisi per una profondità di 300 risultati è di circa 3sec (impostando l'intervallo query a 0sec).
-
analisi multipla : seleziono il cliente nel campo di destra della form. Al clik su "avvia analisi multipla" viene aperto un file excel in cui ci sono tutte le chiavi di ricerca desiderate
(foto) (triplaW).cuocogirando.com/images/cuocogirando/Serpp_GTforum/foglio_keywords.jpg
Parte un ciclo che analizza tutte le keywords e mette in una colonna data analisi e posizione nella serp.
Come avete sicuramente capito il progetto è assai interessante.
Prossimi sviluppi : analisi multi motore ricerca, multi sito e multi keywords ad un solo click del mouse. Analisi grafica dell'evoluzione delle posizioni nelle serp nel tempo ( per visualizzare a colpo d'occhio il lavoro fatto).
Ci sono un po' di problemi da risolvere e il più grosso è l'affidabilità dei risultati ( da cui la mia domanda nell'area TOP seo). Per il resto, a breve, metto sul mio sito tutta la documentazione e chi vuole può fare da beta tester o da vero e proprio collaboratore è super benvenuto
Ovviamente codice aperto, tutto free e totale condivisione del sapere.
Aspetto vostri commenti e/o insulti
Diego
-
-
Ciao Skimer,
non voglio certo farti scoraggiare, ma penso che con VBA e Excel andrai incontro a diversi problemi. Te ne elenco qualcuno.
Il primo è che l'utente finale deve aver installato Office;
Per creare un buon prodotto devi utilizzare più thread che vanno gestiti con un certo criterio (es: ritardi tra diverse richieste ai motori, non più di tot richieste contemporanee per volta altrimenti rischi timeout e/o il ban (da parte del motore di ricerca) di quell' IP per un certo periodo di tempo, ecc..)Molto spesso la chiave di ricerca da analizzare non è una sola;
Il posizionamento che si vuole monitorare, spesso, non riguarda un solo sito, ma anche quello dei concorrenti per una determinata serp; e in tal caso, memorizzare indirizzi, posizione e data in un foglio di Excel non mi pare efficiente.
Ti converrebbe utilizzare un database (magari di Access) in moto tale da poter eseguire le query che più ti fanno comodo al fine di creare dei report.Ti dico ciò perchè ho creato un programma simile e quindi ho dovuto affrontare problemi analoghi.
Ciao
-
@giuseppe8383 said:
Ciao Skimer,
non voglio certo farti scoraggiare, ma penso che con VBA e Excel andrai incontro a diversi problemi.Ciao
Il mio umile e modestissimo programmino è nato con lo scopo di aiutarmi a studiare il posizionamento sulle serp. sono conscio dei limiti che ho sia dal pdv della programmazione che delle conoscenze web.
Non a caso ho chiesto a Giorgio di aprire questo 3d per sviluppare un progetto comune. Non ho specificato,però, che il progetto potrà essere sviluppato su qualsiasi piattaforma; ad esempio, per chi fosse in grado, di potrebbe sviluppare un progetto simile su open office o su altre piattaforme.
Ho appena scaricato il tuo programma e me lo studio oggi pomeriggio.
Sia chiaro che sono pronto a farmi da parte, abortire il mio progetto only excel ( so programmare solo in VBA :bho:) e collaborare al tuo progetto che è già molto più avanzato del mio.
Voglio solo uno strumento affidabile per fare questo tipo di analisi che reputo molto importanti ( anche per mostrare al cliente visivamente un qualche tipo di risultato)
Excel (open office) mi alletta perchè offre funzioni per il disegno dei grafici molto complete.
Comunque direi che i tuoi suggerimenti sono tutti implementabili e analisi di siti concorrenti dovrebbero essere abbastanza semplici da implementare.
Per quanto riguarda l'utilizzo di DB access ci ho pensato, ma al momento non ho il tempo materiale per studiare la fattibilità della ocosa
Comunque questo 3d ha già sortito un risultato importante: fino ad ora ero completamente all'oscuro del tuo progetto.:D
comunque grazie dell'intervento
EDIT : ho appena fatto delle prove su una sola keywords per un solo sito
Serp analyzer = 6
SERPP = 10-11I tuoi risultati sono più affidabili dei miei? E come sei riuscito ad ottenerli?
-
Specifico il parametro "intervallo query".
Come già anticipato da giuseppe8383 ho in qualche modo previsto che se arrivano tonnellate di interrogazioni (molto ravvicinate fra loro) da uno stesso IP, google potrebbe arrabbiarsi.
Per default nelle ricerche multi keywords ho impostato 5 secondi fra un'interrogazione e l'altra.Domanda : è il caso di aumentare questo intervallo di tempo per essere sicuri di non ricevere ban?
Mi è appena venuto in mente un altro utilizzo del sistema che effettua le analisi solo sulle chiavi di ricerca senza specificare il sito da cercare.
Serve a identificare velocemente i competitor meglio posizionati per studiare il loro lavoro ( ad esempio nelle prime 5 posizioni)
Grazie a giuseppe8383 per i preziosi suggerimenti.;)
-
Non sò se i "miei" risultati sono più affidabili dei "tuoi"; puoi scoprirlo tu stesso facendo una normale ricerca su google.
Essenzialmente quello che fà Serp Analyzer è:- generare l'indirizzo delle pagine che compongono la serp;
- ricevere le pagine;
- cercare tutti i link delimitati da una determinata stringa e il doppio apice;
- salvare nel file di progetto (un database Access) gli indirizzi trovati, posizione e data.
Per quanto riguarda la collaborazione, non ho intenzione (almeno per ora) di pubblicare il codice sorgente, ma se vuoi puoi fare una traduzione in una lingua diversa dall'italiano, se sai disegnare puoi rifare le icone e il logo o quello che ti viene in mente. In ogni caso già il fatto che tu possa comunicarmi eventuali bug, suggerire nuove funzionalità o semplicemente fargli pubblicità, la considero una forma di collaborazione. Serp Analyzer l'ho scritto per lo stesso tuo motivo: la mia esigenza di avere uno strumento semplice, affidabile e soprattutto gratuito per analizzare le serp. Attualmente non ci guadagno nulla, a parte la soddisfazione di vedere che è stato scaricato 1000 volte e qualche email di ringraziamento.
Se ti servono consigli non esitare a chiedere, sarò felice di darti (darvi) una mano.
PS: Se vuoi vedere come i dati vengono salvati nel database, basta cambiare l'estensione del file di progetto da .psa3 a .mdb e aprirlo con access.Ciao
-
E' questo il grosso problema dei risultati di questi programmi. Il luogo dove si effettua la ricerca per una qualsiasi interrogazione a Google influenza le serp quindi se io abito a SV tu abiti a PISA per la stessa keyword le serp sono diverse. Ma quanto diverse? Sono accettabili li scostamenti fra la mia serp e la tua?
E' possibile avere dei risultati attendibili? I servizi pro sostengono che interrogano diversi datacenter. Servono questi metodo per uniformare i risultati? Noi poveri mortali possiamo fare lo stesso?
oppure bisogna usare le google API.Per quanto riguarda il codice sorgente nel tuo caso è diverso. Il tuo è un programma indipendente e molto completo. io mi appoggio ad un sistema commerciale ( non posso fare altro per questioni di tempo).
in ogni caso io conto di procedere al progetti SERPP e purtroppo per il tuo sistema posso solo fare da betatester e "carpire" alcune delle tue ottime idee.;)
Se vuoi aiutarmi/ci per quanto riguarda l'utilizzo del dbaccesso saresti per me molto prezioso.
-
Che io sappia, le serp non dipendono solo dal luogo da cui si effettuano le interrogazioni, ma anche da cookie salvati su quel particolare pc, da siti visitati precedentemente, dal fatto di essere loggati o meno e chissà quali/quanti altri fattori. Sicuramente gli esperti (e qui ce ne sono tanti) sapranno dirti di più.
In ogni caso penso che le differenze (a parità di datacenter) siano di piccola entità.Utilizzando le API (non ne sono sicuro, ma molti esperti dicono che) si rischia la penalizzazione del sito per cui si vuole ottenere il posizionamento.
Come già detto, se ti serve una mano, basta chiedere
Ti auguro un grosso in bocca al lupo:)
Un saluto!