• Super User

    Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...


  • Bannato User

    Mah...secondo me non tanto una stagionalità o una roteazione.
    Ho la sensazione (sto pensando al caso di directory che ha postato poco sopra) che google stia proprio facendo una sorta di pulizia (come poi è già stato detto da te mi sembra in un'altra discussione) per quei siti che trattano un determinato argomento (cioè che possiedono una ben definita tematicità) ma che sono anche ben posizionati per certe parole chiave che nn rientrano affatto nel contesto del sito.

    Il caso di directory secondo me ne è un esempio (però ripeto che è solo una mia deduzione così su 2 piedi); Temporalmente:

    1. il sito era ben posizionato ANCHE per parole chiave (tipo erotico) che gli portavano molto traffico
    2. lungo periodo di fluttuazione
    3. la situazione ritorna alla normalità per tutte le parole chiave tematiche ma nn per quelle tipo erotico

    Una conclusione che posso trarre è la seguente:
    esempio - se il sito di un hotel ha una sezione dedicata alla recensione di film e le pagine di quest'ultima sono ben indicizzate su google tanto da stare sopra a quelle di siti che trattano l'argomento in maniera più esplicita e diretta ecco la fluttuazione, al termine della quale le pagine dell'hotel che trattano recensioni di film subiscono cali drastici di ranking, mentre le altre (più a tema) rimangono inalterate.




  • User

    @dechigno said:

    Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...

    Potrebbe essere quindi che esiste un programma di rotazione dei siti in modo da dare a tutti un pochettino di "celebrità"?

    Diciamo che per l'utente che cerca non sarebbe male fornire una maggiore varietà (se la qualità rimane garantita) ma per il proprietario del sito è una discreta ciulata.. ma giustamente questo non è un problema del MdR.


    Oggi poi ho notato una cosa "nuova": ho avuto utenti dal search del corriere della sera, cosa finora mai accaduta.

    Sono andato a vedere sto serach, pare prenda i risultati da google: http://websearch.corriere.it/cgoogle.jsp (key "cazzate")

    Tali risultati però sono parecchio differenti dal vero google infatti qui sono secondo.

    Inoltre sul search del corriere mancano alcuni siti "importanti".


  • User

    Ragazzi siamo furi strada nel mio casoil grafico degli accessi di google non è una sinusoide ma dal 3 luglio è diventato "encefalogramma piatto".

    Visto che la situazione non si smuove stasera metto su le pagine nuove, non ho apportato grandi modifiche ma volevo solo capire se la cosa si smuove un po' .

    Vi farò sapere.

    Solo non ho capito quanto può durare il periodo di "crollo-serp" ?
    Alcuni parlano di 7 gg altri di 15gg.

    Io sono down da 17 gg quanto dovrò ancora aspettare per tornare ai miei 6000 visitatori unici giornalieri?:(


  • Bannato User

    Ma io ho sentito anche fino a 60 gg...

    Che pazienza che c vuole!!!




  • User

    @PAOLINO STUDIO PUBBLICITA said:

    grazie
    sono curioso perchè è nei mie progetti di fare alcune operazioni del genere.
    ma il giuggiolo come fa a sapere che io li acquisto??

    ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:


  • User

    Non sono una cima in inglese cosa dice?


  • User

    Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )


  • Super User

    @dechigno said:

    Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...
    si, in effetti è una cosa che ho riscontrao anch'io ... sembra che alcuni siti (anche in relazione ad alcune aree tematiche) abbino almeno un paio di oscillazioni annuali, mentre altri no ... :mmm:

    se riuscissimo a capire il perché di tale compotamento da parte di google potremmo correre ai ripari :bho:

    (ho dato per scontato che i siti usino tecniche pulite, abbino un discreto pr (da 4 a 6) , una buona LP e una discreta anzianità (almeno 3 anni))

    @78fede78 said:

    Solo non ho capito quanto può durare il periodo di "crollo-serp" ?
    Alcuni parlano di 7 gg altri di 15gg.

    Io sono down da 17 gg quanto dovrò ancora aspettare per tornare ai miei 6000 visitatori unici giornalieri?:(
    è stato detto + volte : dai 15 ai 40 gg. con punte fino a 60 giorni 😞

    @CreativeFactory said:

    Potrebbe essere quindi che esiste un programma di rotazione dei siti in modo da dare a tutti un pochettino di "celebrità"?

    Diciamo che per l'utente che cerca non sarebbe male fornire una maggiore varietà (se la qualità rimane garantita) ma per il proprietario del sito è una discreta ciulata.. ma giustamente questo non è un problema del MdR.

    ecco, questa potrebbe sessere una ipotesi di studio, siti qualitativamente simili che si alternano nelle serp per certe aree tematiche ...

    @abraxas said:

    Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )
    anche qui ci sarebbe da capire se google è davvero in grado di individuare i links comprati ... se lo fosse non credo che chiederebbe l'aituto ai webmaster ... inoltre dovrebbe essere il mercato a decidere, da quando è proibito acquistare o vendere pubblicità? ... si certo google vorrebbe il tag nofollow, ma il web non può essere a sua disposizione ...

    certo google sul suo sito può fare quello che vuole, ma non sempre le sue scete sono per forza condivisibili ... il mercato gli rovina le serp? .. e perché lo spamm no? ... sono problemi suoi che se li risolva senza pretendere che i webmaster diventino tutti delatori


  • Super User

    Ciao Ragazzi,

    ho appena terminato di scrivere un altro articoletto a riguardo... 🙂

    Lunedì vi posto il link, perchè non l'ho ancora pubblicato.

    La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio... 😄


  • Super User

    @dechigno said:

    Ciao Ragazzi,

    ho appena terminato di scrivere un altro articoletto a riguardo... 🙂

    Lunedì vi posto il link, perchè non l'ho ancora pubblicato.

    La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio... 😄
    verissimo ... attendo il link 😄


  • Super User

    Ciao Ragazzi,

    come promesso ecco il link all'articolo: [url=http://www.fullpress.it/analisi/web-marketing/google-sito-penalizzato-no-fluttuante/23585.aspx]
    Google: Sito penalizzato? No, fluttuante!

    Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post 😉

    Grazie ! 😄


  • User

    Esatto confermo anche io che le variazioni sono state diverse ...


  • Super User

    @dechigno said:

    Ciao Ragazzi,

    come promesso ecco il link all'articolo:
    Google: Sito penalizzato? No, fluttuante!

    Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post 😉

    Grazie ! 😄

    Ciao Dechigno,
    cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?

    Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?

    Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".

    I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.

    Mi sbaglio?


  • User Attivo

    Ciao ragazzi.

    Identici problemi, da Giugno, oramai.. 😞

    Proprio oggi ho notato che una pagina interna che fino a ieri, da 5 mesi era posizionata al primo posto per una key, adesso sta in 6° posizione :arrabbiato:

    Questo però mi fa pensare che la teoria di dechigno sia sensata... ammesso di considerare anche le anchor dei link interni oltre a quelle dei BL.

    Questa pagina, infatti, non ha nemmeno 1 BL, ma è fortemente spinta da link interni.

    Forse GG testa le pagine solo per il loro contenuto, senza considerare da chi e da come sono linkate e quindi spinte?

    Spero si risolva tutto, sennò vado a comprare la fune ❌x:x


  • User Attivo

    @abraxas said:

    ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:

    grazie ma ci dev'essere un errore nella pagina nel senso che non si visualizza...:(

    cmq ne deduco che lo scoprirebbe...
    vabbè... lo trovo il sistema si si;)

    grazie
    :ciauz:
    paolo


  • Super User

    @Pastikka said:

    Ciao Dechigno,
    cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?

    Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?

    Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".

    I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.

    Mi sbaglio?

    Ciao Pastikka,

    quello che dici è vero.. 🙂

    Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.

    Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...

    Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle". 🙂

    Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam... 🙂

    In fondo, questo è un mio pensiero, pienamente opponibile... 🙂

    Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo... 🙂


  • Super User

    @dechigno said:

    Ciao Pastikka,

    quello che dici è vero.. 🙂

    Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.

    Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...

    Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle". 🙂

    Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam... 🙂

    In fondo, questo è un mio pensiero, pienamente opponibile... 🙂

    Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo... 🙂

    Ciao Deco,
    grazie per la precisazione 😉

    Però, sarò duro, ma non ho ancora capito bene il tuo ragionamento.

    Te dici che eliminando l'importanza delle key phrase nei link testuali verrebbero ad emergere i siti "spammosi".

    Provo a cercare di capire meglio con un esempio 😄

    Supponioamo che io, Sito white hat, abbia tre link con AT "vendita caramelle rosa", "forniture di caramelle", "ampia scelta di caramelle di ogni colore" per una determinata pagina.

    Un mio concorrente con Spam ha 3 link tutti con anchor text "vendita caramelle".

    A questo punto il signor GG decide di non prendere in considerazione le anchor text dei BL ai nostri siti e quindi le long tail nei BL non ha più rilevanza.

    A questo punto il mio sito che riceve 3 link diversi spontanei crolla, mentre invece il sito SPAM resta (in sostanza avanza, perchè gli altri sopra tendenzialmente calano di posizione) nella posizione precedente.

    Questo il funzionamento, se ho ben capito, della nuova politica adottata nell'ultimo periodo.

    Due domande mi sorgono spontanee...

    1. Se io (sito buono 😉 ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?

    2. Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM? Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?

    Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
    :ciauz:


  • User Newbie

    Secondo me google usa un sistema semplicemente "non umano". Un algoritmo non potrà mai avere il buon senso di essere umano.

    Prendiamo il mio sito, per assurdo, arrivava sempre nei primi 10 risultati, su ogni contenuto presente.

    Questo è durato per 3 mesi. Il mio sito non ha grosse pretese, prendo qualche esempio, faccio recensione di software.

    Fatto sta che era sempre ai primissimi posti.

    Errore dell'algoritmo di Google? Non lo so.

    Fatto sta che è stato praticamente cancellato da tutti i risultati, ad esempio cercando "codice fiscale in access", ti riporta a delle discussioni che non hanno nulla a che fare con quello che hai cercato.

    Questo sarebbe l'efficacia dell'algoritmo di google?

    Non ho capito che sistemi usi, ma credo che prima di bannare o spostare dalla serp, google debba usare un criterio più intelligente.

    Non è possibile che di punto in bianco butti i siti agli ultimi posti.

    mi domando anche chi ci ha lavorato per mesi, che si ritrova praticamente depauperato.

    Non ho grossi interessi nel mio sito, però è stato fatto in puro html, anche gli articoli li pubblico senza editor integrati per avere sottomano tutto.

    Ho cercato di essere il più pulito possibile, il risultato l'ho visto per questi mese in primissimi posti, finché qualcuno di Google ha deciso di punto in bianco, di avviare il programmino, che sega in base ai criteri random, perché anche il random è un business.

    Google ha troppo potere, comincio a pensare che sia necessario un qualche potere limitante, un garante o qualcosa del genere.

    Fintanto che mi bannano, o buttano all'ultimo posto, il mio sitarello senza pretese, ok, ma quando ci sono interi staff che lavorano o anche singoli è un altro discorso.

    www.pierpaoloromanelli.com


  • Super User

    @Pastikka said:

    Ciao Deco

    Gli amici mi chiamano Deca (ci sei andato molto vicino 🙂 ).

    Rispondo alle tue domande:

    1. Se io (sito buono 😉 ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?

    Il concetto che intedo esprimere è che i siti spam utilizzano moltissimo una popolarità molto volatile, sia nel tempo, sia nella qualità. Inoltre quasi tutti i siti spam hanno keypharse che legano poco o niente l'una con le altre. Vengo al dunque: Google utilizza molto le ancore e si basa quasi esclusivamente sul trust (quindi popolarità, in termini poveri) per il ranking di un sito. Per tanto, togliendo i Backlink ai siti principali, vengono considerati ai fini del ranking altri fattori (principalmente quelli on-page) e chi usa tecniche di stuffing o illecite emerge in serp, non per merito ma per declassamento dei siti importanti... 🙂

    Spero che così sia più chiaro cosa intendo... 😉

    1. Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM?

    Certamente, ma il sito spam riceve link da altri siti spam oppure da sito non a tema o comunque ha una popolarità di network fittizia (molto meno popolare di un siti trust). In questo termine emerge perchè ricco di stuffing, link e testi scopiazzati qua e la. 🙂

    Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?

    Questo può darsi, anzi è un'intuizione giusta ed è supportata dal fatto che la maggior parte dei siti, sono ancora nelle stesse posizioni con la chiave primaria (principale) che risiede in homepage. In effetti tu lo hai spiegato molto meglio di me, che lo avevo lasciato scritto fra le righe 😄

    Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
    :ciauz:

    Ci mancherebbe... a mio avviso sta uscendo un gran bel post, di confronto dove tutti possiamo crescere e magari interpretare meglio le azioni adottate da chi ci comanda... (purtroppo). 🙂