• User

    Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )


  • Super User

    @dechigno said:

    Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...
    si, in effetti è una cosa che ho riscontrao anch'io ... sembra che alcuni siti (anche in relazione ad alcune aree tematiche) abbino almeno un paio di oscillazioni annuali, mentre altri no ... :mmm:

    se riuscissimo a capire il perché di tale compotamento da parte di google potremmo correre ai ripari :bho:

    (ho dato per scontato che i siti usino tecniche pulite, abbino un discreto pr (da 4 a 6) , una buona LP e una discreta anzianità (almeno 3 anni))

    @78fede78 said:

    Solo non ho capito quanto può durare il periodo di "crollo-serp" ?
    Alcuni parlano di 7 gg altri di 15gg.

    Io sono down da 17 gg quanto dovrò ancora aspettare per tornare ai miei 6000 visitatori unici giornalieri?:(
    è stato detto + volte : dai 15 ai 40 gg. con punte fino a 60 giorni 😞

    @CreativeFactory said:

    Potrebbe essere quindi che esiste un programma di rotazione dei siti in modo da dare a tutti un pochettino di "celebrità"?

    Diciamo che per l'utente che cerca non sarebbe male fornire una maggiore varietà (se la qualità rimane garantita) ma per il proprietario del sito è una discreta ciulata.. ma giustamente questo non è un problema del MdR.

    ecco, questa potrebbe sessere una ipotesi di studio, siti qualitativamente simili che si alternano nelle serp per certe aree tematiche ...

    @abraxas said:

    Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )
    anche qui ci sarebbe da capire se google è davvero in grado di individuare i links comprati ... se lo fosse non credo che chiederebbe l'aituto ai webmaster ... inoltre dovrebbe essere il mercato a decidere, da quando è proibito acquistare o vendere pubblicità? ... si certo google vorrebbe il tag nofollow, ma il web non può essere a sua disposizione ...

    certo google sul suo sito può fare quello che vuole, ma non sempre le sue scete sono per forza condivisibili ... il mercato gli rovina le serp? .. e perché lo spamm no? ... sono problemi suoi che se li risolva senza pretendere che i webmaster diventino tutti delatori


  • Super User

    Ciao Ragazzi,

    ho appena terminato di scrivere un altro articoletto a riguardo... 🙂

    Lunedì vi posto il link, perchè non l'ho ancora pubblicato.

    La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio... 😄


  • Super User

    @dechigno said:

    Ciao Ragazzi,

    ho appena terminato di scrivere un altro articoletto a riguardo... 🙂

    Lunedì vi posto il link, perchè non l'ho ancora pubblicato.

    La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio... 😄
    verissimo ... attendo il link 😄


  • Super User

    Ciao Ragazzi,

    come promesso ecco il link all'articolo: [url=http://www.fullpress.it/analisi/web-marketing/google-sito-penalizzato-no-fluttuante/23585.aspx]
    Google: Sito penalizzato? No, fluttuante!

    Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post 😉

    Grazie ! 😄


  • User

    Esatto confermo anche io che le variazioni sono state diverse ...


  • Super User

    @dechigno said:

    Ciao Ragazzi,

    come promesso ecco il link all'articolo:
    Google: Sito penalizzato? No, fluttuante!

    Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post 😉

    Grazie ! 😄

    Ciao Dechigno,
    cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?

    Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?

    Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".

    I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.

    Mi sbaglio?


  • User Attivo

    Ciao ragazzi.

    Identici problemi, da Giugno, oramai.. 😞

    Proprio oggi ho notato che una pagina interna che fino a ieri, da 5 mesi era posizionata al primo posto per una key, adesso sta in 6° posizione :arrabbiato:

    Questo però mi fa pensare che la teoria di dechigno sia sensata... ammesso di considerare anche le anchor dei link interni oltre a quelle dei BL.

    Questa pagina, infatti, non ha nemmeno 1 BL, ma è fortemente spinta da link interni.

    Forse GG testa le pagine solo per il loro contenuto, senza considerare da chi e da come sono linkate e quindi spinte?

    Spero si risolva tutto, sennò vado a comprare la fune ❌x:x


  • User Attivo

    @abraxas said:

    ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:

    grazie ma ci dev'essere un errore nella pagina nel senso che non si visualizza...:(

    cmq ne deduco che lo scoprirebbe...
    vabbè... lo trovo il sistema si si;)

    grazie
    :ciauz:
    paolo


  • Super User

    @Pastikka said:

    Ciao Dechigno,
    cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?

    Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?

    Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".

    I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.

    Mi sbaglio?

    Ciao Pastikka,

    quello che dici è vero.. 🙂

    Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.

    Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...

    Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle". 🙂

    Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam... 🙂

    In fondo, questo è un mio pensiero, pienamente opponibile... 🙂

    Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo... 🙂


  • Super User

    @dechigno said:

    Ciao Pastikka,

    quello che dici è vero.. 🙂

    Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.

    Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...

    Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle". 🙂

    Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam... 🙂

    In fondo, questo è un mio pensiero, pienamente opponibile... 🙂

    Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo... 🙂

    Ciao Deco,
    grazie per la precisazione 😉

    Però, sarò duro, ma non ho ancora capito bene il tuo ragionamento.

    Te dici che eliminando l'importanza delle key phrase nei link testuali verrebbero ad emergere i siti "spammosi".

    Provo a cercare di capire meglio con un esempio 😄

    Supponioamo che io, Sito white hat, abbia tre link con AT "vendita caramelle rosa", "forniture di caramelle", "ampia scelta di caramelle di ogni colore" per una determinata pagina.

    Un mio concorrente con Spam ha 3 link tutti con anchor text "vendita caramelle".

    A questo punto il signor GG decide di non prendere in considerazione le anchor text dei BL ai nostri siti e quindi le long tail nei BL non ha più rilevanza.

    A questo punto il mio sito che riceve 3 link diversi spontanei crolla, mentre invece il sito SPAM resta (in sostanza avanza, perchè gli altri sopra tendenzialmente calano di posizione) nella posizione precedente.

    Questo il funzionamento, se ho ben capito, della nuova politica adottata nell'ultimo periodo.

    Due domande mi sorgono spontanee...

    1. Se io (sito buono 😉 ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?

    2. Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM? Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?

    Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
    :ciauz:


  • User Newbie

    Secondo me google usa un sistema semplicemente "non umano". Un algoritmo non potrà mai avere il buon senso di essere umano.

    Prendiamo il mio sito, per assurdo, arrivava sempre nei primi 10 risultati, su ogni contenuto presente.

    Questo è durato per 3 mesi. Il mio sito non ha grosse pretese, prendo qualche esempio, faccio recensione di software.

    Fatto sta che era sempre ai primissimi posti.

    Errore dell'algoritmo di Google? Non lo so.

    Fatto sta che è stato praticamente cancellato da tutti i risultati, ad esempio cercando "codice fiscale in access", ti riporta a delle discussioni che non hanno nulla a che fare con quello che hai cercato.

    Questo sarebbe l'efficacia dell'algoritmo di google?

    Non ho capito che sistemi usi, ma credo che prima di bannare o spostare dalla serp, google debba usare un criterio più intelligente.

    Non è possibile che di punto in bianco butti i siti agli ultimi posti.

    mi domando anche chi ci ha lavorato per mesi, che si ritrova praticamente depauperato.

    Non ho grossi interessi nel mio sito, però è stato fatto in puro html, anche gli articoli li pubblico senza editor integrati per avere sottomano tutto.

    Ho cercato di essere il più pulito possibile, il risultato l'ho visto per questi mese in primissimi posti, finché qualcuno di Google ha deciso di punto in bianco, di avviare il programmino, che sega in base ai criteri random, perché anche il random è un business.

    Google ha troppo potere, comincio a pensare che sia necessario un qualche potere limitante, un garante o qualcosa del genere.

    Fintanto che mi bannano, o buttano all'ultimo posto, il mio sitarello senza pretese, ok, ma quando ci sono interi staff che lavorano o anche singoli è un altro discorso.

    www.pierpaoloromanelli.com


  • Super User

    @Pastikka said:

    Ciao Deco

    Gli amici mi chiamano Deca (ci sei andato molto vicino 🙂 ).

    Rispondo alle tue domande:

    1. Se io (sito buono 😉 ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?

    Il concetto che intedo esprimere è che i siti spam utilizzano moltissimo una popolarità molto volatile, sia nel tempo, sia nella qualità. Inoltre quasi tutti i siti spam hanno keypharse che legano poco o niente l'una con le altre. Vengo al dunque: Google utilizza molto le ancore e si basa quasi esclusivamente sul trust (quindi popolarità, in termini poveri) per il ranking di un sito. Per tanto, togliendo i Backlink ai siti principali, vengono considerati ai fini del ranking altri fattori (principalmente quelli on-page) e chi usa tecniche di stuffing o illecite emerge in serp, non per merito ma per declassamento dei siti importanti... 🙂

    Spero che così sia più chiaro cosa intendo... 😉

    1. Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM?

    Certamente, ma il sito spam riceve link da altri siti spam oppure da sito non a tema o comunque ha una popolarità di network fittizia (molto meno popolare di un siti trust). In questo termine emerge perchè ricco di stuffing, link e testi scopiazzati qua e la. 🙂

    Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?

    Questo può darsi, anzi è un'intuizione giusta ed è supportata dal fatto che la maggior parte dei siti, sono ancora nelle stesse posizioni con la chiave primaria (principale) che risiede in homepage. In effetti tu lo hai spiegato molto meglio di me, che lo avevo lasciato scritto fra le righe 😄

    Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
    :ciauz:

    Ci mancherebbe... a mio avviso sta uscendo un gran bel post, di confronto dove tutti possiamo crescere e magari interpretare meglio le azioni adottate da chi ci comanda... (purtroppo). 🙂


  • User

    Mi spiegheresti sto punto, mi è un po' oscuro:

    Rivalutazione delle anchor text, mentre a marzo il numero delle ancore per una keywords specifica, risultavano essere uguali al numero totale dei risultati delle ricerche per quella parola chiave, oggi sembra che ai web site colpiti siano caduti alcuni link con ancore importanti per la keywords selezionata

    Chiarscimi anche il concetto di "anchor text".. è il testo del link a una pagina?

    Ho provato ad analizzare la chiave di ricerca "striscioni divertenti", una volta c'ero anche io tra i primissimi.
    Penso che tu abbia ragione, in alto ci sono parecchi siti di livello infimo anche se sono rimasti alcuni siti "famosi" che già erano in alto, probabilmente troppo importanti per essere abbattuti.

    Ciao


  • Super User

    @dechigno said:

    Ciao Ragazzi,

    come promesso ecco il link all'articolo:
    Google: Sito penalizzato? No, fluttuante!

    Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post 😉

    Grazie ! 😄
    Bravo dechingno, una buona analisi la tua.

    un mio sito generalista nato nel 2000 è stato colpito in una sola area tematica, addirittura con perdita di pagine e/o directoty.

    *> La perdita di posizionamento, invece può essere dovuta alla minor spinta in termini di backlink dovuta alla fuoriuscita di pagine e anchor text (vedi dati inferiori fra prima e dopo la sinusoide) forse per una maggior severità del filtro anti-duplicazione e delle modifiche apportate all?algoritmo di google per delimitare il fenomeno del GoogleBombing) *
    Concordo che la maggiore severità del filtro antiduplicazione (che non va a controllare chi per primo ha scritto quel testo) e il crollo dei BL a portato alcune pagine dalla prima posizione alla 1000a ... ma spero che la situazione sia reversibile ... anzi ne sono certo :fumato:


  • Super User

    Ciao CreativeFactory 🙂

    Vediamo:

    @CreativeFactory said:

    Mi spiegheresti sto punto, mi è un po' oscuro:

    La teoria è quella che i siti colpiti, per essere tali, hanno subito un abbattimento nel conteggio dei backlink. Il problema è che a marzo ricercando "parola chiave" e "allinanchor:parola chiave" i risultati delle ricerche erano identici (esempio: 100.000 risultati). Mentre ora, non è così, il numero dei risultati per le anchor text anzichè aumentare è diminuito ed i siti colpiti non sono più presenti in quella serp (allinanchor: bla bla bla)..

    Chiarscimi anche il concetto di "anchor text".. è il testo del link a una pagina?

    Esattamente, l'anchor text non è altro che il testo dei backlink che puntano ad una pagina.. 🙂

    Ho provato ad analizzare la chiave di ricerca "striscioni divertenti", una volta c'ero anche io tra i primissimi.
    Penso che tu abbia ragione, in alto ci sono parecchi siti di livello infimo anche se sono rimasti alcuni siti "famosi" che già erano in alto, probabilmente troppo importanti per essere abbattuti.

    E' vero, la fluttuazione non colpisce tutti i siti... ma, in base alle ultime esperienze, solo un forte trustrank può evitarla (cioè non si parla di linkpopularity ma del valore del sito per Google, tanto più è "vicino" a siti HUBS, tanto più si basa su fondamenta solide... 🙂
    [/QUOTE]

    Comunque tengo sempre a precisare che queste sono mie osservazioni e conclusioni, che com'è già successo per Marzo, possono essere imprecise o addirittura non corrette (ma mi sembrava d'obbligo realizzare un articolo, visto che di queste fluttuazioni si parla sempre poco... :D)

    Grazie per i vostri spunti di riflessione... 🙂


  • Super User

    @sughero3 said:

    Bravo dechingno, una buona analisi la tua.

    Grazie sughero... 🙂

    spero che la situazione sia reversibile ... anzi ne sono certo :fumato:

    E' quello in cui credo io... ma ho visto fluttuazioni di 4-5 mesi... e per un e-commerce è come morire e risorgere ad ogni onda... 🙂

    Probabilmente questa è solo una fase di test/aggiornamento degli algoritmi, perchè se fosse una procedura standard, la qualità delle serp sarebbe davvero compromessa... così come ogni investimento SEO.


  • User Attivo

    eppure io rimango sull'idea che i giochetti nascosti non c'entrano nulla con tutto questo casino.
    come mai ora mi ritrovo primo con certe situazioni con cui fino a un mese fa ero 10°???
    ora sono alto con key che riguardano i prodotti e non il mestiere (come timidamente anticipavo qualche gg fa)


  • User

    @dechigno said:

    Grazie sughero... 🙂

    Probabilmente questa è solo una fase di test/aggiornamento degli algoritmi, perchè se fosse una procedura standard, la qualità delle serp sarebbe davvero compromessa... così come ogni investimento SEO.

    Io aggiungo.
    e saremmo obbligati all'uso massiccio di adword se vogliamo una presenza in Mister G.

    By Abraxas


  • Super User

    @dechigno said:

    Gli amici mi chiamano Deca (ci sei andato molto vicino 🙂 ).

    Ti ringrazio del tuo chiarimento, adesso mi è più chiaro il concetto...
    Da quanto ho letto però il problema è che questa operazione sembra durare un pò troppo.. :rollo:

    Ciao Deca 😉