- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Uscito dalle serp senza un perchè
-
Ciao Ragazzi,
ho appena terminato di scrivere un altro articoletto a riguardo...
Lunedì vi posto il link, perchè non l'ho ancora pubblicato.
La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio...
-
@dechigno said:
Ciao Ragazzi,
ho appena terminato di scrivere un altro articoletto a riguardo...
Lunedì vi posto il link, perchè non l'ho ancora pubblicato.
La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio...
verissimo ... attendo il link
-
Ciao Ragazzi,
come promesso ecco il link all'articolo: [url=http://www.fullpress.it/analisi/web-marketing/google-sito-penalizzato-no-fluttuante/23585.aspx]
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
-
Esatto confermo anche io che le variazioni sono state diverse ...
-
@dechigno said:
Ciao Ragazzi,
come promesso ecco il link all'articolo:
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
Ciao Dechigno,
cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?
Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".
I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.
Mi sbaglio?
-
Ciao ragazzi.
Identici problemi, da Giugno, oramai..
Proprio oggi ho notato che una pagina interna che fino a ieri, da 5 mesi era posizionata al primo posto per una key, adesso sta in 6° posizione
Questo però mi fa pensare che la teoria di dechigno sia sensata... ammesso di considerare anche le anchor dei link interni oltre a quelle dei BL.
Questa pagina, infatti, non ha nemmeno 1 BL, ma è fortemente spinta da link interni.
Forse GG testa le pagine solo per il loro contenuto, senza considerare da chi e da come sono linkate e quindi spinte?
Spero si risolva tutto, sennò vado a comprare la fune x:x
-
@abraxas said:
ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:
grazie ma ci dev'essere un errore nella pagina nel senso che non si visualizza...:(
cmq ne deduco che lo scoprirebbe...
vabbè... lo trovo il sistema si si;)grazie
paolo
-
@Pastikka said:
Ciao Dechigno,
cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?
Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".
I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.
Mi sbaglio?
Ciao Pastikka,
quello che dici è vero..
Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.
Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...
Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle".
Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam...
In fondo, questo è un mio pensiero, pienamente opponibile...
Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo...
-
@dechigno said:
Ciao Pastikka,
quello che dici è vero..
Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.
Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...
Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle".
Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam...
In fondo, questo è un mio pensiero, pienamente opponibile...
Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo...
Ciao Deco,
grazie per la precisazionePerò, sarò duro, ma non ho ancora capito bene il tuo ragionamento.
Te dici che eliminando l'importanza delle key phrase nei link testuali verrebbero ad emergere i siti "spammosi".
Provo a cercare di capire meglio con un esempio
Supponioamo che io, Sito white hat, abbia tre link con AT "vendita caramelle rosa", "forniture di caramelle", "ampia scelta di caramelle di ogni colore" per una determinata pagina.
Un mio concorrente con Spam ha 3 link tutti con anchor text "vendita caramelle".
A questo punto il signor GG decide di non prendere in considerazione le anchor text dei BL ai nostri siti e quindi le long tail nei BL non ha più rilevanza.
A questo punto il mio sito che riceve 3 link diversi spontanei crolla, mentre invece il sito SPAM resta (in sostanza avanza, perchè gli altri sopra tendenzialmente calano di posizione) nella posizione precedente.
Questo il funzionamento, se ho ben capito, della nuova politica adottata nell'ultimo periodo.
Due domande mi sorgono spontanee...
-
Se io (sito buono ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?
-
Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM? Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?
Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
-
-
Secondo me google usa un sistema semplicemente "non umano". Un algoritmo non potrà mai avere il buon senso di essere umano.
Prendiamo il mio sito, per assurdo, arrivava sempre nei primi 10 risultati, su ogni contenuto presente.
Questo è durato per 3 mesi. Il mio sito non ha grosse pretese, prendo qualche esempio, faccio recensione di software.
Fatto sta che era sempre ai primissimi posti.
Errore dell'algoritmo di Google? Non lo so.
Fatto sta che è stato praticamente cancellato da tutti i risultati, ad esempio cercando "codice fiscale in access", ti riporta a delle discussioni che non hanno nulla a che fare con quello che hai cercato.
Questo sarebbe l'efficacia dell'algoritmo di google?
Non ho capito che sistemi usi, ma credo che prima di bannare o spostare dalla serp, google debba usare un criterio più intelligente.
Non è possibile che di punto in bianco butti i siti agli ultimi posti.
mi domando anche chi ci ha lavorato per mesi, che si ritrova praticamente depauperato.
Non ho grossi interessi nel mio sito, però è stato fatto in puro html, anche gli articoli li pubblico senza editor integrati per avere sottomano tutto.
Ho cercato di essere il più pulito possibile, il risultato l'ho visto per questi mese in primissimi posti, finché qualcuno di Google ha deciso di punto in bianco, di avviare il programmino, che sega in base ai criteri random, perché anche il random è un business.
Google ha troppo potere, comincio a pensare che sia necessario un qualche potere limitante, un garante o qualcosa del genere.
Fintanto che mi bannano, o buttano all'ultimo posto, il mio sitarello senza pretese, ok, ma quando ci sono interi staff che lavorano o anche singoli è un altro discorso.
-
@Pastikka said:
Ciao Deco
Gli amici mi chiamano Deca (ci sei andato molto vicino ).
Rispondo alle tue domande:
- Se io (sito buono ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?
Il concetto che intedo esprimere è che i siti spam utilizzano moltissimo una popolarità molto volatile, sia nel tempo, sia nella qualità. Inoltre quasi tutti i siti spam hanno keypharse che legano poco o niente l'una con le altre. Vengo al dunque: Google utilizza molto le ancore e si basa quasi esclusivamente sul trust (quindi popolarità, in termini poveri) per il ranking di un sito. Per tanto, togliendo i Backlink ai siti principali, vengono considerati ai fini del ranking altri fattori (principalmente quelli on-page) e chi usa tecniche di stuffing o illecite emerge in serp, non per merito ma per declassamento dei siti importanti...
Spero che così sia più chiaro cosa intendo...
- Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM?
Certamente, ma il sito spam riceve link da altri siti spam oppure da sito non a tema o comunque ha una popolarità di network fittizia (molto meno popolare di un siti trust). In questo termine emerge perchè ricco di stuffing, link e testi scopiazzati qua e la.
Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?
Questo può darsi, anzi è un'intuizione giusta ed è supportata dal fatto che la maggior parte dei siti, sono ancora nelle stesse posizioni con la chiave primaria (principale) che risiede in homepage. In effetti tu lo hai spiegato molto meglio di me, che lo avevo lasciato scritto fra le righe
Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
Ci mancherebbe... a mio avviso sta uscendo un gran bel post, di confronto dove tutti possiamo crescere e magari interpretare meglio le azioni adottate da chi ci comanda... (purtroppo).
-
Mi spiegheresti sto punto, mi è un po' oscuro:
Rivalutazione delle anchor text, mentre a marzo il numero delle ancore per una keywords specifica, risultavano essere uguali al numero totale dei risultati delle ricerche per quella parola chiave, oggi sembra che ai web site colpiti siano caduti alcuni link con ancore importanti per la keywords selezionata
Chiarscimi anche il concetto di "anchor text".. è il testo del link a una pagina?
Ho provato ad analizzare la chiave di ricerca "striscioni divertenti", una volta c'ero anche io tra i primissimi.
Penso che tu abbia ragione, in alto ci sono parecchi siti di livello infimo anche se sono rimasti alcuni siti "famosi" che già erano in alto, probabilmente troppo importanti per essere abbattuti.Ciao
-
@dechigno said:
Ciao Ragazzi,
come promesso ecco il link all'articolo:
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
Bravo dechingno, una buona analisi la tua.un mio sito generalista nato nel 2000 è stato colpito in una sola area tematica, addirittura con perdita di pagine e/o directoty.
*> La perdita di posizionamento, invece può essere dovuta alla minor spinta in termini di backlink dovuta alla fuoriuscita di pagine e anchor text (vedi dati inferiori fra prima e dopo la sinusoide) forse per una maggior severità del filtro anti-duplicazione e delle modifiche apportate all?algoritmo di google per delimitare il fenomeno del GoogleBombing) *
Concordo che la maggiore severità del filtro antiduplicazione (che non va a controllare chi per primo ha scritto quel testo) e il crollo dei BL a portato alcune pagine dalla prima posizione alla 1000a ... ma spero che la situazione sia reversibile ... anzi ne sono certo
-
Ciao CreativeFactory
Vediamo:
@CreativeFactory said:
Mi spiegheresti sto punto, mi è un po' oscuro:
La teoria è quella che i siti colpiti, per essere tali, hanno subito un abbattimento nel conteggio dei backlink. Il problema è che a marzo ricercando "parola chiave" e "allinanchor:parola chiave" i risultati delle ricerche erano identici (esempio: 100.000 risultati). Mentre ora, non è così, il numero dei risultati per le anchor text anzichè aumentare è diminuito ed i siti colpiti non sono più presenti in quella serp (allinanchor: bla bla bla)..
Chiarscimi anche il concetto di "anchor text".. è il testo del link a una pagina?
Esattamente, l'anchor text non è altro che il testo dei backlink che puntano ad una pagina..
Ho provato ad analizzare la chiave di ricerca "striscioni divertenti", una volta c'ero anche io tra i primissimi.
Penso che tu abbia ragione, in alto ci sono parecchi siti di livello infimo anche se sono rimasti alcuni siti "famosi" che già erano in alto, probabilmente troppo importanti per essere abbattuti.E' vero, la fluttuazione non colpisce tutti i siti... ma, in base alle ultime esperienze, solo un forte trustrank può evitarla (cioè non si parla di linkpopularity ma del valore del sito per Google, tanto più è "vicino" a siti HUBS, tanto più si basa su fondamenta solide...
[/QUOTE]Comunque tengo sempre a precisare che queste sono mie osservazioni e conclusioni, che com'è già successo per Marzo, possono essere imprecise o addirittura non corrette (ma mi sembrava d'obbligo realizzare un articolo, visto che di queste fluttuazioni si parla sempre poco... :D)
Grazie per i vostri spunti di riflessione...
-
@sughero3 said:
Bravo dechingno, una buona analisi la tua.
Grazie sughero...
spero che la situazione sia reversibile ... anzi ne sono certo
E' quello in cui credo io... ma ho visto fluttuazioni di 4-5 mesi... e per un e-commerce è come morire e risorgere ad ogni onda...
Probabilmente questa è solo una fase di test/aggiornamento degli algoritmi, perchè se fosse una procedura standard, la qualità delle serp sarebbe davvero compromessa... così come ogni investimento SEO.
-
eppure io rimango sull'idea che i giochetti nascosti non c'entrano nulla con tutto questo casino.
come mai ora mi ritrovo primo con certe situazioni con cui fino a un mese fa ero 10°???
ora sono alto con key che riguardano i prodotti e non il mestiere (come timidamente anticipavo qualche gg fa)
-
@dechigno said:
Grazie sughero...
Probabilmente questa è solo una fase di test/aggiornamento degli algoritmi, perchè se fosse una procedura standard, la qualità delle serp sarebbe davvero compromessa... così come ogni investimento SEO.
Io aggiungo.
e saremmo obbligati all'uso massiccio di adword se vogliamo una presenza in Mister G.By Abraxas
-
@dechigno said:
Gli amici mi chiamano Deca (ci sei andato molto vicino ).
Ti ringrazio del tuo chiarimento, adesso mi è più chiaro il concetto...
Da quanto ho letto però il problema è che questa operazione sembra durare un pò troppo..Ciao Deca
-
@Pastikka said:
Ti ringrazio del tuo chiarimento, adesso mi è più chiaro il concetto...
Da quanto ho letto però il problema è che questa operazione sembra durare un pò troppo..Ciao Deca
quando abbiamo un calo del sito = guadagni, dura sempre troppo
-
E' normale che cercando "cazzate" e "allinanchor:cazzate" si ottenga come risultato la stessa identica pagina?
Per altre key non mi succede ciò..
Penso anche io che sia una situazione a termine, altrimenti il MdR ritornerebbe risultati di scarsa qualità per l'utente, cosa che non dovrebbe potersi permettere.
Detto questo però il periodo di down è troppo esteso, per il mio sito che ha solo scopo "ludico" va bene, ma per un e-commerce vuol dire essere fottuto.
Questa considerazione per google non è un problema, anzi potenzialmente potrebbe introitare di più con AdWords, però si pone il problema dell'utente che già accennavo sopra: se per 2 mesi ritorni solo spam come risultato per determinate key a me utente non va bene; il MdR diventa inaffidabile e di scarsa qualità come i suoi competitors.
Il secondo problema è che, se ci fossero reali competitors, google potrebbe perdere utenti con questa politica che sta attuando ma, dato che gli altri MdR ritornano spam tutto l'anno, è sempre meglio G che ritorna cattivi risultati solo per 2 mesi.
Sarebbe quindi meglio avere più MdR di qualità paragonabile a G: non per paura del suo troppo potere o del fatto che G taglieggi gli inserzionisti a suo piacere MA solamente perchè sarebbe obbligato a fare i suoi esperimenti in un lasso di tempo molto ristretto per proporre agli utenti serp sempre di qualità elevata.
Ciao