- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Uscito dalle serp senza un perchè
-
@dechigno said:
Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...
Potrebbe essere quindi che esiste un programma di rotazione dei siti in modo da dare a tutti un pochettino di "celebrità"?
Diciamo che per l'utente che cerca non sarebbe male fornire una maggiore varietà (se la qualità rimane garantita) ma per il proprietario del sito è una discreta ciulata.. ma giustamente questo non è un problema del MdR.
Oggi poi ho notato una cosa "nuova": ho avuto utenti dal search del corriere della sera, cosa finora mai accaduta.
Sono andato a vedere sto serach, pare prenda i risultati da google: http://websearch.corriere.it/cgoogle.jsp (key "cazzate")
Tali risultati però sono parecchio differenti dal vero google infatti qui sono secondo.
Inoltre sul search del corriere mancano alcuni siti "importanti".
-
Ragazzi siamo furi strada nel mio casoil grafico degli accessi di google non è una sinusoide ma dal 3 luglio è diventato "encefalogramma piatto".
Visto che la situazione non si smuove stasera metto su le pagine nuove, non ho apportato grandi modifiche ma volevo solo capire se la cosa si smuove un po' .
Vi farò sapere.
Solo non ho capito quanto può durare il periodo di "crollo-serp" ?
Alcuni parlano di 7 gg altri di 15gg.Io sono down da 17 gg quanto dovrò ancora aspettare per tornare ai miei 6000 visitatori unici giornalieri?:(
-
Ma io ho sentito anche fino a 60 gg...
Che pazienza che c vuole!!!
-
@PAOLINO STUDIO PUBBLICITA said:
grazie
sono curioso perchè è nei mie progetti di fare alcune operazioni del genere.
ma il giuggiolo come fa a sapere che io li acquisto??ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:
-
Non sono una cima in inglese cosa dice?
-
Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )
-
@dechigno said:
Quindi stiamo ipotizzando una stagionalità nelle fluttuazioni? in modo da far roteare alcuni siti stagionalmente, lasciandone altri sempre nelle stesse posizioni? più o meno s'intende...
si, in effetti è una cosa che ho riscontrao anch'io ... sembra che alcuni siti (anche in relazione ad alcune aree tematiche) abbino almeno un paio di oscillazioni annuali, mentre altri no ...se riuscissimo a capire il perché di tale compotamento da parte di google potremmo correre ai ripari :bho:
(ho dato per scontato che i siti usino tecniche pulite, abbino un discreto pr (da 4 a 6) , una buona LP e una discreta anzianità (almeno 3 anni))
@78fede78 said:
Solo non ho capito quanto può durare il periodo di "crollo-serp" ?
Alcuni parlano di 7 gg altri di 15gg.Io sono down da 17 gg quanto dovrò ancora aspettare per tornare ai miei 6000 visitatori unici giornalieri?:(
è stato detto + volte : dai 15 ai 40 gg. con punte fino a 60 giorni@CreativeFactory said:
Potrebbe essere quindi che esiste un programma di rotazione dei siti in modo da dare a tutti un pochettino di "celebrità"?
Diciamo che per l'utente che cerca non sarebbe male fornire una maggiore varietà (se la qualità rimane garantita) ma per il proprietario del sito è una discreta ciulata.. ma giustamente questo non è un problema del MdR.
ecco, questa potrebbe sessere una ipotesi di studio, siti qualitativamente simili che si alternano nelle serp per certe aree tematiche ...
@abraxas said:
Dice che Matt Cutts sta provando dei nuovi algoritmi che sono indirizzati a tutti i siti che comprano link o che vendono link con un pr alto.... ( in parole povere )
anche qui ci sarebbe da capire se google è davvero in grado di individuare i links comprati ... se lo fosse non credo che chiederebbe l'aituto ai webmaster ... inoltre dovrebbe essere il mercato a decidere, da quando è proibito acquistare o vendere pubblicità? ... si certo google vorrebbe il tag nofollow, ma il web non può essere a sua disposizione ...certo google sul suo sito può fare quello che vuole, ma non sempre le sue scete sono per forza condivisibili ... il mercato gli rovina le serp? .. e perché lo spamm no? ... sono problemi suoi che se li risolva senza pretendere che i webmaster diventino tutti delatori
-
Ciao Ragazzi,
ho appena terminato di scrivere un altro articoletto a riguardo...
Lunedì vi posto il link, perchè non l'ho ancora pubblicato.
La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio...
-
@dechigno said:
Ciao Ragazzi,
ho appena terminato di scrivere un altro articoletto a riguardo...
Lunedì vi posto il link, perchè non l'ho ancora pubblicato.
La situazione è cambiata da Marzo, vi sono molte differenze fra quella fluttauzione e questa di Luglio...
verissimo ... attendo il link
-
Ciao Ragazzi,
come promesso ecco il link all'articolo: [url=http://www.fullpress.it/analisi/web-marketing/google-sito-penalizzato-no-fluttuante/23585.aspx]
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
-
Esatto confermo anche io che le variazioni sono state diverse ...
-
@dechigno said:
Ciao Ragazzi,
come promesso ecco il link all'articolo:
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
Ciao Dechigno,
cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?
Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".
I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.
Mi sbaglio?
-
Ciao ragazzi.
Identici problemi, da Giugno, oramai..
Proprio oggi ho notato che una pagina interna che fino a ieri, da 5 mesi era posizionata al primo posto per una key, adesso sta in 6° posizione
Questo però mi fa pensare che la teoria di dechigno sia sensata... ammesso di considerare anche le anchor dei link interni oltre a quelle dei BL.
Questa pagina, infatti, non ha nemmeno 1 BL, ma è fortemente spinta da link interni.
Forse GG testa le pagine solo per il loro contenuto, senza considerare da chi e da come sono linkate e quindi spinte?
Spero si risolva tutto, sennò vado a comprare la fune x:x
-
@abraxas said:
ecco il link all'articolo http://www.mattcutts.com/blog/text-links-and-pagerank/ :bho:
grazie ma ci dev'essere un errore nella pagina nel senso che non si visualizza...:(
cmq ne deduco che lo scoprirebbe...
vabbè... lo trovo il sistema si si;)grazie
paolo
-
@Pastikka said:
Ciao Dechigno,
cosa intendi per "abbattimento delle anchor text per far salire i siti SPAM"?Vuol dire che (ipoteticamente) hanno deciso di non tener conto del testo che accompagna un link ad un sito per far venire a galla le "bolle di SPAM" nel mare di internet?
Per il mio modesto parere, in questo caso, si farebbe emergere i siti migliori (invece che i siti SPAM), quelli che ricevono link spontanei che di solito non sono studiati con anchor text mirate ad esempio "hotel città".
I siti spam solitamente si fanno linkare con la solita KF per migliorare il posizionamento e non dare importanza al testo del link secondo me non farebbe emergere i siti che utilizzano tecniche non lecite sia on site che off site.
Mi sbaglio?
Ciao Pastikka,
quello che dici è vero..
Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.
Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...
Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle".
Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam...
In fondo, questo è un mio pensiero, pienamente opponibile...
Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo...
-
@dechigno said:
Ciao Pastikka,
quello che dici è vero..
Il problema è che Google non fa crollare solamente 1 anchor text, le fa crollare tutte... e questo mette in difficoltà l'intero sito.
Ti faccio un esempio se il mio sito parla di "caramelle" riceverà dal sito A un link per Caramelle rosse (perchè il sito A parla esclusivamente di carte per caramelle rosse), mentre il sito B mi linka con Produzione caramelle (perchè il sito parla di macchine per caramelle), e così via...
Questi link, anche se con anchor text tematiche sono molto spontanei e spingono il posizionamento per la parola "caramelle".
Capisci che se la long tail nelle anchor text dei backlink viene abbattuta tutti i migliori siti (quelli che ricevono link spontanei con diverse anchor) vengono a meno ed emerge lo spam...
In fondo, questo è un mio pensiero, pienamente opponibile...
Grazie per la precisazione, in effetti non è molto chiaro... perchè ne parlavo nell'altro articolo...
Ciao Deco,
grazie per la precisazionePerò, sarò duro, ma non ho ancora capito bene il tuo ragionamento.
Te dici che eliminando l'importanza delle key phrase nei link testuali verrebbero ad emergere i siti "spammosi".
Provo a cercare di capire meglio con un esempio
Supponioamo che io, Sito white hat, abbia tre link con AT "vendita caramelle rosa", "forniture di caramelle", "ampia scelta di caramelle di ogni colore" per una determinata pagina.
Un mio concorrente con Spam ha 3 link tutti con anchor text "vendita caramelle".
A questo punto il signor GG decide di non prendere in considerazione le anchor text dei BL ai nostri siti e quindi le long tail nei BL non ha più rilevanza.
A questo punto il mio sito che riceve 3 link diversi spontanei crolla, mentre invece il sito SPAM resta (in sostanza avanza, perchè gli altri sopra tendenzialmente calano di posizione) nella posizione precedente.
Questo il funzionamento, se ho ben capito, della nuova politica adottata nell'ultimo periodo.
Due domande mi sorgono spontanee...
-
Se io (sito buono ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?
-
Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM? Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?
Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
-
-
Secondo me google usa un sistema semplicemente "non umano". Un algoritmo non potrà mai avere il buon senso di essere umano.
Prendiamo il mio sito, per assurdo, arrivava sempre nei primi 10 risultati, su ogni contenuto presente.
Questo è durato per 3 mesi. Il mio sito non ha grosse pretese, prendo qualche esempio, faccio recensione di software.
Fatto sta che era sempre ai primissimi posti.
Errore dell'algoritmo di Google? Non lo so.
Fatto sta che è stato praticamente cancellato da tutti i risultati, ad esempio cercando "codice fiscale in access", ti riporta a delle discussioni che non hanno nulla a che fare con quello che hai cercato.
Questo sarebbe l'efficacia dell'algoritmo di google?
Non ho capito che sistemi usi, ma credo che prima di bannare o spostare dalla serp, google debba usare un criterio più intelligente.
Non è possibile che di punto in bianco butti i siti agli ultimi posti.
mi domando anche chi ci ha lavorato per mesi, che si ritrova praticamente depauperato.
Non ho grossi interessi nel mio sito, però è stato fatto in puro html, anche gli articoli li pubblico senza editor integrati per avere sottomano tutto.
Ho cercato di essere il più pulito possibile, il risultato l'ho visto per questi mese in primissimi posti, finché qualcuno di Google ha deciso di punto in bianco, di avviare il programmino, che sega in base ai criteri random, perché anche il random è un business.
Google ha troppo potere, comincio a pensare che sia necessario un qualche potere limitante, un garante o qualcosa del genere.
Fintanto che mi bannano, o buttano all'ultimo posto, il mio sitarello senza pretese, ok, ma quando ci sono interi staff che lavorano o anche singoli è un altro discorso.
-
@Pastikka said:
Ciao Deco
Gli amici mi chiamano Deca (ci sei andato molto vicino ).
Rispondo alle tue domande:
- Se io (sito buono ) dopo questo "filtraggio" oltre ad avere 3 BL con anchor text diverse ne ho 5 con anchor text "vendita caramelle", risulto nelle serp prima del sito spammoso (che ne aveva 3); allora anche io agli occhi di GG sarei un sito SPAM?
Il concetto che intedo esprimere è che i siti spam utilizzano moltissimo una popolarità molto volatile, sia nel tempo, sia nella qualità. Inoltre quasi tutti i siti spam hanno keypharse che legano poco o niente l'una con le altre. Vengo al dunque: Google utilizza molto le ancore e si basa quasi esclusivamente sul trust (quindi popolarità, in termini poveri) per il ranking di un sito. Per tanto, togliendo i Backlink ai siti principali, vengono considerati ai fini del ranking altri fattori (principalmente quelli on-page) e chi usa tecniche di stuffing o illecite emerge in serp, non per merito ma per declassamento dei siti importanti...
Spero che così sia più chiaro cosa intendo...
- Se si elimina l'importanza delle anchor text non si riduce anche l'importanza dei BL che ha il sito SPAM?
Certamente, ma il sito spam riceve link da altri siti spam oppure da sito non a tema o comunque ha una popolarità di network fittizia (molto meno popolare di un siti trust). In questo termine emerge perchè ricco di stuffing, link e testi scopiazzati qua e la.
Eliminando l'importanza delle frasi con cui si viene linkati non si "penalizza" anche il sito SPAM che ha pure 3 BL con le solite parole? Dici che viene scelto un sottoinsieme di anchor text che vengono considerate spammose e si lascia l'importanza a queste per far emergere i siti "cattivi"?
Questo può darsi, anzi è un'intuizione giusta ed è supportata dal fatto che la maggior parte dei siti, sono ancora nelle stesse posizioni con la chiave primaria (principale) che risiede in homepage. In effetti tu lo hai spiegato molto meglio di me, che lo avevo lasciato scritto fra le righe
Scusa le mie domande ma, come avrai capito, ci terrei a fare chiarezza...
Ci mancherebbe... a mio avviso sta uscendo un gran bel post, di confronto dove tutti possiamo crescere e magari interpretare meglio le azioni adottate da chi ci comanda... (purtroppo).
-
Mi spiegheresti sto punto, mi è un po' oscuro:
Rivalutazione delle anchor text, mentre a marzo il numero delle ancore per una keywords specifica, risultavano essere uguali al numero totale dei risultati delle ricerche per quella parola chiave, oggi sembra che ai web site colpiti siano caduti alcuni link con ancore importanti per la keywords selezionata
Chiarscimi anche il concetto di "anchor text".. è il testo del link a una pagina?
Ho provato ad analizzare la chiave di ricerca "striscioni divertenti", una volta c'ero anche io tra i primissimi.
Penso che tu abbia ragione, in alto ci sono parecchi siti di livello infimo anche se sono rimasti alcuni siti "famosi" che già erano in alto, probabilmente troppo importanti per essere abbattuti.Ciao
-
@dechigno said:
Ciao Ragazzi,
come promesso ecco il link all'articolo:
Google: Sito penalizzato? No, fluttuante!Spero sia spunto di interessanti discussioni, che potremmo continuare in questo post
Grazie !
Bravo dechingno, una buona analisi la tua.un mio sito generalista nato nel 2000 è stato colpito in una sola area tematica, addirittura con perdita di pagine e/o directoty.
*> La perdita di posizionamento, invece può essere dovuta alla minor spinta in termini di backlink dovuta alla fuoriuscita di pagine e anchor text (vedi dati inferiori fra prima e dopo la sinusoide) forse per una maggior severità del filtro anti-duplicazione e delle modifiche apportate all?algoritmo di google per delimitare il fenomeno del GoogleBombing) *
Concordo che la maggiore severità del filtro antiduplicazione (che non va a controllare chi per primo ha scritto quel testo) e il crollo dei BL a portato alcune pagine dalla prima posizione alla 1000a ... ma spero che la situazione sia reversibile ... anzi ne sono certo