• User Attivo

    Avete letto questo simpatico test fatto qualche giorno fa? http://www.espertoseo.com/black-hat-seo-per-distruggere-i-competitor-un-test-sbalorditivo


  • User Attivo

    Scusa, Cerbero, ma di che parli...?

    I link a pagamento sono tutt'altra cosa.

    Io nei miei articoli linko spesso altri siti. Inserisco il "nofollow" raramente e "cum grano salis". Non ho mai avuto una lira per linkare una risorsa utile e non vedo perchè dovrei avere la coda di paglia linkando col "nofollow" una risorsa attendibile.


  • User Attivo

    @artistic101 said:

    Avete letto questo simpatico test fatto qualche giorno fa?

    Sì, lo avevo letto. Ma non credo che ci siano tanti perdigiorno disposti ad inviare milioni di link allo scopo di farti penalizzare. 😉


  • User Attivo

    @wolf_cub said:

    Sì, lo avevo letto. Ma non credo che ci siano tanti perdigiorno disposti ad inviare milioni di link allo scopo di farti penalizzare. 😉
    Certo ma non è questo il punto, il punto è che se è possibile fare una cosa del genere allora vuol dire che l'algoritmo ha qualche problemino...


  • Super User

    @artistic101 said:

    Avete letto questo simpatico test fatto qualche giorno fa? www espertoseo com/black-hat-seo-per-distruggere-i-competitor-un-test-sbalorditivo
    Questo è un pericolo che ho segnalo a più riprese anche sul forum di Google, ossia che per far fuori un competitor basta linkarlo da siti spazzatura blog satellite e così via dicendo.

    Non sarebbe più opportuno, da parte di Google, semplicemente ignorare i link sospetti? A chi verrebbe in mente di creare una seire di blog satellite se sa che i suoi links saranno ignorati da google al pari di un nofollow?

    Solito risultato senza stare a penalizzare nessuno (all'infuori di chi si reggeva solamente su queli link, ma mi sembra alquanto remota una possibilita del genere).


  • User Attivo

    date un'occhiata alla serp per "giochi gratis online", e guardate il sito giochigratisonline . com... Forse l'interlinking non è tutto sommato così vietato, anzi!

    Più interlinking di così...


  • User Attivo

    Beh, al di là di quello che poteva dire l'ineffabile Matt Cutts, il fatto che migliaia e migliaia di link spammosi, creati ad hoc, potessero danneggiarti era più che un sospetto.

    Questo test ne dà solo una conferma. Che poi gli algoritmi siano meno intelligenti di quanto si creda, ci sono ugualmente pochi dubbi, altrimenti non staremmo qui ad interrogarci sul perchè siti qualitativamente buoni sono stati penalizzati.


  • User Attivo

    da quel che ho potuto vedere la base di questa penalizzazione sono i links che ricevi. Se ricevi links da fonti in qualche modo riconducibili ad uno stesso proprietario o uno stesso schema/network, lui ti penalizza. Anche se hai zero link in uscita ti penalizza lo stesso anche se secondo me sei meno soggetto.

    Poi fa la differenza anche QUANTO vieni linkato dal network rispetto ai link considerati non appartenenti ad esso.


  • Moderatore

    @wolf_cub said:

    Sì, lo avevo letto. Ma non credo che ci siano tanti perdigiorno disposti ad inviare milioni di link allo scopo di farti penalizzare. 😉

    Per quanto mi riguarda, il problema non sono i perdigiorno ma le directory automatiche (per lo più polacche, sembrerebbe): un mio sito ha ricevuto di colpo migliaia di link spazzatura non desiderati e non richiesti, e in seguito (non so se in conseguenza, ma il sospetto è forte) è sprofondato per tutte le key importanti, fortunatamente c'era anche un buon traffico da key di long tail, che è rimasto praticamente intatto.

    In merito a queste cose noto spesso una certa diffidenza, del tipo "eh, in qualche modo te li sarai andati a cercare tutti questi link...", invece non è così.
    E' una cosa che può succedere a chiunque e a quanto pare non ha rimedio.


  • User Attivo

    concordo, qui il problema è che Google sta cercando di far fare al suo algoritmo un lavoro che forse solo una mente umana puo fare perchè puo' considerare tutte le variabili in gioco ed essere ragionevole quando è il caso di esserlo.

    Un algoritmo, per lo meno quelli di google in questo momento, non sono in grado di fare tutto ciò....quindi la filosofia dovrebbe essere "nel dubbio non fare niente", ma a furia di non fare niente rimani fermo...


  • User

    Comunque c'è stato un update di Google Panda il 19 Aprile solo che non è stato detto quasi da nessuno;

    Per i curiosi, su Searchmetrics c'è sempre il rapporto settimanale di vincenti e perdenti in Italia anche se quei dati sono davvero difficili da interpretare
    suite.searchmetrics.com/en/research/visibility-charts/overview?cc=IT


  • User Attivo

    @gianrudi said:

    Per quanto mi riguarda, il problema non sono i perdigiorno ma le directory automatiche (per lo più polacche, sembrerebbe): un mio sito ha ricevuto di colpo migliaia di link spazzatura non desiderati e non richiesti, e in seguito (non so se in conseguenza, ma il sospetto è forte) è sprofondato per tutte le key importanti, fortunatamente c'era anche un buon traffico da key di long tail, che è rimasto praticamente intatto.

    In merito a queste cose noto spesso una certa diffidenza, del tipo "eh, in qualche modo te li sarai andati a cercare tutti questi link...", invece non è così.
    E' una cosa che può succedere a chiunque e a quanto pare non ha rimedio.
    Ho ragione di pensare che sia effettivamente così però, cavolo, questo non è accettabile da un motore di ricerca, a questo punto il passo sarebbe semplice: supponiamo che per una certa parola chiave il mio sito occupi la quinta posizione, bene, prendo i 4 siti che lo precedono e li bombardo di link da siti spam e directory (usando software automatici non ci vuole poi tanto). Dove si andrà a finire in questo modo? A questo punto è più conveniente, invece i fare seo, concentrarsi sulla demolizione dei concorrenti...


  • User Attivo

    lol, guardate la serp per "online line count"


  • User Attivo

    😮 :arrabbiato:


  • User

    -> online line count

    Se entri nel sito disabilitando i referer (come normalmente hanno i bot) vedi effettivamente un contatore di linee. Con il referer attivo non vedo nulla :figo2:


  • Moderatore

    Sì, la pagina mostra un contatore di righe anche con i referrer abilitati, se si scrive l'url nella barra degli indirizzi, è solo il redirect dalla serp che porta al fake, mi pare.

    Qualcuno sa spiegare questa cosa?

    EDIT: pensandoci provo a spiegarla io: nella pagina dinamica dev'esserci un test sul referrer, se trova il referrer da google cambia il contenuto, altrimenti restituisce la pagina normale, che è quella che conta le righe, effettivamente pertinente e con pr4. Questo spiegherebbe perchè il fenomeno non si presenta con i referrer disabilitati.


  • User Attivo

    E' una tecnica di spam nota, quella di mostrare ai motori una pagina e agli utenti un'altra totalmente diversa \ normale.

    Io mi aspetto una comunicazione ufficiale da google che ci dica cosa ha intenzione di fare, se questo è realmente il nuovo algoritmo o meno...


  • Moderatore

    Sì ma qui viene fatto dopo l'indicizzazione, basandosi sul referrer in serp, che è una tecnica diversa (almeno, io non la sapevo).
    Non è che mostra ai motori una pagina e agli utenti un'altra, qui mostra una certa pagina agli utenti che vengono dalla serp di google e una pagina diversa a tutti gli altri utenti.

    Se per esempio si cerca "online line count" su virgilio, la pagina è la stessa con lo stesso titolo e descrizione fake, ma cliccandoci sopra esce il contarighe normale.


  • User Attivo

    Esce il contarighe originale ma intanto per i motori arriva la pubblicità al sito di viagra, non mi pare una mossa molto corretta lo stesso


  • Moderatore

    Ah sì, che si tratti di spam non ci sono dubbi.

    Incuriosisce perchè non è comune vedere effetti simili in serp.