• User Attivo

    Mi immetto in quest discussione
    riportando il link di Marie Haynes
    https://www.mariehaynes.com/disavow-blacklist-tool/

    Lei vendeva una lista, sempre aggiornata, di siti che rilasciavano link tossici.
    Ha smesso di venderla
    notando che il lavoro di Disavow che faceva, con buoni risultati, in passato
    oggi non era più così efficace.

    In pratica negli anni passati, il lavoro di disavow gli portava notevoli vantaggi.
    Ora non più.

    La conclusione a cui giunge, è che il machine learning di Google sia arrivato ad un grado abbastanza avanzato nel riconoscimento automatico di quali link siano buoni e quali siano cattivi.

    In soldoni conferma quello che si è scritto sopra, "Non comprate linketti, bimbi..." che Google se ne accorge e nella migliore delle ipotesi li ignora...


    giorgiotave kal 2 Risposte
  • Community Manager

    @luca ha detto in Non comprate i linketti, bimbi...:

    La conclusione a cui giunge, è che il machine learning di Google sia arrivato ad un grado abbastanza avanzato nel riconoscimento automatico di quali link siano buoni e quali siano cattivi.

    Io al Search Marketing Connect del 2015 dissi proprio questa cosa. E nel 2018 qui possiamo vedere come hanno iniziato a farlo con i comunicati stampa.

    Quindi stiamo ipotizzando che siamo davvero arrivati a questo livello? Sarebbe veramente figo 🙂


    luca 1 Risposta
  • Contributor

    @luca ha detto in Non comprate i linketti, bimbi...:

    In soldoni conferma quello che si è scritto sopra, "Non comprate linketti, bimbi..." che Google se ne accorge e nella migliore delle ipotesi li ignora...

    alt text

    @giorgiotave ha detto in Non comprate i linketti, bimbi...:

    Quindi stiamo ipotizzando che siamo davvero arrivati a questo livello? Sarebbe veramente figo

    Sì, ma secondo me non è davvero così strano.

    Voglio dire, i siti che facevano linketti a pagamento li ho sgamati io partendo da un seed (il sito di cui ho fatto l'analisi che ha dato l'avvio al topic).

    E l'ho fatto con strumenti AMATORIALI e una mappa parziale del link graph... eppure sono stato in grado di visualizzare in modo lampante i siti che facevano link building sulla PBN.

    Google ha la mappa del link graph dell'intera internet... oltre ai migliori ingegneri del software.

    Sarebbe davvero strano se non avessero realizzato (da tempo) una cosa davvero efficace.


    giorgiotave 1 Risposta
  • User Attivo

    @giorgiotave ha detto in Non comprate i linketti, bimbi...:

    Quindi stiamo ipotizzando che siamo davvero arrivati a questo livello? Sarebbe veramente figo

    L'articolo che ho linkato è abbastanza dettagliato e riporta la sua esperienza (di Maria Haynes) in merito.
    Esperienza tra l'altro molto lunga.
    E di fatto sostiene questo.

    Dice che se i tool classici, beccano già delle anomalie sui link, probabilmente sono già ignorati da Google.

    Quello che io personalmente temo del machine learning poi sono i falsi positivi e i falsi negativi...


    kal 1 Risposta
  • Contributor

    @luca ha detto in Non comprate i linketti, bimbi...:

    Quello che io personalmente temo del machine learning poi sono i falsi positivi e i falsi negativi...

    Sì, sono cose che possono capitare con i classificatori ML.

    Ma è anche vero che succede solo ai siti che sono "sul confine" del classificatore, a quelli non proprio sporchi ma nemmeno del tutto puliti.


  • Community Manager

    @kal ha detto in Non comprate i linketti, bimbi...:

    Sì, ma secondo me non è davvero così strano.

    No certo!

    @luca ha detto in Non comprate i linketti, bimbi...:

    Dice che se i tool classici, beccano già delle anomalie sui link, probabilmente sono già ignorati da Google.

    Ora me lo leggo, grazie!


  • User

    @luca ha detto in Non comprate i linketti, bimbi...:

    Dice che se i tool classici, beccano già delle anomalie sui link, probabilmente sono già ignorati da Google.

    Piccolo intervento qui, per dire che sto facendo lo stesso lavoro su 2 siti web.

    Ecco i due diversi casi.

    Primo sito
    Il primo non ha mai avuto penalizzazioni o cali, ma solo alcune pagine che non si posizionano bene.
    Ottiene molti link da PBN "di largo consumo". Altri link da riviste, invece, sono stati lasciati.
    Totale link: 453, di cui mantenuti come buoni 151 e 312 in disavow.

    Secondo sito
    Sito web con link building fatta con molta PBN.
    Sto facendo un test.
    213 link totali. 136 in disavow, mantenuti 77.
    In base ai segnali che otterrò, valuterò il disavow di altri 49 link, mantenendone solo 28.
    D'accordo con il cliente, non procedo alla rimozione fisica dei link, ma solo al disavow.

    Se il caso interessa, seguiranno aggiornamenti.

    @kal che tool hai usato per controllare le reti sui link in uscita dei vari siti? Ho letto Sistrix, ma non conosco questo brand. Se potessi dirmi il nome esatto del tool te ne sarei grato.


    kal 1 Risposta
  • Contributor

    Grande Filippo! Sicuramente interessa per cui tienici aggiornati.

    Non sono sicuro che la sola applicazione del Disavow possa portare a risultati concreti (perché comunque l'algoritmo raccoglie e pesa sempre più segnali), ma sicuramente un approccio pesato è interessante da valutare.

    @filippo-jatta ha detto in Non comprate i linketti, bimbi...:

    @kal che tool hai usato per controllare le reti sui link in uscita dei vari siti? Ho letto Sistrix, ma non conosco questo brand. Se potessi dirmi il nome esatto del tool te ne sarei grato.

    Intendi come ho ottenuto la mappa dei link?

    Ho:

    1. raccolto le URL dei domini PBN/Content Farm facendo link audit di un singolo sito che aveva ammesso di aver acquistato link. Le sorgenti di analisi sono state... tutte! I documenti interni del cliente, Google Search Console, Ahrefs, Majestic e anche Moz. Ho estratto i dati e aggregato tutto. Fra parentesi: per fare sta cosa basta la licenza di 1 mese dei singoli tool... che spesso è anche messa in offerta. Il costo è risibile.
    2. scansionato ciascun singolo domino con un crawler. Ho usato Visual SEO, va bene anche Screaming Frog
    3. mappato le URL in uscita dai siti scansionati sotto forma di grafo di link (Source > Target)
    4. semplificato l'analisi rimuovendo path e protocol e lasciando solo Source domain > Target domain
    5. dato in pasto il link graph così ottenuto a Gephi, che permette la visualizzazione dei grafi
    6. giocato con le impostazioni di Gephi (calcolo del Pagerank, Modularity, algoritmo di dispersione Force Atlas 2) per ottenere la mappa dei link

    Sinceramente raccomando caldamente Gephi... è un tool che chiunque faccia SEO secondo dovrebbe almeno sperimentare un poco. Apre delle finestre inedite sul modo in cui Google "vede" internet, perché permette di tradurre in modo visuale ed immediato quelle che sono nei fatti delle relazioni numeriche.


  • User

    @kal ha detto in Non comprate i linketti, bimbi...:

    dato in pasto il link graph così ottenuto a Gephi, che permette la visualizzazione dei grafi

    Splendido! Mi mancava Gephi.
    Grazie mille Kal!


  • User

    @kal sono tentato di fare un esperimento sul mio blog personale: eliminare i link PBN che puntano a pagine posizionate benissimo, per vedere se sono lì per merito dei linketti oppure no.
    Ovviamente se dovessi essere curioso dimmi pure e ti mando una mail con i case study.
    Intanto procedo con il doppio test.