• Contributor

    @giorgiotave ha detto in Helpful content update:

    Non solo: dal mio punto di vista un'evoluzione di cosa già avevano prima.

    Non a caso moltissimi stanno paragonando questo update (che per ora parrebbe solo annunciato) a quello che fu Panda all'epoca.

    Le intenzioni sono le stesse (filtro antispam per ripulire le SERP da siti inutili), le tecnologie sono le stesse (classificatori machine learning).

    Quindi ci sta benissimo il paragone.

    Vedremo se impatterà come, più o meno di Panda.


  • User

    @giorgiotave riprendo una tua frase:
    Oggi no, non è attivo in Italia, ma lo sarà. Perché viene introdotto un concetto fondamentale nella SEO che stavo aspettando dal 2010: la qualità media dei contenuti ospitati in un sito.

    Per mia esperienza la qualità media dei contenuti di un sito è un fattore di fatto già attivo dai tempi di Panda.
    Lo desumo da queste circostanze:

    • al rilascio di Panda raddoppiarono il traffico alcuni "miei" siti (=che gestivo io in Trilud) in cui avevo già fatto prima di Panda la scelta netta di non avere pagina spazzatura. Pagine spazzatura molto comuni all'epoca come per esempo le innumerevoli pagine tag che proliferavano secondo la logica una keyword da posizionare = una pagina tag. Era la questione dei "thin content".

    • Negli anni ho fatto fare ai miei siti miei clienti (che fossero siti editoriali o ecommerce), delle pulizie radicali e periodiche dei contenuti non più utili e/o ormai sotto la soglia di una qualità accettabile, introducendo al contempo delle routine di aggiornamento continuo dei contenuti storici ancora validi. Questo ha sempre prodotto un importante miglioramento nel posizionamento complessivo del sito

    Chiaramente, soprattutto nel secondo caso, spesso ci sono stati altri interventi per cui è difficile discernere l'impatto della qualità media complessiva, ma ho sempre avuto la netta impressione che razionalizzare e riqualificare l'intero insieme dei contenuti portasse dei vantaggi importanti.
    Quello che sicuramente cambierà (ancora) radicalmente è la base su cui un contenuto viene giudicato di qualità e magari non riguarderà una sola pagina, ma anche come il contenuto è collegato e cosa collega nell'architettura del sito.


    giorgiotave 1 Risposta
  • Community Manager

    @massj grazie della tua esperienza. Non so valutare se quello che hai dedotto è un effetto diretto o indiretto della qualità media in effetti. Potresti benissimo avere ragione.

    La mia teoria era dovuta al fatto che quelli di Google con Panda dicevano devi aumentare i contenuti di qualità non ti serve a niente eliminare. Mentre ora è il contrario. Anche l'amico Mueller ha sempre detto che non è utile rimuovere contenuti...

    È una teoria ovviamente, di cui sono convinto, ma non è una cosa ufficiale ovviamente.

    Hai fatto bene a sottolineare un'esperienza diversa ❤


    walid 1 Risposta
  • User Attivo

    secondo me i contenuti non vanno mai eliminati magari un contenuto non porta traffico ma essendo indicizzato può comunque tradursi in un 404 e secondo me non è una cosa bella.


    juanin 1 Risposta
  • Admin

    @micropedia se è un contenuto inutile io andrei oltre il 404 e manderei un bel 410.


  • User Attivo

    @kal @alessandrogermano

    Credo ci metterà un po' ad arrivare in ITALIA

    perché probabilmente ha molto a che fare con il NLP (Natural Language Processing)
    e in questo ambito
    la lingua italiana è un po' indietro rispetto all'inglese
    oltre che ad essere una minore...


  • User Attivo

    In ogni caso in questo momento non ci sono stati grandi sconvolgimenti dichiarati in lingua inglese.
    Almeno per ora.

    Forse non sono neanche tanto convinti quelli di Google, visto che hanno lasciato un modulo per segnalare eventuali anomalie: https://docs.google.com/forms/d/e/1FAIpQLSfiHK67MSjwH8U_dt-DFiMaT-Gp4IGxUmgzBGQcbgR-PQBpEA/viewform
    e per addestrare meglio il modello.

    Forse anche memori di altri algoritmi che hanno avuto un numero elevato di falsi positivi e falsi negativi, abbassandone la qualità complessiva.


  • User Newbie

    Che l'eliminazione dei contenuti inutili, trascurati ed esplicitamente creati per i motori di ricerca, fosse una pratica SEO sottovalutatissima ne sono sempre stato convinto. Diciamo che non è esattamente una gran novità.
    Personalmente leggo questa mossa di G anche come un tentativo per disincentivare dalla creazione di contenuti autogenerati tramite software di AI i quali, in pochissimo tempo, hanno preso il sopravvento.


    juanin 1 Risposta
  • Admin

    @minichiello io personalmente non credo e non ho mai creduto nella capacità di Google di discernere contenuti umani da automatici.

    Lo dicevo al secondo convegno e ne sono pienamente convinto. Infatti funzionano ancora alla grande testi spinnati senza nessun bisogno di ricorrere all'AI che a mio modesto parere è l'ennesimo termine che i venditori di fumo usano per propinare la solita fuffa con un termine di tendenza.


  • Moderatore

    Allora, vorrei fare chiarezza sulla questione AI, perché mi rendo conto che sta sfuggendo enormemente di mano. E grazie @juanin per aver già iniziato con il tuo post.
    Ho commentato anche Search Engine Roundtable stamattina infuriato.

    Partiamo dal concetto di "Correlation is not causation": dobbiamo farcelo entrare in testa. Il post di Search Engine Roundtable afferma che tra i colpiti ci sono siti web con contenuti generati dall'AI.

    I testi scritti usando l'AI hanno qualità inferiore se sono inutili: esattamente come se li avesse scritti un essere umano.

    Forse il concetto è diverso.. forse stiamo dicendo che la maggior parte dei siti in cui si è usata l'AI sono spazzatura.. ma in questo l'AI non c'entra nulla.

    Gli algoritmi non prendono pezzi qua e là: generano contenuti originali, e non sono riconoscibili da quelli di un essere umano. C'è chi scrive molto peggio e non è definito un'AI 🔥 Come potrebbe un algoritmo riconoscere un testo generato in modo probabilistico da un algoritmo partendo da un prompt inimmaginabile? E magari con un training aggiuntivo non simulabile?
    Immaginiamo, inoltre, se viene fatto un rework da un copy dei testi generati da un algoritmo!

    Quindi, basta divulgare concetti per "sentito dire": I CONCETTI VANNO STUDIATI E COMPRESI. E I DATI VANNO CONTESTUALIZZATI.


    juanin annabruno 2 Risposte
  • Admin

    Quoto in toto @alepom e aggiungo rispetto al mio commento che non ho nessun problema con l'AI.
    Ho un problema con chi spaccia per AI 3 IF THEN ELSE su software che promettono miracoli quando invece hanno ancora linee di codice di quando l'AI neanche esisteva 😄

    Insomma ci siamo capiti.

    E comunque ci sono molte persone che scrivono peggio anche di text spinner quindi ...


  • Moderatrice

    Mi sembra di capire che chi realizza contenuti prestando attenzione all'utente, alla grammatica, all'ortografia e all'argomento, viene sempre premiato? Fin qui nulla di nuovo.

    Tuttavia ancora non mi è chiaro come valuta Google gli articoli datati dei magazine.

    Non ho esperienza di contenuti IA, tuttavia mi piacerebbe capire se davvero siano così simili a quelli prodotti da "umani".


  • Moderatrice

    @alepom ha detto in Helpful content update:

    Gli algoritmi non prendono pezzi qua e là: generano contenuti originali, e non sono riconoscibili da quelli di un essere umano. C'è chi scrive molto peggio e non è definito un'AI 🔥 Come potrebbe un algoritmo riconoscere un testo generato in modo probabilistico da un algoritmo partendo da un prompt inimmaginabile? E magari con un training aggiuntivo non simulabile?

    Per gli umani c'è un modo per riconoscere contenuto prodotto da una "persona": lo stile. Prendiamo il caso di una "penna" di un giornale: il giornalista ha un suo stile, quasi sempre riconoscibile e originale.


    juanin 1 Risposta
  • Admin

    @annabruno diciamo che potenzialmente anche un'AI può avere un suo stile se applichi un training che la conduce ad avere un certo stile.


  • User

    Quindi? Alla fine quali sarebbero questi famosi contenuti spazzatura? Come li riconoscete voi e come li riconosce Google?
    Poi? Una volta individuati? Che faccio, cancello l'articolo? Redirect? Che ne pensate?
    @giorgiotave se ripassi per Monte Mario fammi un fischio ci prendiamo un caffè!


    juanin 1 Risposta
  • Admin

    @giulio06 i contenuti spazzatura devi sapere tu quali sono. Non te lo può dire nessuno.


    Z-WING 1 Risposta
  • User

    @juanin beh si certo, volevo sapere poi una volta individuati che fate


    juanin 1 Risposta
  • Admin

    @giulio06 se è spazzatura la cosa facile è piazzare un 410 e rimuovere ogni riferimento a quella pagina dall'architettura informativa.

    Se invece ha tonnellate di link buoni (cosa però improbabile visto che dovrebbe essere spazzatura) allora puoi fare un 301 verso il contenuto buono più affine possibile alla tematica.


  • User

    @juanin ha detto in Helpful content update:

    pazzatura la cosa facile è piazzare un 410 e rimuovere ogni riferimento a quella pagina dall'architettura informativa.
    Se invece ha tonnellate di link buoni (cosa però improbabile visto che dovrebbe essere spazzatura) allora puoi fare un 301 verso il contenuto buono più affine possibile alla tematica.

    molto bene grazie!


  • Distinguerei tra completo spam/spazzatura (vedi gli ads di Taboola) e contenuti indietro nella serp. I secondi li riscriverei/amplierei, per i primi mi farei un esame di coscienza e butterei tutto.