- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Helpful content update
-
A fine Luglio, c'è stato anche l'update delle linee guida per i Qulity Raters, tra le cose cambiate rispetto alla versione precedente ci sono dettagli su cosa si intende per qualità dei contenuti e in particolare su tutto quello che E-A-T e YMYL
Già dalle linee guida di Ottobre e quelle precedenti, sembra che questi concetti per quality raters siano entrati (o almeno stanno tentando) nel comportamento del machine learning. Da qui il nuovo Update?
1 Risposta -
@alessandrogi impossibile. Per immagazzinare e tradurre matematicamente gli input negli algoritmi ci si mette molti anni. Le nuove considerazioni lo saranno nel futuro, se sono coerenti e riescono a farlo.
Quello di oggi è il frutto degli anni passati.
Partendo dalle considerazioni di questa discussione ho fatto un approfondimento
Helpful Content Update: terremoto SEO in arrivo?
https://giorgiotaverniti.substack.com/p/helpful-content-update-terremotoSecondo me possiamo partire da questo
M 2 Risposte -
@giorgiotave ha detto in Helpful content update:
Quello di oggi è il frutto degli anni passati.
Concordo... da come l'hanno annunciato credo anche io che sia una cosa che bolle in pentola da un po'.
Prova ne è che ancora di fatto non è partito nemmeno nel mondo anglofono. O se l'ha fatto... l'ha fatto in sordina.
Ma del resto se ci siamo accorti noi di quanto funzionano i siti costruiti solo con del testo creato dall'IA... sicuramente se ne erano accorti in Google molto prima dato che loro l'IA la FANNO.
La soluzione come sempre sarà modellizzare matematicamente la soddisfazione dell'utente nei confronti di una risorsa di ricerca (e questo non necessariamente usando dati utente, se non come misura di validazione... il modello deve essere universale per essere scalabile).
1 Risposta -
@giorgiotave non intendevo in real time Ma partendo da quando hanno inziato a parlare di EAT e YMYL.
1 Risposta -
@kal esatto, sono stati costretti a farlo, forse hanno velocizzato un processo già in atto dal mio punto di vista. Voglio vedere chi colpirà, per ora si dice che sia tutto tranquillo...ma non lo so. Vedo analisi su siti molto grandi, dubito che colpisca quelli. Vedremo
-
@alessandrogi questi concetti sono già negli algoritmi da molto tempo, sicuro cercano sempre di migliorarli update dopo update. Non solo: dal mio punto di vista un'evoluzione di cosa già avevano prima.
1 Risposta -
@giorgiotave ha detto in Helpful content update:
Non solo: dal mio punto di vista un'evoluzione di cosa già avevano prima.
Non a caso moltissimi stanno paragonando questo update (che per ora parrebbe solo annunciato) a quello che fu Panda all'epoca.
Le intenzioni sono le stesse (filtro antispam per ripulire le SERP da siti inutili), le tecnologie sono le stesse (classificatori machine learning).
Quindi ci sta benissimo il paragone.
Vedremo se impatterà come, più o meno di Panda.
-
@giorgiotave riprendo una tua frase:
Oggi no, non è attivo in Italia, ma lo sarà. Perché viene introdotto un concetto fondamentale nella SEO che stavo aspettando dal 2010: la qualità media dei contenuti ospitati in un sito.Per mia esperienza la qualità media dei contenuti di un sito è un fattore di fatto già attivo dai tempi di Panda.
Lo desumo da queste circostanze:-
al rilascio di Panda raddoppiarono il traffico alcuni "miei" siti (=che gestivo io in Trilud) in cui avevo già fatto prima di Panda la scelta netta di non avere pagina spazzatura. Pagine spazzatura molto comuni all'epoca come per esempo le innumerevoli pagine tag che proliferavano secondo la logica una keyword da posizionare = una pagina tag. Era la questione dei "thin content".
-
Negli anni ho fatto fare ai miei siti miei clienti (che fossero siti editoriali o ecommerce), delle pulizie radicali e periodiche dei contenuti non più utili e/o ormai sotto la soglia di una qualità accettabile, introducendo al contempo delle routine di aggiornamento continuo dei contenuti storici ancora validi. Questo ha sempre prodotto un importante miglioramento nel posizionamento complessivo del sito
Chiaramente, soprattutto nel secondo caso, spesso ci sono stati altri interventi per cui è difficile discernere l'impatto della qualità media complessiva, ma ho sempre avuto la netta impressione che razionalizzare e riqualificare l'intero insieme dei contenuti portasse dei vantaggi importanti.
Quello che sicuramente cambierà (ancora) radicalmente è la base su cui un contenuto viene giudicato di qualità e magari non riguarderà una sola pagina, ma anche come il contenuto è collegato e cosa collega nell'architettura del sito.
1 Risposta -
-
@massj grazie della tua esperienza. Non so valutare se quello che hai dedotto è un effetto diretto o indiretto della qualità media in effetti. Potresti benissimo avere ragione.
La mia teoria era dovuta al fatto che quelli di Google con Panda dicevano devi aumentare i contenuti di qualità non ti serve a niente eliminare. Mentre ora è il contrario. Anche l'amico Mueller ha sempre detto che non è utile rimuovere contenuti...
È una teoria ovviamente, di cui sono convinto, ma non è una cosa ufficiale ovviamente.
Hai fatto bene a sottolineare un'esperienza diversa
1 Risposta -
secondo me i contenuti non vanno mai eliminati magari un contenuto non porta traffico ma essendo indicizzato può comunque tradursi in un 404 e secondo me non è una cosa bella.
1 Risposta -
@micropedia se è un contenuto inutile io andrei oltre il 404 e manderei un bel 410.
-
Credo ci metterà un po' ad arrivare in ITALIA
perché probabilmente ha molto a che fare con il NLP (Natural Language Processing)
e in questo ambito
la lingua italiana è un po' indietro rispetto all'inglese
oltre che ad essere una minore...
-
In ogni caso in questo momento non ci sono stati grandi sconvolgimenti dichiarati in lingua inglese.
Almeno per ora.Forse non sono neanche tanto convinti quelli di Google, visto che hanno lasciato un modulo per segnalare eventuali anomalie: https://docs.google.com/forms/d/e/1FAIpQLSfiHK67MSjwH8U_dt-DFiMaT-Gp4IGxUmgzBGQcbgR-PQBpEA/viewform
e per addestrare meglio il modello.Forse anche memori di altri algoritmi che hanno avuto un numero elevato di falsi positivi e falsi negativi, abbassandone la qualità complessiva.
-
Che l'eliminazione dei contenuti inutili, trascurati ed esplicitamente creati per i motori di ricerca, fosse una pratica SEO sottovalutatissima ne sono sempre stato convinto. Diciamo che non è esattamente una gran novità.
Personalmente leggo questa mossa di G anche come un tentativo per disincentivare dalla creazione di contenuti autogenerati tramite software di AI i quali, in pochissimo tempo, hanno preso il sopravvento.
1 Risposta -
@minichiello io personalmente non credo e non ho mai creduto nella capacità di Google di discernere contenuti umani da automatici.
Lo dicevo al secondo convegno e ne sono pienamente convinto. Infatti funzionano ancora alla grande testi spinnati senza nessun bisogno di ricorrere all'AI che a mio modesto parere è l'ennesimo termine che i venditori di fumo usano per propinare la solita fuffa con un termine di tendenza.
-
Allora, vorrei fare chiarezza sulla questione AI, perché mi rendo conto che sta sfuggendo enormemente di mano. E grazie @juanin per aver già iniziato con il tuo post.
Ho commentato anche Search Engine Roundtable stamattina infuriato.Partiamo dal concetto di "Correlation is not causation": dobbiamo farcelo entrare in testa. Il post di Search Engine Roundtable afferma che tra i colpiti ci sono siti web con contenuti generati dall'AI.
I testi scritti usando l'AI hanno qualità inferiore se sono inutili: esattamente come se li avesse scritti un essere umano.
Forse il concetto è diverso.. forse stiamo dicendo che la maggior parte dei siti in cui si è usata l'AI sono spazzatura.. ma in questo l'AI non c'entra nulla.
Gli algoritmi non prendono pezzi qua e là: generano contenuti originali, e non sono riconoscibili da quelli di un essere umano. C'è chi scrive molto peggio e non è definito un'AI Come potrebbe un algoritmo riconoscere un testo generato in modo probabilistico da un algoritmo partendo da un prompt inimmaginabile? E magari con un training aggiuntivo non simulabile?
Immaginiamo, inoltre, se viene fatto un rework da un copy dei testi generati da un algoritmo!Quindi, basta divulgare concetti per "sentito dire": I CONCETTI VANNO STUDIATI E COMPRESI. E I DATI VANNO CONTESTUALIZZATI.
2 Risposte -
Quoto in toto @alepom e aggiungo rispetto al mio commento che non ho nessun problema con l'AI.
Ho un problema con chi spaccia per AI 3 IF THEN ELSE su software che promettono miracoli quando invece hanno ancora linee di codice di quando l'AI neanche esistevaInsomma ci siamo capiti.
E comunque ci sono molte persone che scrivono peggio anche di text spinner quindi ...
-
Mi sembra di capire che chi realizza contenuti prestando attenzione all'utente, alla grammatica, all'ortografia e all'argomento, viene sempre premiato? Fin qui nulla di nuovo.
Tuttavia ancora non mi è chiaro come valuta Google gli articoli datati dei magazine.
Non ho esperienza di contenuti IA, tuttavia mi piacerebbe capire se davvero siano così simili a quelli prodotti da "umani".
-
@alepom ha detto in Helpful content update:
Gli algoritmi non prendono pezzi qua e là: generano contenuti originali, e non sono riconoscibili da quelli di un essere umano. C'è chi scrive molto peggio e non è definito un'AI Come potrebbe un algoritmo riconoscere un testo generato in modo probabilistico da un algoritmo partendo da un prompt inimmaginabile? E magari con un training aggiuntivo non simulabile?
Per gli umani c'è un modo per riconoscere contenuto prodotto da una "persona": lo stile. Prendiamo il caso di una "penna" di un giornale: il giornalista ha un suo stile, quasi sempre riconoscibile e originale.
1 Risposta -
@annabruno diciamo che potenzialmente anche un'AI può avere un suo stile se applichi un training che la conduce ad avere un certo stile.