• User Attivo

    @LowLevel said:

    agoago, guarda che le dangling page costituiscono davvero un problema imponente.

    Sin dagli albori sono state trattate da Google come pagine anomale in quanto, di fatto, impediscono al modello del PageRank (ma puoi estendere a quellochetipareRank) di effettuare correttamente i calcoli.

    Qualunque cosa venga distribuita attraverso i link e giunga ad una pagina va reimmessa nel sistema.

    Nel fare ciò è possibile convogliare l'elemento distribuito più su alcune pagine che su altre, ma la reimmissione nel sistema è imperativa, altrimenti le pagine perdono valore agli occhi del motore e, a catena, perdono valore le pagine che offrono link solo verso le dangling page.

    Non sottovaluterei questo aspetto, sopratutto perché tale fenomeno esiste da anni ed è uno di quei casi in cui teoria (la gestione delle dangling page viene spiegata anche nella paper originale del PageRank) e pratica si trovano d'accordo.

    Ti chiedo scusa in anticipo se ho compreso male la tua spiegazione. Da quello che ho capito quelle pagine non ospitano link di alcun genere (a nessuna pagina, interna o esterna al sito). Se così non fosse, chiedo venia per l'equivoco. 🙂

    Nessun equivoco LowLevel, mi sono spiegato bene, nessun link verso l'esterno.

    Questo aspetto della mancanza di link esterni e' da un po' che mi "ossessiona". Pensavo di essere tra pochi ad accuparsene, mi fa piacere ritrovarmi in buona compagnia.

    Non conosco un termine comune per definire le pagine che non hanno link verso l'esterno, non so come vengono chiamate ufficialmente... io le chiamo in ufficio pagine sterili, l'importante e' capirsi.

    Ora non so, ma in passato si diceva che G calcolasse un link verso una pagina sterile al 15% del suo ipotetico valore.

    Non mi piace il termine dangling associato al termine pagina, faccio fatica ad associarlo ad alcune frasi, immaginati alle pagine.


    Comunque sono dibattuto, dentro.
    Mi sembra che questa storia dei link verso le pagine sterili sia tutta una sporca, bastarda montatura.

    Sento che soprattutto in questo caso rischiamo di adattare i nostri siti, i nostri link verso pagine sterili, basandoci su una regola di giudizio assurda.

    Mi piace da sempre paragomare il web alla vita di tutti i giorni.
    E' come se volessimo discriminare-penalizzare-ignorare chi ha un amico senza figli.


    La mancana di link esterni e' stata la prima cosa a cui ho pensato che potesse penalizzarmi.

    Poi, in un raro momento di lucidita' ho pensato: che si fotta google con le sue valutazioni dei link verso le pagine sterili.

    Un conto e' capire cosa mi penalizza, un conto e' adattarmi.

    LowLevel che teoria e pratica vadano di pari passo nel caso di link verso lo sterile lo accetto come dato di fatto. Sappiamo che e' cosi'.

    Da qui ad edeguami ce ne vuole...


    I seo non devono adeguare il proprio lavoro in base agli algoritmi dei motori (sarebbero condizionati).

    I motori non devono adeguare i loro algortmi in base a valori fotografati, man mano nel tempo, del web (sarebbero condizionati).


    Senza offesa per nessuno, ma i siti che spiegano come i motori ragionano-valutano-calcolano (a secondo dei loro algoritmi mestruali) il web fanno piu' danno che altro.

    Anche chi lo facesse unicamente a fine didattico finira' col condizionare i wm che da quel momento, influenzati, forzeranno-modificheranno i siti loro (o dei loro clienti) appiattendosi-adeguandosi ai valori degli algoritmi momentanei dei motori.


    Vedro' come risolvere il problema del contenuto sempre nuovo, poi mettero' qualche link esterno in alcuni contenuti al fine di abbassare la media delle pagine con elemento disturbante, ma mi rifiuto in modo categorico di farlo su tutti i nuovi contenuti.

    Prima G ha teorizzato ed usato questa storia dei link verso pagine sterili, poi dopo anni, non contento ha teorizzato siti hub e compagnia bella, ok puo' aver perfettamente ragione in queste sue scelte, ma perche' pubblicizzarle??


    Per me G e' ancora il miglior motore, ma non mi piace questo suo fare carbonaro che con la complicita' di matt e simili vi dice come deve essere per lui il web e vi induce ad adattarvi se volete beneficiare al meglio dei suoi accessi.

    Non mi piace questa sua tecnica di far "trasparire" ogni suo nuovo algoritmo che poi misteriosamente ed immediatamente diventa pubblico e discusso in tutti i forum dei seo.

    Ammiro invece yahoo e msn che nulla lasciano trasparire, sono un mistero per tutti i seo e zitti zitti migliorano senza mai influenzare direttamente e non il lavoro dei wm.

    Non pretendiamo nulla dai seo esteri ma certamente dai seo italiani, che in quanto italiani hanno lo stile nel loro stesso dna.

    Stile che per google e' solo una delle tante word nel suo vocabolario.


  • Super User

    Dico la verità anche a me era venuto in mente il discorso del contenuto che muta di volta in volta, ecco il perchè delle domande.

    Ma, ammettendo che sia questo il motivo, mi sembra che l'algoritmo non sia efficiente giacchè quel contenuto unico potrebbe essere di utilità per l'utente per quanto vari considerevolmente nel tempo.

    Poniamo vi sia un sito (che utilizzi o meno la tua modalità di creazione pagine) che ogni sei ora promuova un viaggio in una data città e che nell'offerta sia presente una descrizione della medesima. Ebbene ogni sei ore avviene il cambio, le informazioni sono utili per l'utente e google che fa mi declassa il sito?
    Se l'esempio è corretto ed è corretto dire che quello il motivo allora, ribadisco, non c'è efficienza.


  • User Attivo

    @Catone said:

    Dico la verità anche a me era venuto in mente il discorso del contenuto che muta di volta in volta, ecco il perchè delle domande.

    Ma, ammettendo che sia questo il motivo, mi sembra che l'algoritmo non sia efficiente giacchè quel contenuto unico potrebbe essere di utilità per l'utente per quanto vari considerevolmente nel tempo.

    Poniamo vi sia un sito (che utilizzi o meno la tua modalità di creazione pagine) che ogni sei ora promuova un viaggio in una data città e che nell'offerta sia presente una descrizione della medesima. Ebbene ogni sei ore avviene il cambio, le informazioni sono utili per l'utente e google che fa mi declassa il sito?
    Se l'esempio è corretto ed è corretto dire che quello il motivo allora, ribadisco, non c'è efficienza.

    imho google incrocia i fattori e se entrano in un pattern sei fritto.
    stare alla larga dai pattern equivale a uno skipper che sta alla larga dagli scogli o le secche.

    qui abbiamo sostanzialmente due problemi:
    1)pagine che non sono MAI uguali (non che cambiano spesso, la stessa pagina non è MAI uguale a se stessa, non c'è una fottuta volta che il bot veda la stessa cosa) ... è un pattern di spam? io dico che ci va vicino... è il core di uno spam engine.
    2) sono anche dangling pages, e a gogo.. lo zio vede un sito con oltre il 90% di dangling pages... direi che un sopracciglio lo alza.

    Basta e avanza per considerare il sito dubbio e magari non aprire i rubinetti del rank.

    Se per efficienza intendiamo un legame sensato tra il "reato" e la "pena", beh in questo caso a me pare efficiente.

    C'è una ragione logica per la quale un qualsiasi servizio, anche istantaneo e volatile non dovrebbe linkare la home?

    Per lo zio ha un qualche peso anche la qualità dell'html, e se non metti un link alla home non fai neanche la seconda lezione del corso base di web design 🙂


  • User Attivo

    Stupendo post...!

    Alla luce di ciò, il sig. agoago sicuramente farà un bel test e ci farà sapere se le teorie sviluppate avranno avuto un riscontro reale.

    Vero? 😄


  • Super User

    @Pieropan non funziona il quote, come al solito :).

    Ok ho capito. Eppure mi sembra ci sia sfuggito ancora qualcosa...


  • Super User

    @Catone said:

    Poniamo vi sia un sito (che utilizzi o meno la tua modalità di creazione pagine) che ogni sei ora promuova un viaggio in una data città e che nell'offerta sia presente una descrizione della medesima. Ebbene ogni sei ore avviene il cambio, le informazioni sono utili per l'utente e google che fa mi declassa il sito?
    Se l'esempio è corretto ed è corretto dire che quello il motivo allora, ribadisco, non c'è efficienza.

    Ti rispondo in due modi:

    Must Mode - che me ne faccio di un sito in serp tale che quando l'utente lo visità non troverà ciò che ha cercato. Visto tra passaggio dello spider e comparsa dei dati in serp molto probabilmente sono già passate 6 ore e i contenuti non ci sono più?

    Claudio Mode - ok il sito cambia spesso contenuti. Ma ci deve essere comunque una certa probabilità di beccare la stessa pagina...
    Come detto da Pieropan qui cambia sempre tutto e in tutte quelle pagine.
    Poi credo capiti spesso nei log dei tuoi siti di vedere che lo spider sia passato in 5 minuti 2 volte sulla stessa pagina,o no?
    In questo caso potrebbe passare anche ogni 2 secondi, troverebbe sempre roba nuova.

    Per la questione delle pagine senza link, sicuramente possono non piacere a google per le ragioni dette.
    Ma non credo siano un sintomo di qualcosa di strano (leggi spam engine), perchè?
    Ma semplicemente perchè mettere un link alla home nelle pagine generate non è che richieda tanti sforzi...


  • User Attivo

    @claudioweb said:

    Per la questione delle pagine senza link, sicuramente possono non piacere a google per le ragioni dette.
    Ma non credo siano un sintomo di qualcosa di strano (leggi spam engine), perchè?
    Ma semplicemente perchè mettere un link alla home nelle pagine generate non è che richieda tanti sforzi...

    Mi spiego meglio.
    Per capire la qualità di un sito lo zio calcola il valore medio sull'insieme di fattori. Molte pagine di pessima qualità=sito di bassa qualità. Ciascuna di queste pagine ora viene intercettata come di bassa qualità per l'assenza assoluta di link (quoto low, che ne sul dangling ne sa a pacchi). E' una questione che ha a che vedere con quello che google considera una buona pagina. Ma non ti penalizza di certo solo per questo, rimani nel db, ci sono un sacco di listati di pdf e doc in SERP che fanno la loro porca figura. Ma fai danno al sistema e hai per qualche aspetto un trattamento speciale. Cartellino giallo.

    Il testo sempre diverso è un'altra questione. Mozilla-googlebot è un pirana, passa mooolto piu' spesso del vecchio googlebot, passa a sciami. E non vede mai un contenuto uguale.... mmmmmmhhh... sarà mica uno spam engine? Non pare, non sembra, manca il movente, boh.....lo zio non decide. Entra in stallo. Non puo' fare confronti, non puo' applicare tutta la sua sapienza algoritmica per assenza di alcune basi. Altro cartellino giallo.

    Che farebbe di solito il bot?
    Sei credibile e i tuoi testi cambiano spesso? Infittisce le visite.
    Fai schifo al web e i tuoi testi cambiano sempre? Ti saluta, passerà quando non ha altro da fare, fottuto spammer.
    Un indicatore utile per capire a volte è l'analisi dei bot nel tempo.

    Agoago, potrebbe essere utile un'occhiata ai log e al numero di visite da bot, sia sulle pagine finali che su quelle che le linkano.

    Un'altro test che farei è proprio quello che dice claudioweb, mettere di colpo un link in tutte le 100k pagine alla home, giusto per misurare le implicazioni del dangling.

    Ciao, notte


  • User Attivo

    Faccio subito la cosa piu' semplice, metto un numero di link random (da 0 a 5 per dire) che puntano a pagine interne e a siti istituzionali, per esempio verso lo stesso G.

    In questa maniera iniziamo a delimitare il problema!


  • Super User

    Ma forse non è meglio mettere i link non a tutte le pagine per valutare meglio le diverse performance? Chiedo è... 😄


  • User Attivo

    Prova inoltre a modificare il contenuto non ad ogni passaggio dello spider ma con cadenza giornaliera o settimanale.

    Magari utilizza questo nuovo criterio per 10 pagine, per altre dieci metti solo i link e per altre 10 entrambi.

    Sarà un ottimo test... se ci farai sapere qualcosa 😉