• User Attivo

    Ovviamente nessun beneficio per me, perche' un utente che le raggiungesse via serp si troverebbe davanti ad una pagina senza via di uscita, senza link ne redirect... torna indietro ed amen.

    Ma queste pagine finte sono linkate ?

    Che fare?

    Aggiungi dei link e vedi che succede. Integrale come se fossero pagine naturali. Si è mai visto una pagina di un sito web senza link ?

    Io motore di ricerca, che vantaggio ho a mandare un utente su una pagina se poi non ci può fare niente ? Penso che sia fuffa, perchè se su 8 miliardi di pagine che ho indicizzato ce ne sono 100.000 (le tue) senza link mi viene il dubbio che qualcosa non funzioni.

    Tua è la teoria della distribuzione degli accessi:
    se queste pagine prima avevano valore X, poi le hai rigenerate magari non linkandole, per logica han perso valore quindi sono poco competitive in serp (magari le trovi ma dopo la 4000 posizione).

    Cioè quando un dominio nn viene rinnovato, acquistato da altri che ne "cambiano il tema" per Google, dovrebbe sempre essere penalizzato?

    Se compri un dominio e cambi il contenuto vieni bannato al volo.


  • Super User

    Cambiare i contenuti delle pagine ad ogni accesso degli spider è qualcosa che puoi fare senza problemi su siti nuovi e dei quali Google non possiede un grande storico.

    Se, al contrario, un sito ha acquisito una buona autorevolezza/importanza agli occhi di Google anche in funzione della "stabilità" dei suoi contenuti, togliendo quella stabilità tu costringi Google a rivalutare il sito e le sue pagine.

    Ma visto che la ri-generazione è continua e al volo, togli a Google la possibilità di formarsi un'idea stabile della singola pagina e, conseguentemente, dell'intero sito.

    Google compara sempre i contenuti testuali delle pagine. Ci sono modi per fare ciò senza consumare molte risorse.

    A questo si aggiunge il potenziale problema segnalato da uMoR: che fine fanno i link su quelle pagine?


  • Super User

    @uMoR said:

    Se compri un dominio e cambi il contenuto vieni bannato al volo.

    purtroppo, "al volo" mi sembra un'espressione un po' troppo forte... 😉


  • User Attivo

    Provato personalmente, al volo significa passa lo spider e mi banna.

    C'è un sacco di gente che compra vecchi domini e ci mette su pagine porno, il tempo di mettere la pagina e sono già bannati.


  • Super User

    E' perfettamente comprensibile un banning conseguente a un cambio repentino e radicale della tipologia di contenuti di un sito. Ad esempio rilevare un dominio anziano, con buoni back link ecc. per riempirlo di PPC (Porn, Pills & Casinos) è probabile sia una pratica non molto ben vista da Google. 🙂


  • User Attivo

    @Everfluxx said:

    E' perfettamente comprensibile un banning conseguente a un cambio repentino e radicale della tipologia di contenuti di un sito. Ad esempio rilevare un dominio anziano, con buoni back link ecc. per riempirlo di PPC (Porn, Pills & Casinos) è probabile sia una pratica non molto ben vista da Google. 🙂

    giustamente 🙂

    leggiamo anche dai [url=http://giorgiotave.it/forum/viewtopic.php?t=628&postdays=0&postorder=asc&start=75&sid=306ddf5b3aeca17f16c8cd73c0e677f0]dati storici

    [0128] Un significativo cambiamento nel tempo in un set di temi associati con il documento può indicare che il documento ha cambiato proprietario e gli indicatori del documento precedente, come il punteggio, gli anchor text, etc, non sono più attendibili. Similarmente, un picco nel numero dei temi potrebbe indicare spam. Per esempio, se un particolare documento è associato con un set di uno o più temi sui quali può essere considerato un periodo ?stabile? di tempo e poi avviene un picco (improvviso) nel numero di temi associati con il documento, questo può essere un indicatore che il documento sia un documento ?doorway?. Un'altra indicazione può includere la scomparsa dei temi originali associati con il documento. Se una o più di queste situazioni sono riscontrate, allora GG può ridurre relativamente il punteggio dei documenti e/o dei links, degli anchor text, o altri dati associati al documento.

    La mia domanda si riferiva ad una situazione legittima, tipo:

    una nuova società trova il suo nome a dominio registrato con su sito con temi diversi dai suoi, già stabile; rileva il dominio, lo paga per 10 anni e cambia il tema; Google dovrebbe procedere a tutte le analisi, penalizzare automaticamente i vecchi Bl e i vecchi contenuti, ma ricominciare ad acquisire e rivalutare i nuovi dati... è nel suo interesse o sbaglio?

    Così come se rileva picchi improvvisi nel numero dei temi, e la scomparsa degli originali, si allarma e procede alle penalizzazione.

    è per questo che cercavo di dare importanza all'elevato numero di pagine e il cambiamento del tema: perchè sono picchi che allarmano Google.

    poi, come già detto, non ho esperienza diretta: per il porno ci saranno sicuramente filtri particolari che portano al ban, ma è così in generale?

    per la valutazione dell'aggiornamento dei contenuti quoto Low: sempre dai dati storici c'era una funzione per valutare gli aggiornamenti che lega entità e frequenza...ma come dice Low, Google non ha il tempo di valutarli.


  • User Attivo

    Premesso nuovamente che non ho la minima idea in merito a questa cosa delle 100k pagine e 0 accessi, rivediamo il tutto:

    Raele-l'Angelo (e grazie per il complimento):

    "Quindi, magari, un "corretto" riconoscimento del "cambio" di un dominio avviene solo se risultano verificati determinati fattori."

    Nel mio caso il dominio e' sempre lo stesso!

    "1. Non potrebbe essere, visto l'elevato numero di pagine cmq "simili" che vengono generate dal cambiamento, cioè tutte senza link, senza pubblicità, etc, che incappi cmq in una sorta di filtro antiduplicazione per l'ordinamento dei risultati?"

    Le pagine non sono simili, ma come ricordi sono senza link ecc ecc, solo testo ed immagini random. Pero' moltissime pagine soprattutto di genere scentifico non hanno link verso l'esterno, sono classici documenti informativi.

    "2. Lo stravolgimento del tema: come dicevo sopra per i cambi di dominio, potrebbe essere che, sempre per l'elevato numero di pagine stravolte, Gooogle si sia allarmato di un probabile cambio di domino, ma poi andando a verificare altri dati, si rende conto che così non è, e fa scattare altri controlli, come al punto 1.?"

    Come detto prima il dominio e' sempre lo stesso, cambio il contenuto delle pagine ma non il dominio.. se cambiassi dominio potrei pensare che dipenda da quello... invece purtroppo non e' cosi'! Inoltre le pagine nuove sono a tema con le vacchie, e' stato la prima cosa che ho affrontato nel creare le nuove pagine.

    uMoR:

    "Ma queste pagine finte sono linkate ? "

    Lincate? Stralincate, alcune da oltre 7 anni, anche con pr5, fai tu....

    "Io motore di ricerca, che vantaggio ho a mandare un utente su una pagina se poi non ci può fare niente ? Penso che sia fuffa, perchè se su 8 miliardi di pagine che ho indicizzato ce ne sono 100.000 (le tue) senza link mi viene il dubbio che qualcosa non funzioni."

    Si sono lincate ma non hanno link in uscita. Interessante questa tua analisi, nel senso che se G interpretando il contenuto della pagina lo ritenesse non utile, non vedendo per di piu' link in uscita potrebbe effettivamente pensare che non vale la pena di mandarci qualcuno.

    Tuttavia uMoR, sappiamo entrambi che i motori sono ancora troppo intenti ad occuparsi di cose piu' pratiche, piuttosto che valutare il potenziale valore informativo di una pagina al punto di decidere se penalizzarla o meno in mancanza di link esterni. Mi piace come idea, ma ho visto troppe schifezze nei motori in questi anni per non essere consapevole che ad oggi non si degnano in questo tipo di analisi. Ma visto che il motore vince ed io perdo, nulla di piu' facile che mi sbagli nel giudizio.

    "Tua è la teoria della distribuzione degli accessi:
    se queste pagine prima avevano valore X, poi le hai rigenerate magari non linkandole, per logica han perso valore quindi sono poco competitive in serp (magari le trovi ma dopo la 4000 posizione)."

    E' proprio in base alla teoria della distribuzione ed assegnazione degli accessi in rapporto al valore complessivo del sito che ho avuto l'ennesima conferma. Le pagine sono lincate, ma probabilmente per G sono di basso, bassissimo valore, pertanto tutto il sito ne risente, perde pesantemente di valore e di conseguenza i minori accessi assegnati sono distribuiti solo sulle pagine originali, e su questo siamo d'accordo. Il problema e': perche' le nuove che vanno alla grande altrove non funzionano se usate al posto delle pagine vecchie di un sito storico??

    LowLevel:

    "Se, al contrario, un sito ha acquisito una buona autorevolezza/importanza agli occhi di Google anche in funzione della "stabilità" dei suoi contenuti, togliendo quella stabilità tu costringi Google a rivalutare il sito e le sue pagine.
    Ma visto che la ri-generazione è continua e al volo, togli a Google la possibilità di formarsi un'idea stabile della singola pagina e, conseguentemente, dell'intero sito.
    Google compara sempre i contenuti testuali delle pagine. Ci sono modi per fare ciò senza consumare molte risorse. "

    Ecco, quando parlo di "algoritmo micidiale" mi riferisco proprio a qualcosa del genere, nel senso che c'e' sicuramente un filtro di cui non sono a conoscenza che di fatto mi supera.

    La prima cosa a cui ho pensato (per formazione mentale) e' stata cosa potesse apparire illogico-forzato ad un motore.

    Nell'ordine ho messo:

    1. Pagine sempre con contenuto nuovo (nessuna logica)

    2. Mancanza di link verso l'esterno (possile ma poco probabile su 100k pagine, capisco su una pagina ogni tanto, ma 100k pagine senza link esterni? puzza a me... chissa' ai motori).

    Pero' forse a torto, mi sono detto: non e' possibile che G sia cosi' raffinato. Non e' possibile perche' G presenta dei limiti in alcuni (pochissimi a dir la verita') suoi algoritmi che faccio fatica a pensare che applichi 1 o 2 algoritmi studiati ad hoc per i 2 punti sopra citati.

    Secondo voi, sono arrivati a tanto?

    P.S. Sul discorso delle pagine senza link esterni, proprio mentre ci ragionavo sopra, era intervenuto con un suo post Stuart. La coincidenza mi aveva stupito e fatto piacere allo stesso tempo.


  • Super User

    @agoago said:

    La prima cosa a cui ho pensato (per formazione mentale) e' stata cosa potesse apparire illogico-forzato ad un motore.

    Nell'ordine ho messo:

    1. Pagine sempre con contenuto nuovo (nessuna logica)

    secondo me non é tanto illogico.
    se il contenuto cambia ogni volta che lo spider passa, come fa il motore ad assegnare un ranking su un contenuto definito? se ogni volta che passa, lo spider trova un contenuto diverso, é facile dedurre che quando un utente arriverá a quella pagina da una query sul mdr, troverá un risultato diverso da quello previsto. e questa é una violazione delle linee guida dei motori, in fondo 🙂


  • Super User

    @must said:

    se ogni volta che passa, lo spider trova un contenuto diverso, é facile dedurre che quando un utente arriverá a quella pagina da una query sul mdr, troverá un risultato diverso da quello previsto. e questa é una violazione delle linee guida dei motori, in fondo 🙂
    Il tuo ragionamento fila, però ti faccio una domanda: una pagina come [url=http://froogle.google.com/]questa a tuo giudizio viola le linee guida? (Mi riferisco ovviamente alle query d'esempio che cambiano a ogni reload della pagina).


  • Super User

    a mio giudizio, di umano, no. perché il vero sito, lí, é il campo di ricerca.

    certo non saprei come un algoritmo potrebbe definirlo senza ausilio umano, ma per fortuna io vendo salumi, non faccio motori di ricerca 😄


  • Super User

    Io non ho capito varie cose, perdonate la mia ottusità:

    1. quando viene generata la door poi che fine fa?
    2. quando ripassa lo spider viene creata una nuova door ex novo e riprodotta la precedente?
    3. mi pare di avere capito che se cerchi su google queste pagine saltano fuori nelle serp o mi sbaglio? E se questo è vero perchè le riesci a vedere solo tu? Con 100K pagine ci dovrà essere per forza qualcuno che ci arriva. Se invece ho capito male ignora quest'ultima domanda.
    4. le door non hanno nessunissimo link, nemmeno di ritorno alla pagina precedente?
    5. che tecnologia hai utilizzato per generarle (non mi interessano i dettagli, anche perché probabilmente non li capirei 🙂 )?

  • User Attivo

    @agoago said:

    Secondo voi, sono arrivati a tanto?

    Ciao agoago,
    non saprei, ma a naso e solo leggendo quello che racconti, c'è qualcosa nel tuo sito che disturba il motore. La cosa piu' probabile è il grande numero di pagine "anomale" (senza link in uscita e senza anzianità, cosa + grave imho).
    Individuare la qualità media di un sito è piuttosto semplice per l'algoritmo, non deve far altro che dividere un fattore, mettiamo la presenza di kw facenti parte di un cluster semantico, per il numero di pagine invece che per il numero di parole nella pagina. Idem per il numero di link, per la presenza intitle ecc ecc. Il MdR ha una idea della tua qualità media, on-site.

    Qualsiasi sito in salute a cui tu aggiunga 100k pagine che hanno un elemento disturbante, si trasformerà per il MdR in un sito disturbato, poiche', nella media, di fatto lo diventerà.

    Insomma, la soluzione non ce l'ho, ma guarderei in direzione della qualità media stroiata da un enorme numero di dangling pages. Una pagina che non mette link trattiene il PR e viene trattata con sospetto dallo zio... si sapeva di trattamenti differenziati per rimettere in circolo il PR trattenuto indebitamente.... magari sei incappato in questi trattamenti.

    A presto.


  • Super User

    @must said:

    secondo me non é tanto illogico.
    se il contenuto cambia ogni volta che lo spider passa, come fa il motore ad assegnare un ranking su un contenuto definito? se ogni volta che passa, lo spider trova un contenuto diverso, é facile dedurre che quando un utente arriverá a quella pagina da una query sul mdr, troverá un risultato diverso da quello previsto. e questa é una violazione delle linee guida dei motori, in fondo 🙂 :quote:
    @Everfluxx said:

    Il tuo ragionamento fila, però ti faccio una domanda: una pagina come [url=http://froogle.google.com/]questa a tuo giudizio viola le linee guida? (Mi riferisco ovviamente alle query d'esempio che cambiano a ogni reload della pagina).
    C'è una grossa differenza. Ragionando per pura logica/ipotesi: se una pagina ti cambia i contenuti ok, se 100 mila pagine cambiano i contenuti qualcosa non va.
    In quest'ottica mi sembrano valide le considerazioni di must.

    Inoltre, non è questo il caso, ma tante pagine che cambiano contenuti (e parliamo della totalità dei contenti) se io fossi un motore di ricerca, le vedrei come un tentativo di reverse engineering...

    Googlebot passa e trova sempre qualcosa di diverso, alla fine si dirà: questo sito mi passa sempre una minestra diversa per vedere quale mi piace, non mi vorrà imbrogliare?...

    Non mi stupirei dunque che ci anche fossero meccanismi di penalizzazione, finalizzati proprio ad evitare comportamenti simili.

    D'altra parte allargando, forse troppo, il discorso, in Ingegneria tutti i sistemi devono tener conto delle condizioni iniziali, cioè di ciò che è successo negli istanti precedenti.

    Quindi è normalissimo immaginare che quando si passa un ingresso (pagina) il sistema a tempo discreto (google) tenga conto degli ingressi precedenti (pagine precedentemente trovate a quell'indirizzo).

    Dall'analisi di ingresso attuale e degli ingressi precedenti, ne vien fuori l'uscita (ad esempio il valore della pagina).

    Se gli ingressi precedenti e quello all'attuale sono fortemente scorrelati tra loro, verosimilmente il sistema fornirà un'uscita non troppo buona.


  • User Attivo

    Secondo voi, sono arrivati a tanto?

    Secondo me si, comunque, per prova, prima aggiungi dei link ad altre pagine del tuo sito, poi se ancora non fa accessi, prova a renderle statiche.

    Se ancora non manda accessi, cancellale e vediamo che succede. Magari esplodi su altre chiavi..


  • Super User

    @agoago said:

    1. Mancanza di link verso l'esterno (possile ma poco probabile su 100k pagine, capisco su una pagina ogni tanto, ma 100k pagine senza link esterni? puzza a me... chissa' ai motori).

    agoago, guarda che le dangling page costituiscono davvero un problema imponente.

    Sin dagli albori sono state trattate da Google come pagine anomale in quanto, di fatto, impediscono al modello del PageRank (ma puoi estendere a quellochetipareRank) di effettuare correttamente i calcoli.

    Qualunque cosa venga distribuita attraverso i link e giunga ad una pagina va reimmessa nel sistema.

    Nel fare ciò è possibile convogliare l'elemento distribuito più su alcune pagine che su altre, ma la reimmissione nel sistema è imperativa, altrimenti le pagine perdono valore agli occhi del motore e, a catena, perdono valore le pagine che offrono link solo verso le dangling page.

    Non sottovaluterei questo aspetto, sopratutto perché tale fenomeno esiste da anni ed è uno di quei casi in cui teoria (la gestione delle dangling page viene spiegata anche nella paper originale del PageRank) e pratica si trovano d'accordo.

    Ti chiedo scusa in anticipo se ho compreso male la tua spiegazione. Da quello che ho capito quelle pagine non ospitano link di alcun genere (a nessuna pagina, interna o esterna al sito). Se così non fosse, chiedo venia per l'equivoco. 🙂


  • Super User

    @claudioweb said:

    C'è una grossa differenza. Ragionando per pura logica/ipotesi: se una pagina ti cambia i contenuti ok, se 100 mila pagine cambiano i contenuti qualcosa non va.
    Perfettamente d'accordo: quando poi è solo una parte ben definita dei contenuti di una pagina, o anche di tutte le pagine di un sito, a cambiare a ogni accesso del bot (esempio classico: la data e ora dinamica inserita lato-server), non avrebbe alcun senso applicare una penalty. Cosa che infatti non avviene.


  • User Attivo

    Must quando scrivo che:

    "1) Pagine sempre con contenuto nuovo (nessuna logica)"

    voglio dire che da subito ho pensato che i motori capiscono che non ci sia nessuna logica per un wm di comportarsi in questo modo. Ho pensato esattamente come dici tu: "questa é una violazione delle linee guida dei motori"

    E' la prima cosa che ho valutato, ma non pensavo i motori fossero gia' cosi' "capaci". Per questo parlo di algoritmo micidiale.


    Credo che Pieropan abbia inquadrato perfettamente la situazione.

    Nelle mie 100k pagine c'e' un elemento disturbante... e dato l'alto numero di pagine disturbanti non solo le pagine che disturbano non ricevono accessi, ma il sito tutto ha subito una penalizzazione. Ha perso di valore ed e' stato declassato, svalorizzato (pieropan ho vissuto a siena, ma col cavolo che altri sanno cosa e' un qualcosa stroiato).

    Allora cerchiamo di capire quale sia l'elemento disturbante che penalizza.

    No link, contenuto sempre nuovo od entrambi?


    Catone:

    "1. quando viene generata la door poi che fine fa?"

    Mostra il suo contenuto (inutile) a chi vi accede. Fine.

    "2. quando ripassa lo spider viene creata una nuova door ex novo e riprodotta la precedente?

    Ogni utente vede un nuovo contenuto per una stessa url, se fai refresh 100 volti vedrai 100 contenuti diversi."

    "3. mi pare di avere capito che se cerchi su google queste pagine saltano fuori nelle serp o mi sbaglio? E se questo è vero perchè le riesci a vedere solo tu? Con 100K pagine ci dovrà essere per forza qualcuno che ci arriva. Se invece ho capito male ignora quest'ultima domanda."

    Non le vedo solo io, ma chiunque scriva nella query una frase contenuta nella pagina. E' proprio questo il punto centrale della discussione. G ha assegnato un valore cosi' basso a quelle pagine che solo cercando pezzi di frasi tra virgolette le puoi trovare. La discussione verte appunto su questo punto: cosa penalizza queste pagine al punto che 100k pagine non rendano tra tutte 1 o 2 accessi al giorno quando va bene?

    "4. le door non hanno nessunissimo link, nemmeno di ritorno alla pagina precedente?"

    Molti link in entrata nessuno in uscita.

    "5. che tecnologia hai utilizzato per generarle (non mi interessano i dettagli, anche perché probabilmente non li capirei )?"

    Beh e' la cosa piu' facile del mondo. Uno script in perl di pochi k viene richiamato ogni volta che un utente riceverebbe un 404. Il server intercetta il 404, crea il contenuto al volo per quella url e restiruisce un contenuto random ed un 200 code in risposta all'utente.

    (visto che parliamo qui solo tra di noi e nessun altro ci legge vi dico perche' non usare mai un trucco del genere. Gli script che creano contenuti al volo per qualsiasi url, o il dns settato in modo che si possa avere infiniti domini di terzo livello, presentano un grosso limite. Se un competitor lo scopre vi fa bannare immettendo nei motori infinite url random del vostro sito. Nel mio caso posso permettermelo solo per quel mio sito perche' e praticamente istituzionale, ma se non siete forti non provateci)


    Anche Claudioweb pensa che dipenda dal contenuto sempre nuovo, ed inoltre introduce un parametro: il tempo discreto.

    Il mio ragionamento si basava sulla mancanza di link esterni e sul fatto che il contenuto cambiava di volta in volta.

    Nel caso dei link potevo pensare ad una penalizzazione, ma minima.
    Nel caso del contenuto sempre nuovo potevo pensare che fosse fondamentale, ma pensavo che i motori non potessero avere infiniti db storici per confrontare il divinire dei contenuti nel tempo. Troppe risorse per un solo algoritmo.

    Non capisco perche' a volte ci si impunti-fissi su alcune idee senza riuscire a vedere oltre il proprio dito.

    Se per tempo discreto setto non un valore temporale ma il semplice confronto tra l'ultimo spider ed il penultimo ecco che tutto torna.

    L'algoritmo che prima mi sembrava micidiale adesso mi sembra banale e del tutto logico.

    Se un motore trova il contenuto di una pagina molto differentre rispetto alla sua precedente spiderizzazione ecco che allora non ha senso per lui valorizzare quella pagina per i vecchi link in entrata perche' chi aveva lincato il contenuto precedente non aveva intezione di lincare il nuovo contenuto, contenuto che manco conosce.

    Se a questo aggiungiamo che questo elemento disturbante non e' casuale in quanto 100k pagine stravolte non possono essere frutto di casualita', allora tutto torna.


    Mi ero fissato sulla comparazione (improbabile) da parte dei motori di molti db storici senza pensare al semplice confronto del precedente rispetto al nuovo, inoltre non avevo pensato alla cosa piu' logica e cioe' di considerare la "qualità media, on-site".

    Era cosi' semplice, grazie a tutti.


  • Super User

    @agoago said:

    La discussione verte appunto su questo punto: cosa penalizza queste pagine al punto che 100k pagine non rendano tra tutte 1 o 2 accessi al giorno quando va bene?
    Sarà forse il fatto che si tratta di 100k pagine di :spam:?

    Era cosi' semplice, grazie a tutti.
    Prego.


  • Super User

    si ok, ma sarebbe bello cosa fa dire a Mr.G. "questo é spam".

    il contenuto che cambia sempre?
    o forse il fatto che siano dangling pages?
    o appunto che sia tutto il sito che si comporta in maniera anomala?


  • User Attivo

    @LowLevel said:

    agoago, guarda che le dangling page costituiscono davvero un problema imponente.

    Sin dagli albori sono state trattate da Google come pagine anomale in quanto, di fatto, impediscono al modello del PageRank (ma puoi estendere a quellochetipareRank) di effettuare correttamente i calcoli.

    Qualunque cosa venga distribuita attraverso i link e giunga ad una pagina va reimmessa nel sistema.

    Nel fare ciò è possibile convogliare l'elemento distribuito più su alcune pagine che su altre, ma la reimmissione nel sistema è imperativa, altrimenti le pagine perdono valore agli occhi del motore e, a catena, perdono valore le pagine che offrono link solo verso le dangling page.

    Non sottovaluterei questo aspetto, sopratutto perché tale fenomeno esiste da anni ed è uno di quei casi in cui teoria (la gestione delle dangling page viene spiegata anche nella paper originale del PageRank) e pratica si trovano d'accordo.

    Ti chiedo scusa in anticipo se ho compreso male la tua spiegazione. Da quello che ho capito quelle pagine non ospitano link di alcun genere (a nessuna pagina, interna o esterna al sito). Se così non fosse, chiedo venia per l'equivoco. 🙂

    Nessun equivoco LowLevel, mi sono spiegato bene, nessun link verso l'esterno.

    Questo aspetto della mancanza di link esterni e' da un po' che mi "ossessiona". Pensavo di essere tra pochi ad accuparsene, mi fa piacere ritrovarmi in buona compagnia.

    Non conosco un termine comune per definire le pagine che non hanno link verso l'esterno, non so come vengono chiamate ufficialmente... io le chiamo in ufficio pagine sterili, l'importante e' capirsi.

    Ora non so, ma in passato si diceva che G calcolasse un link verso una pagina sterile al 15% del suo ipotetico valore.

    Non mi piace il termine dangling associato al termine pagina, faccio fatica ad associarlo ad alcune frasi, immaginati alle pagine.


    Comunque sono dibattuto, dentro.
    Mi sembra che questa storia dei link verso le pagine sterili sia tutta una sporca, bastarda montatura.

    Sento che soprattutto in questo caso rischiamo di adattare i nostri siti, i nostri link verso pagine sterili, basandoci su una regola di giudizio assurda.

    Mi piace da sempre paragomare il web alla vita di tutti i giorni.
    E' come se volessimo discriminare-penalizzare-ignorare chi ha un amico senza figli.


    La mancana di link esterni e' stata la prima cosa a cui ho pensato che potesse penalizzarmi.

    Poi, in un raro momento di lucidita' ho pensato: che si fotta google con le sue valutazioni dei link verso le pagine sterili.

    Un conto e' capire cosa mi penalizza, un conto e' adattarmi.

    LowLevel che teoria e pratica vadano di pari passo nel caso di link verso lo sterile lo accetto come dato di fatto. Sappiamo che e' cosi'.

    Da qui ad edeguami ce ne vuole...


    I seo non devono adeguare il proprio lavoro in base agli algoritmi dei motori (sarebbero condizionati).

    I motori non devono adeguare i loro algortmi in base a valori fotografati, man mano nel tempo, del web (sarebbero condizionati).


    Senza offesa per nessuno, ma i siti che spiegano come i motori ragionano-valutano-calcolano (a secondo dei loro algoritmi mestruali) il web fanno piu' danno che altro.

    Anche chi lo facesse unicamente a fine didattico finira' col condizionare i wm che da quel momento, influenzati, forzeranno-modificheranno i siti loro (o dei loro clienti) appiattendosi-adeguandosi ai valori degli algoritmi momentanei dei motori.


    Vedro' come risolvere il problema del contenuto sempre nuovo, poi mettero' qualche link esterno in alcuni contenuti al fine di abbassare la media delle pagine con elemento disturbante, ma mi rifiuto in modo categorico di farlo su tutti i nuovi contenuti.

    Prima G ha teorizzato ed usato questa storia dei link verso pagine sterili, poi dopo anni, non contento ha teorizzato siti hub e compagnia bella, ok puo' aver perfettamente ragione in queste sue scelte, ma perche' pubblicizzarle??


    Per me G e' ancora il miglior motore, ma non mi piace questo suo fare carbonaro che con la complicita' di matt e simili vi dice come deve essere per lui il web e vi induce ad adattarvi se volete beneficiare al meglio dei suoi accessi.

    Non mi piace questa sua tecnica di far "trasparire" ogni suo nuovo algoritmo che poi misteriosamente ed immediatamente diventa pubblico e discusso in tutti i forum dei seo.

    Ammiro invece yahoo e msn che nulla lasciano trasparire, sono un mistero per tutti i seo e zitti zitti migliorano senza mai influenzare direttamente e non il lavoro dei wm.

    Non pretendiamo nulla dai seo esteri ma certamente dai seo italiani, che in quanto italiani hanno lo stile nel loro stesso dna.

    Stile che per google e' solo una delle tante word nel suo vocabolario.