• Super User

    Il timeout è un ottimo sistema per evitare che il motore ipotizzi una fregatura.

    Anche un 503 con aggiunto un Retry-After è una buona soluzione.

    Il problema, tuttavia, è che presentando timeout o 503 ai principali motori di ricerca (MSN, Y, G) se ne ottiene solo una estromissione delle pagine dai risultati delle ricerche, in modo repentino su alcuni motori ed in modo graduale su altri.

    A questo punto puoi sperare solo che quella parte di pagine del sito che rimane accessibile venga in qualche modo premiata dal motore, ma personalmente non ci scommetterei molto, nel senso che finora non mi è parso di osservare nulla di simile.

    Test interessantissimo. 🙂


  • Super User

    Mi sento in colpa perché non ho nè una risposta a questo post, né tantomeno ho idee in proposito. Mi sento in colpa perché questo è uno dei test più geniali che abbia mai letto..per 2 motivi:

    1. stai rischiando un casino
    2. ci stai rendendo partecipi

    Quindi secondo il mio personalissimo punto di vista o non sei un seo o sei un pazzo :sbonk:

    --

    Provo comunque a fare domande, visto che di risposte non ne ho.

    Perché un motore dovrebbe premiare le pagine che non sono down? Cioè se come dici tu hai 5000 pagine e 1000 di queste sono visitate mentre 4000 non lo sono (nonostante siano indicizzate) perché conviene far credere al motore che queste pagine non esitono?

    • potrebbe convenire se i motori facessero una sorta di media degli accessi di un sito..ovvero se un sito ha 900 unici al giorno in una sola determinata pagina, mentre ha una media di 10 unici al giorno per ogni pagina, perché il motore dovrebe ritenerlo un problema? Forse è una tecnica antispam? O una tecnica per individuare il livello di qualità di un sito?

    P.S. agoago se quando finisci il test hai bisogno di qualche link per velocizzare la reindicizzazione chiedi pure 😉


  • User Attivo

    Up e down sono strettamente correlati al ping.

    Io sono un motore di ricerca, non riesco a raggiungere il tuo sito, penso a 2 cose:
    1 dns
    2 server down

    In entrambi i casi qual è la prima cosa che faccio ?
    Pingo l'ip!

    In questo caso il responso è:
    Request timed out.
    Request timed out.
    Request timed out.
    Request timed out.

    Allora penso, server down, capita.

    Ma se il tuo server mi avesse risposto al ping cosa pensavo ?
    Mi sta fregando ?


  • User Attivo

    Tutti i siti e tutti i server sono stati down per 7 giorni esatti, spaccati.

    Adesso sono su, da qualche ora.

    kerouac3001 scrive:

    "Perché un motore dovrebbe premiare le pagine che non sono down? Cioè se come dici tu hai 5000 pagine e 1000 di queste sono visitate mentre 4000 non lo sono (nonostante siano indicizzate) perché conviene far credere al motore che queste pagine non esitono? "

    Perche' se ci basiamo sulla teoria che un motore assegna accessi e risorse in base al valore di un sito, se "elimino" 4000 pagine inutili il motore assegnera' piu' risorse alle 1000 rimanenti.

    Le spaiderizzera' magari una volta alla settimana piuttosto che una volta al mese. Se un domani aggiungerai 100 pagine non saranno 100 nuove su 5000 vecchie ma 100 pagine nuove rispetto 1000 vecchie.

    Faccio un esempio pratico. Un mio sito aveva circa 300.000 pagine, molte buone, alcune discrete, altre inutili. Ho fatto un programmino che cancellasse tutte le pagine con poco contenuto, non lincate dall'esterno, ed altri filtri di questo genere. L'ho lanciato.

    In G, prima di questo ripulisti, avevo 64k pagine in serp. Dopo sono passato a quasi 160k. E le pagine rimaste sul sito dopo il ripulisti erano poco piu' di 200k.

    Accessi? Cambiato poco o nulla, ma tempo al tempo, i link interni sono stati poi ovviamente ottimizzati, sono meno dispersivi, aiutano tutti gli spider a trovare prima le pagine, come faccio delle modifiche me le ritrovo dopo un mese in serp, non dopo 4 mesi.... otimizzo per una key e la vedo subito spinta non dopo secoli... stessi accessi ma piu' resa.

    In poche parole i seo tendono sempre ad aggiungere contenuti, migliorano magari i vecchi ma davanti un contenuto inutile non hanno mai il coraggio di cancellare la pagina, come se in pratica gli servisse a qualcosa. Non serve a nulla, se per un motore una pagina non fa accessi vuol dire che penalizza le sue risorse e di conseguenza il sito che la contiene. Cancellare subito!

    Mi assumo come sempre la responsabilita' di quello che dico, prova per verificare, se non funziona mi sputerai virtualmente in un occhio.

    1. Prendi un tuo sito.
    2. Controlla il log della settimana, magari 2 settimane se non vuoi rischiare troppo.
    3. Segnati tutte le pagine che ricevono accessi, qualsiasi accesso, da chiunque, motore e non
    4. Segnati tutte le pagine che hanno backlink
    5. Segnati tutte le pagine del tuo sito non piu' vecchie di un paio di mesi.
    6. Sottrai all'elenco di tutte le pagine che compongono il tuo sito quelle che ti sei segnato precedentemente.
    7. Cancella o rinomina tutte le pagine "inutili". No robots o altro.

    Praticamente "pagine totali" - "pagine con Accessi+pagine con bl+ pagine giovani" = ruovere

    Passo dopo e' come nascondere, ad hoc le pagine rimanenti, lavorando motore per motore, da qui il test e la discussione.

    "P.S. agoago se quando finisci il test hai bisogno di qualche link per velocizzare la reindicizzazione chiedi pure"

    Grazie dell'intento, del aiuto proposto, ma anche se fatto in buonissima fede probabilmente mi uccideresti piuttosto che aiutarmi....

    Perche'?

    Volevo dedicare una lunga discussione su questo aspetto e lo faro' al piu' presto. Ma dovro' "scriverla" bene, perche' creera' molti malumori, ripensamenti e sara' contestatissima, ma molti wm, soprattutto spammer, capiranno finalmente quale e' uno dei principali motivi del perche' molti loro siti sono bannati o penalizati.

    Capiranno perche' tutte le loro tecniche di distribuire perfettamente i link, di nascondere perfettamente i link, di farsi lincare da colleghi da pagine piene di link, anche se in tema, ecc ecc non danno i risultati attesi. ANZI.

    Di fatto, in sintesi, l'unico link che conta o contera' per un motore sara' quello cliccato dagli utenti.
    Se da A linco B C D E F e poi la pagina C ricevera' il 60% dei click, D il 30%, F il 10%, la pagina B ed E non solo sostanzialmente non saranno considerate come lincate da A ma saranno di fatto penalizzate. Anche A sara' penalizzata, in quanto propone 2 link dannosi.

    Pertanto listoni di link a fondo pagina, link nascosti, link poco visibili, link inutili, non serviranno a nulla di nulla, se non a fare rischiare il ban a chi linca e un penalita' a chi li riceve.

    Web ripulito, i furbi morti. Altro che tr....

    Ma ora e' presto per parlarne.

    Appena avro' raccolto le prime analisi di questo test le riporto.


  • Super User

    @agoago said:

    Di fatto, in sintesi, l'unico link che conta o contera' per un motore sara' quello cliccato dagli utenti.
    E quali strumenti puo' utilizzare un motore per capire il link piu' "cliccati"?
    Ora mi viene in mente solo la toolbar, se non ci sono altri metodi e' fuorviante per certi link. Pensiamo ad un sito che mette a disposizione per il download varie toolbar di Google per vari browser. Nessuno con la toolbar clicchera' in un link per quel sito, e Google pensera' che nessuno clicchi quel link, mentre magari e' il link piu' cliccato in assoluto tra i link presenti in quella determinata pagina, solo che a cliccarlo e' chi non ha la toolbar. :mmm:


  • Super User

    Per rispondere a Lkv linko un thread in cui c'è un post di Low sui pesi dei link


  • Super User

    @kerouac3001 said:

    Per rispondere a Lkv linko un thread in cui c'è un post di Low sui [url=http://www.giorgiotave.it/forum/viewtopic.php?t=7013]pesi dei link
    Grazie kerouac, e' sempre un piacere leggere i post di LowLevel, pero' non risponde al problema che ho posto, oppure sono io che non capisco. 😞

    Capisco che i link abbiano diverso peso, ma poniamo due link dello stesso peso (stessa pertinenza, stessa posizione in bella vista e con tanto di lunga discussione pertinente sul contenuto della pagina a cui porteranno i link), poi a questo aggiungi quanto ho chiesto sopra, in riferimento a quanto detto da agoago, il dubbio mi rimane. A meno che non abbia capito male il post di agoago e lui con

    Di fatto, in sintesi, l'unico link che conta o contera' per un motore sara' quello cliccato dagli utenti.
    intendesse:
    Di fatto, in sintesi, l'unico link che conta o contera' per un motore sara' quello con piu' probabilita' di essere cliccato dagli utenti.
    Se e' cosi' mi si toglie il dubbio, se cosi' non e' il dubbio mi resta.


  • User Attivo

    Lkv intendo esattamente come tu hai ben capito.

    Le probabilita' di ricevere un click oggi sono gia' considerate, lo sappiamo, basta pensare al valore che un motore assegna ai link in alto piuttosto che a quelli in fondo pagina.

    Oggi ci sono le tb, pensa solo a G e alexa, con volumi impressionanti di dati, ma anche le pagine in cache nei motori, o i proxy delle grosse societa' di network, ed un domani magari sistemi operativi che con la scusa di progetterti tracciano tutto....

    Pensa alle societa' che forniscono gratuitamente le statistiche ai siti, e chi piu' ne ha piu' ne metta.

    Non serve ad un motore avere sotto mano il 100% di cosa avviene, gli basta il 2% della casistica globale per tarare il tiro in modo pazzesco.

    Oggi siamo per ipotesi all' 1% di tracciamento?
    Ma fra 6 mesi? Fra 2 anni?


    Credi che i sistemi sopra elencati non bastino per raggiungere il 4-5% ?

    Probabilmente no, allora vediamo di dare maggior corpo al tutto.

    Adsense per dire. Qualsiasi utente che passa da una pagina che richiama il js di G e finisce su una pagina che richiama Adsense (stesso o diverso account) viene catalogato ed analizzato.

    Si parla tra tutto di decine di milioni di utenti che si automarcano e di centinaia di milioni di pagine che aggiustano il tiro marcando le mosse anche di chi non usa tb, proxy, ecc ecc

    Fra un anno saremo al 2-3%? Lo siamo gia' ora?


  • Super User

    @agoago said:

    Fra un anno saremo al 2-3%? Lo siamo gia' ora?

    Io ritengo che quella percentuale sia già stata superata da almeno un anno, forse più. Non credo di tantissimo, anche perché si tratta già di statistiche quantitativamente sufficienti per fare quello che vogliono fare.

    In particolare, Google ha fatto passi consistenti in questa direzione già da molto tempo e si appresta a farne di nuovi nel prossimo futuro.

    Sottolineo il monitoring dei proxy perché temo che sia uno dei fattori più ignorati dai SEO.


  • Super User

    non ho capito il monito dei proxy..in cosa consiste?


  • User Attivo

    LowLevel scrive:

    "Io ritengo che quella percentuale sia già stata superata da almeno un anno, forse più. Non credo di tantissimo, anche perché si tratta già di statistiche quantitativamente sufficienti per fare quello che vogliono fare."

    Su questo dato non mi sono azzardato a dare nulla per certo.

    Di fatto LowLevel ritiene che i motori siano, ad oggi, in grado di basarsi su una casistica quantitativamente (e magari qualitativamente) sufficiente per fare quello che vogliono fare!

    Mi sento meno solo, bene, amo essere in buona compagnia.


    Questo tuttavia non significa, non avvalora minimamente quanto ho affermato:

    "Di fatto, in sintesi, l'unico link che conta o contera' per un motore sara' quello cliccato dagli utenti."

    Il fatto che, da oggi e per il futuro prossimo, i leader del web siano in grado di vedere e capire "chi fa cosa", non e' presupposto-sinonimo-sintomo-condizione-induzione che usino queste loro "informazioni" privilegiate per avvantaggiarsene, o nel migliore delle ipotesi, per migliorare i loro servizi.

    Battutona... mettetemi una mano sulla testa e ditemi bravissimo!
    Non si sul dire che una risata li seppellira'? Allora ridi pagliaccio.


    Per quanto riguarda il discorso proxy e' un discorso lungo e serio.

    Ma non e' cosa troppo da seo, parlarne in modo approfondito favorirebbe principalmente utenti loschi, meglio che chi li usa per nascondesi si ritenga ancora al sicuro dall'essere rintracciabile.

    Per nascondersi oggi bisogna bucare un server altrui cancellando ogni traccia di accesso a quel server, e poi da li' operare con la massima cautela.


    Lo si potra' ancora fare per i prossimi anni-decenni sui pc basati su os della microsoft, in quanto la microsoft deve, sempre e comunque, poter permettere, alle agenzie governative americane, di poter accedere liberamente a qualsiasi computer in rete che faccia uso di un os microsoft.

    Poi, come un "esterno" trova un baco, loro mettono online una patch, poi quando quasi tutti i buchi "voluti" sono stati scoperti ed incerottati allora la microsoft esce con una nuova versione di os, ovviamente con tutti i buchi precedenti chiusi, ma con altrettanti buchi di accesso nuovi.

    Nuovi passaggi-entrate nascosti ovviamente agli utenti, ma riportati fin dal primo giorno di distribuzione, a chi di dovere.


    Prove di quanto sopra? Nessuna. Sono solo illazioni, leggende metropolitane, pero' una domanda. Perche' a nessuno di noi e' mai venuto il dubbio che Paperino si droghi o che Tex sia gay??

    Quando hai un dubbio non ci sono dubbi.
    Per questo nessuno ha mai avuto dubbi su Paperino e Tex.


  • Super User

    @agoago said:

    Il fatto che, da oggi e per il futuro prossimo, i leader del web siano in grado di vedere e capire "chi fa cosa", non e' presupposto-sinonimo-sintomo-condizione-induzione che usino queste loro "informazioni" privilegiate per avvantaggiarsene, o nel migliore delle ipotesi, per migliorare i loro servizi.

    Battutona... mettetemi una mano sulla testa e ditemi bravissimo!

    Bravissimo 😄

    A parte gli scherzi..il tuo ragionamento fila.


  • User Attivo

    "Per nascondersi oggi bisogna bucare un server altrui cancellando ogni traccia di accesso a quel server, e poi da li' operare con la massima cautela. "

    Si è sempre fatto così! Anzi spesso si passava da più di un server facendo "bouncing".
    Però se pensi a tutto quello che c'è in mezzo (provider, router ecc ecc) ti beccano lo stesso..

    "Lo si potra' ancora fare per i prossimi anni-decenni sui pc basati su os della microsoft"

    Su questo non sono d'accordo ma non approfondisco perchè siamo ot di brutto.

    Il problema è che a G basta mettere "get firefox!" in adsense e siamo tutti fregati! Ti porti il cavallo di tr*** in casa!

    Ad ogni modo..

    Ci sono aggiornamenti su questo test ?