• User Attivo

    Pagine indicizzate non più presenti

    Come si fa a fare eliminare il più velocemente possibele delle pagine non più presenti sul sito?
    intendo eliminare delle pagine magari anche ben indicizzate e posizionate


  • Super User

    @nandonando2 said:

    Come si fa a fare eliminare il più velocemente possibele delle pagine non più presenti sul sito?
    Se le pagine non sono più presenti, lo spider si becca un bell'errore 404 ogni qual volta prova a spiderarle e/o indicizzarle. Dopo un certo periodo vengono cancellate. E' possibile però che negli archivi rimanga il semplice URL della pagina, senza snippet, senza link alla cache, in virtù di eventuali backlink ancora attivi.

    Se vuoi rimuovere del tutto dagli archivi di Google queste pagina, puoi usare il tool di rimozione apposito, oppure uno dei tanti metodi suggeriti su questa pagina ufficiale:
    http://www.google.com/support/webmasters/bin/answer.py?answer=35301&topic=8459

    Cordialmente,
    Stuart


  • User Attivo

    Grazie mille


  • Super User

    @Stuart said:

    Se le pagine non sono più presenti, lo spider si becca un bell'errore 404 ogni qual volta prova a spiderarle e/o indicizzarle. Dopo un certo periodo vengono cancellate. E' possibile però che negli archivi rimanga il semplice URL della pagina, senza snippet, senza link alla cache, in virtù di eventuali backlink ancora attivi.

    Se vuoi rimuovere del tutto dagli archivi di Google queste pagina, puoi usare il tool di rimozione apposito, oppure uno dei tanti metodi suggeriti su questa pagina ufficiale:
    http://www.google.com/support/webmasters/bin/answer.py?answer=35301&topic=8459

    Cordialmente,
    Stuart

    Non suggerire il 404 che agoago viene a strangolarti nel sonno. Adesso non l'ho a portata di mano ma cerca su GT un ottimo topic di agoago in cui parla di perché è importante eliminare le pagine inutili e di come eliminarle correttamente. Non ricordo cosa suggeriva, ma ricordo che ha fatto molti test interessanti.


  • User Attivo

    Semplicemente suggerivo di rimuovere le pagine a bassa o nulla resa.
    Per rimuovere intendo cancellarle ed ovviamente cancellare qualsiasi link che le collegava.

    Poi una volta che lo spider riceve il 404 e' solo questione di tempo, le rimuove. Se si ha fretta, come dice Stuart si puo' usare per G il suo tool.

    Del resto e' un concetto abbastanza logico, se paragoniamo un sito con 100 pagine utili e 900 inutili (per dire con contenuto riprodotto o scarso e via dicendo) ed uno con 100 pagine utili e 10 inutili, se noi fossimo uno spider, un bot, un motore, chi prediligeremmo?

    Il primo sito ci fa perdere tempo e risorse in circa il 90% dei casi, e queste cose oramai fanno la differenza.

    301, 302 o code 200 "inutili" sono tutte risposte da evitare fortemente.
    Feriscono i motori ed uccidono i wm.


  • Super User

    @agoago said:

    Semplicemente suggerivo di rimuovere le pagine a bassa o nulla resa.
    Per rimuovere intendo cancellarle ed ovviamente cancellare qualsiasi link che le collegava.

    Poi una volta che lo spider riceve il 404 e' solo questione di tempo, le rimuove. Se si ha fretta, come dice Stuart si puo' usare per G il suo tool.

    Del resto e' un concetto abbastanza logico, se paragoniamo un sito con 100 pagine utili e 900 inutili (per dire con contenuto riprodotto o scarso e via dicendo) ed uno con 100 pagine utili e 10 inutili, se noi fossimo uno spider, un bot, un motore, chi prediligeremmo?

    Il primo sito ci fa perdere tempo e risorse in circa il 90% dei casi, e queste cose oramai fanno la differenza.

    301, 302 o code 200 "inutili" sono tutte risposte da evitare fortemente.
    Feriscono i motori ed uccidono i wm.

    Dalla tua risposta forse mi confondevo con un altro topic in cui bloccavi volutamente l'accesso al sito, inviando un errore che facesse pensare allo spider che si trattava di un problema tecnico del server 🙂

    Adesso non ricordo bene. Ne approfitto però per farti una domanda..la tua ipotesi prevede che google si basi sul traffico. Quale tipo di traffico secondo te? Toolbar, click sulle ricerche? O magari anche il rapporto tra click sulle ricerche e visualizzazioni sulle ricerche?

    Cioè, la bassa resa secondo te dipende da dati di traffico interni al motore (numero di click su numero di ricerche..per esempio), o è un valore fisso? Cioè se sono primo per una key con 2 ricerche al giorno e mi becco 2 click al giorno, google pensa male della mia pagina? Oppure pensa che quella pagina ha raggiunto il suo scopo ed anche se ha poche ricerche è comunque interessante?


  • User Attivo

    kerouac3001 scrive:

    "Dalla tua risposta forse mi confondevo con un altro topic in cui bloccavi volutamente l'accesso al sito, inviando un errore che facesse pensare allo spider che si trattava di un problema tecnico del server "

    Ah, quella e' un altra cosa, piu' sottile, diciamo un evoluzione, ora ho capito a cosa ti riferivi!

    "Adesso non ricordo bene. Ne approfitto però per farti una domanda..la tua ipotesi prevede che google si basi sul traffico. Quale tipo di traffico secondo te? Toolbar, click sulle ricerche? O magari anche il rapporto tra click sulle ricerche e visualizzazioni sulle ricerche?"

    Parlo semplicemente degli spider. Anzi di bot per essere piu' precisi. Il bot manda lo spider che raccoglie i dati e man mano li comunica al bot del motore che decide cosa far fare allo spider.

    Se lo spider passa e trova testo inutile, il classico testo rindondante (per esempio l'ennesima pagina di dmoz riportata, una pagina con testo scarno, una pagina fotocopia tipo quella degli ecommerce dove cambia solo il codice e nome prodotto, ecc ecc), allora il bot dice allo spider: ehi socio fermati qui per ora, che intanto non c'e' trippa per i gatti... tempo perso!!

    Ecco che allora il sito in questione al posto di vedersi spiderizzare con frequenza e soddisfazione dello spider e vedersi aggiornare le pagine "buone" magari ogni 3 giorni, si ritrova con un sito che in gergo chiamo "lento".

    Un sito veloce invece (che abbia 10 o 10.000 pagine) e' quel sito che avendo nel suo insieme tutte pagine non inutili piace ai bot dei motori e di conseguenza ai motori stessi. Viene aggiornato sistematicamente e costantemente con buone frequenze.

    In realta' c'e' un altro fondamentale motivo per levare le pagine a basso valore. Anche se e' un discorso un po' complicato e lungo. Ci sono ban reali e ban virtuali.

    La solita domanda, se cade un albero e nessuno lo vede o sente e' realmente caduto? Nel mondo seo non e' caduto, nella vita reale non so...

    Quando un motore spiderizza una pagina, sa gia' con ottima approssimazione quanti accessi ricevera' quella pagina per quali key, in quanto decide lui in che posizione delle serp far apparire la pagina a seconda delle key che la compongono.

    L'approssimazione e' data principalmente dal fatto che un utente potrebbe privilegiare e cliccare un link in serp a seconda del titolo o della sua descrizione, ma per i grandi numeri e' poca cosa.


    Stabilito questo aspetto vitale, abbiamo preso atto che un motore sa a priori quanti accessi (in base ai suoi algoritmi) ricevera' una pagina nel suo db.

    Ora la domanda. Se dai suoi calcoli dovesse stabilire che quella pagina ricevera' 1 o 2 accessi al mese (magari tratta un argomento per nulla cercato o la pagina e' da bassa classifica ecc ecc) di fatto, per il motore, la pagina e' bannata o no?

    Tecnicamente non e' bannata ma virtualmente e' bannata!
    Infatti e' l'albero che cade e nessuno lo vede. E' la pagina in serp che appare con site: ma non riceve accessi dai motori.

    A questo punto i motori si "incazzano" letteralmente, perche' sanno di mettere in db una pagina inutile, un albero caduto, sanno che sprecheranno risorse con lo spider, per i sort, per i calcoli di resa della pagina, di spazio nel db, ecc ecc

    E questo per una sola pagina... immaginiamoci per 10 o 1000 pagine... e la fanno pagare con gli interessi. Lo spider diventa svogliato, il sito penalizzato, in una parola: lento.

    "Cioè, la bassa resa secondo te dipende da dati di traffico interni al motore (numero di click su numero di ricerche..per esempio), o è un valore fisso? Cioè se sono primo per una key con 2 ricerche al giorno e mi becco 2 click al giorno, google pensa male della mia pagina? Oppure pensa che quella pagina ha raggiunto il suo scopo ed anche se ha poche ricerche è comunque interessante?"

    E' un semplice calcolo, posizione in classifica di tutte le key che compongono la pagina * numero ricerche per key. Il calcolo dei click reali gli serve solo per tarare questa formulina, e per avere altri riscontri di piacevolezza ed efficacia delle serp, non tanto per giudicare un sito.

    Pertanto se tratto allevamento pulci e sono primo in classifica, ai motori non importa che pochissimi cerchino allevamento pulci perche' sono tra i primi e di piu' non posso fare. Per i motori sono ok, sono tra i primi di una key di fascia bassissima.

    Ma se fossi ventesimo con allevamento pulci allora sarei virtualmente bannato, inutile.

    Allo stesso modo se sono 150esimo con free email per i motori sono ok perche' ricevero' al mese 20 click, dal calcolo posizione*key.

    Ma se fossi 900esimo, allora sarei virtualente bannato, anche se la key fosse sex.


    Per questo levare le pagine lente, inutili, bannate virtualmente, chiamiamole come ci pare, puo' fare la differenza.


  • Super User

    @agoago said:

    E' un semplice calcolo, posizione in classifica di tutte le key che compongono la pagina * numero ricerche per key. Il calcolo dei click reali gli serve solo per tarare questa formulina, e per avere altri riscontri di piacevolezza ed efficacia delle serp, non tanto per giudicare un sito.

    Se è vero questo elimina tutte le teorie su traffico. Non ti faccio altre domande perchè sennò vado fuori tema, magari me ne risparmio qualcuna per quando sarai ospite di un live GT 😄

    Comunque interessantissima osservazione la tua che non è necessariamente vera (come tutte le teorie d'altronde) ma che è sicuramente ipotizzabile e che permette al motore di conoscere il reale valore di un sito senza click faudolenti che mirano a migliorarne la posizione. Questo però mi fa pensare ad un maggiore interesse per i dati delle toolbar che escono dal concetto di "sto 20 per una key da 1000 ricerche e quindi ho 50 visite al giorno". Questo farebbe pensare ad un uso dei dati delle toolbar che sommato ai dati di traffico tramite serp pre-calcolato, da il traffico reale e probabilmente orienta il motore di ricerca verso un leggero miglioramento o peggioramento della posizione.

    Ma ripeto: siamo OT 😄