• Community Manager

    Vedo Agendaonline.it in posizione 27, come dicevo qualcosa è cambiato.

    Occorre sopratutto trovare un sistema Search Engine Friendly per organizzare i contenuti.

    Interessanti e notevoli i contenuti di questo topic, grazie agli interventi molto tecnici di alcuni Seo 😉


  • User

    Ciao pieropan,
    molto utili le tue riflessioni.;)

    Il lavoro di cancellazioni di quelle pagine "orribili" è inziato già da qualche tempo grazie anche a giorgio che mi aveva indicato il tool per la rimozione delle sezioni che non erano ok con i motori di ricerca.

    Cancellate da oltre sette mesi, sono rimaste lì come "fossili".:x

    Sollo qualche settimana fa, ho scoperto che per la cancellazione delle pagine nella serp, bisogna restituire al bot un vero 404 e non la classica pagina di default del sito che invita a partire dalla home page.

    Comunque,oggi, con il tool di http://oy-oy.eu/ vado alla caccia dei risultati supplementari (87 pagine) e vedo di eliminarle per sempre.

    Intanto controllando gli errori restituiti nella sezione del sitemap url non trovati, il report mi restituisce 3079 url.

    Molte di queste pagine hanno, inspiegabilmente, gli url con una lettera in maiuscola, altre sono pagine cancellate da anni.

    Tutte non presenti nella nostra sitemap.

    Avete qualche consiglio ?


  • User

    @Google Penalty -30 said:

    Il lavoro di cancellazioni di quelle pagine "orribili" è inziato già da qualche tempo grazie anche a giorgio che mi aveva indicato il tool per la rimozione delle sezioni che non erano ok con i motori di ricerca.

    Cancellate da oltre sette mesi, sono rimaste lì come "fossili".:x

    Sollo qualche settimana fa, ho scoperto che per la cancellazione delle pagine nella serp, bisogna restituire al bot un vero 404 e non la classica pagina di default del sito che invita a partire dalla home page.

    Ma non sarebbe molto più semplice aggiungergli un noindex sulla pagina di default per il 404 così li elimina tutti lui automaticamente?


  • User Attivo

    @mchgrg said:

    Ma non sarebbe molto più semplice aggiungergli un noindex sulla pagina di default per il 404 così li elimina tutti lui automaticamente?

    Il punto è che il db di GG appare come bloccato per una parte del sito in questione, in cache c'è la pagina vecchia, in link c'è la pagina nuova oppure la 404, ma i calcoli l'algoritmo continua a farli prendendo la pagina cache e per qualche ragione non la aggiorna.

    Per sbloccarlo la cosa piu' semplice è abbattere la pagina, farla sparire e quindi farla ri-assorbire.

    Se GG non sostituisce la pagina in cache con la nuova oppure non la vuole prendere proprio, non sarà neanche in grado di leggere il noindex, alla fin fine, oltre al fatto che cmq il metodo piu' rapido resta un 404 reale seguito dalla rimozione pagine via tool.

    Ciao.


  • User Attivo

    @Google Penalty -30 said:

    Il lavoro di cancellazioni di quelle pagine "orribili" è inziato ....

    Cancellate da oltre sette mesi, sono rimaste lì come "fossili".:x

    .....

    Avete qualche consiglio ?

    Per eliminarle io ho fatto così:
    per ognuna delle pagine che avevo eliminato, ho creato una pagina vuota con solo i tag html title etc. inserendo il meta NOINDEX e con lo stesso nome di prima naturalmente; ciò fatto vai sul tool di rimozione di G utilizzando "rimuovi singolo url tramite metatag" (nel giro di 24h verrà rimossa).

    Molte di queste pagine hanno, inspiegabilmente, gli url con una lettera in maiuscola, altre sono pagine cancellate da anni.
    ?
    Queste pagine quasi certamente esistono perchè sono state richiamate così da link (spero interni).
    Anche per queste ho usato lo stesso metodo di cui sopra.

    Nota che tutte queste pagina sono presumibilmente considerate come Duplicate content!

    Saluti


  • User

    In merito a

    "Queste pagine quasi certamente esistono perchè sono state richiamate così da link (spero interni)."

    Purtroppo no non è così. Spero che non siano link da spam engine.


  • User

    Oggi,

    mi sono messo a controllare i link verso siti esterni alla ricerca di eventuali errori e di inconsapevoli Link ai "Cattivi vicini" sconsigliati da Google.:?

    Ed ecco che nella pagina della Juventus mi imbatto nel link verso il sito dei tifosi del club di lugano.

    Nella pagina c'è un bel link verso il sito juventusclublugano. com lo controllo e noto che il sito degli juventini di lugano non solo non esiste più ma è anche entrato nelle grinfie di uno spam engine con dominio penalizzato da GG http://www.google.com/search?hl=it&q=juventusclublugano.com%2F&btnG=Cerca+con+Google&lr=

    Ritengo proprio che sia un link da cancellare e lo cancello

    Ma ritengo anche che quando fu inserito (tre anni fa) fosse un ottimo link.

    Ora mi chiedo:

    Se ogni giorno dobbiamo controllare, i link che cambiano padrone e finiscone nelle mani degli spam engine, c'è veramente da impazzire. :arrabbiato:


  • User

    Ed eccon un altro nella pagina del Como Calcio:

    calciocomo.cjb. net/ 😮 non cliccate questo sito contiene pure dei virus.:o

    Come ho fatto a non pensarci prima ?

    I tifosi di calcio, spesso sono pericolosi. :bastard:


  • User

    Icredibile anche il sito ufficiale del Parma (fino a qualche tempo fa) nelle grinfie di uno spam engine: acparma.it


  • User Attivo

    Ciao...
    qualche post sopra dicevo:

    Qualcosa devi aver fatto anche tu, diretto o di rimbalzo.La cosa imho plausibile è che tu abbia fornito link a qualcuno flaggato come fonte di spam.
    Non è necessario che sia un link diretto, potrebbe essere anche un link che rimbalza da un'altro sito che apparentemente non ha problemi.

    Senza mettere il carro davanti ai buoi, ma potrebbe essere proprio questa la ragione della penalità. Continua il controllo metodico sui tuoi link in uscita. Ciascun nodo del network di spam eredita la penalità, se ha un comportamento che in modo inequivocabile lo fa rientrare nel network.
    Il tuoi link in uscita sono considerati, giustamente, un modo inequivocabile per decidere se fai parte di un network.

    Chiaro che è una vitaccia e bisogna avere gli occhi anche dietro la testa, ma per sapere se ci fai o se ci sei non è che l'algoritmo abbia tanti altri sistemi.

    Ciao, suerte.


  • User

    Ma a questo punto conviene linkare solo siti istituzionali. :mmm:

    Non Credi ?

    Non ho voluto tediare gli amici del forum ma nei link delle squadre di calcio ne ho trovati altri. :arrabbiato:

    Nella sezione eventi e sagre , poi, i miei redattori hanno inserito notizie + link.
    http://www.agendaonline.it/eventi/veneto
    http://www.agendaonline.it/sagre/umbria

    Controllarli tutti potrebbe portare allo sfinimento 😢 ed ad un'enorme perdita di tempo.

    Come facciamo a monitorare l'url di una pro-loco ?

    Credo che sia meglio cancellarli tutti. :rollo:. Purtroppo.


  • User Attivo

    Secondo me può essere utile cercare eventuali similitudini con altri siti affetti dallo stesso problema.

    Io ho trovato questi:

    sunglassesuk.com
    pricerabbit.com
    hotelmotelnow.com

    Mentre altri hanno già risolto
    http://groups.google.com/group/Google_Webmaster_Help-Indexing/browse_frm/thread/b9b960c9fff16ee4/a85d73f683b4dc00?tvc=1#a85d73f683b4dc00
    Qui un wm segnalava che il suo sito blastro.com era affetto da Google Penality -30, adesso ho visto che appare in prima posizione, quindi ha risolto, sarebbe interessante chiedergli come.

    E in questo thread
    http://groups.google.com/group/Google_Webmaster_Help-Indexing/browse_frm/thread/460050e04fcda3b8/37c622d707519a4f?tvc=1#37c622d707519a4f
    un altro racconta come ha risolto

    Avendo fatto tante correzione capire il vero motivo della penality è difficile, cmq gli elementi comuni con il precedente mi paiono:

    1 - modifiche al sito (e di queste ne hai fatte, bisognerà vedere se sono quelle giuste)
    2 - cancellare tutte le pagine restituendo error 404 (come segnala anche pierpan)
    3 - fare richiesta di inclusione

    PS: non ho letto completamente i thread segnalati, può essermi fuggito qualcosa.


  • Super User

    monitorare nel tempo che i siti che linkiamo restino puliti è improponibile. deve essere google, tramite i suoi dati storici, a capire che noi linkiamo un sito perchè prima era pulito. e poi, una volta che il sito non è più pulito, annullare il valore trasmesso da quel link (o comunque limitarsi a penalizzare il sito linkato).

    (questo post è principalmente rivolto a coloro del team google che leggono il forum gt)


  • User

    Secondo voi un sito che nella serp di Google viene visualizzato con una tonnellata di risultati supplementari

    http://www.google.com/search?num=30&hl=it&safe=off&q=forzapescara.com&lr=

    merita un link ? :mmm:

    Nel dubbio intanto lo elimino dalla Pagina del Pescara Calcio.


  • User Attivo

    @must said:

    monitorare nel tempo che i siti che linkiamo restino puliti è improponibile. deve essere google, tramite i suoi dati storici, a capire che noi linkiamo un sito perchè prima era pulito. e poi, una volta che il sito non è più pulito, annullare il valore trasmesso da quel link (o comunque limitarsi a penalizzare il sito linkato).

    (questo post è principalmente rivolto a coloro del team google che leggono il forum gt)

    Ciao Must, imho non è improponibile, sepoffa'...

    Serve essenzialmente una mappa dei link esterni, e questa la ottieni con xenu, per dire.
    Quindi si estrae il dominio secco, senza protocollo: www.sitoacuilinki.com

    Quindi serve uno script che esegua in sequenza il site:www.sitoacuilinki.com come query in google (primo step che veda se c'è lo 0, il ban) e quindi una query secca col nomedominio e verifichi che il rank sia > 30.
    Se nessuna di queste due condizioni si verifica il sito è buono, viceversa è da togliere il link.

    Ovviamente il tutto, in caso di siti con moltissimi link, su basi periodiche.

    Imho si puo' fare... anzi, provo a intortare qualche sviluppatore per vedere se è attuabile con poco sforzo.

    A presto, ciao


  • User

    Ciao Pieropan,

    cos'è xenu ?


  • Super User

    @pieropan said:

    Ciao Must, imho non è improponibile, sepoffa'...

    [cut]

    Imho si puo' fare... anzi, provo a intortare qualche sviluppatore per vedere se è attuabile con poco sforzo.

    A presto, ciao

    ciao piero,
    che dire? hai ragione.
    e se intorti qualche sviluppatore, facci sapere :yuppi:


  • User Attivo

    @Google Penalty -30 said:

    Ciao Pieropan,

    cos'è xenu ?

    http://punto-informatico.it/download/scheda.asp?i=1118677
    prendilo qui
    http://home.snafu.de/tilman/xenulink.html

    E' un tool essenziale nell'analisi siti.
    Ti controlla i link, i link rotti, mappa il sito e genera i listati con cui lavori.
    Volendo serve anche come emulatore di spider.

    Ciao.


  • User

    grazie. lo uso subito.


  • User Attivo

    @must said:

    e se intorti qualche sviluppatore, facci sapere :yuppi:

    eheh... ho lanciato l'idea stasera durante i saluti di fine giornata, in ufficio.
    Intortati li ho intortati, mi servono ancora due ingredienti: un litro di spritz e mezz'ora di attesa che faccia effetto, quindi una promessa formale di costruirmi il tool in tempi ragionevoli.

    Domani sento come butta, stay tuned.

    😉