• User Newbie

    Penalizzazione: mi aiutate a capire il motivo

    Salve a tutti,
    qualche esperto può aiutarmi a capire il motivo della penalizzazione del mio portale??

    Da circa 10 giorni visite ridotte di almeno due terzi e la pagina index è in ultima pagina su tutte le ricerche.
    Sempre la pagina index che solitamente veniva indicizzata ogni 1-2 giorni risulta indicizzata l'ultima volta il 12 dicembre. 😞

    L'unica mia idea sulla possibile causa di penalizzazione sono i numerosissimi tag presenti negli articoli del blog.

    E' possibile sia questo?

    Quale può essere la ragione altrimenti?

    Come posso uscirne? Pare sia una penalizzazione -950.... :gtsad:

    Aiutatemi, vi prego!!!
    Grazie a chi vorrà rispondere... 😞

    Dominio:
    affarando.it

    Motori:
    Google

    Prima indicizzazione o attività:
    luglio 2009

    Cambiamenti effettuati:
    nessuno da marzo 2010 (nuovo blog)

    Eventi legati ai link:
    nessuno

    Sito realizzato con:
    php

    Come ho aumentato la popolarità:
    inserendo sempre contenuti nuovi ed originali

    Chiavi:
    negozi on line, shopping online, acquisti, vendita online

    Sitemaps:
    Si


  • Super User

    Ciao affarando,
    iniziamo per gradi e aspettiamo l'evoluzione della situazione 🙂

    Inizia a rimuovere tutte le parti come questa

    Le parole più cercate per Simpatico Tech

    smartphone, telefonini, telefonino usato, prodotti usati, usato, usati, smartphone usati, vendita, acquista, listino, sconti, offerte, promozioni, occasione, HTC, smart phone, cellulari usati

    Presenti nelle varie schede.


  • User Newbie

    Grazie mille RoPa per la risposta! Davvero, almeno inizio a capirci qualcosa perchè avere una penalizzazione del genere senza alcuna idea è bruttisssimo! 😞
    Ora che ci penso le keywords le abbiamo rese visibili giusto da 3-4 mesi.....:():
    Potrebbe essere la causa?

    Comunque le ho rimosse, come mi hai detto tu! 😉

    Inoltre ho una domanda per te che sei così gentile da aiutarmi: se guardi il blog (lo trovi cliccando sul tasto in homepage) puoi dirmi se secondo te i tanti tag per ogni articolo possono essere considerati contenuti duplicati?

    Adesso li sto togliendo e ne lascio 2-3 per ogni articolo (quindi negli articoli più recenti ne vedi pochi), ma prima erano anche 10 per articolo!!

    Ho questo dubbio perchè negli ultimi mesi ho lavorato molto sul blog perchè comunque funzionava bene...e non vorrei fosse stato proprio lui a suggerire la penalizzazione a mr google... :mmm:

    Altra domanda, per tutti....una volta eliminato quel contenuto duplicato devo fare la richiesta di reinclusione a Google?

    Mi potete spiegare un po' come funziona? Vi ringrazio molto

    Sara


  • Super User

    Hai controllato di non avere indicizzato anche le categorie?
    Se sono indicizzate è prebabile che assieme ai tag producano contenuti duplicati.


  • User Attivo

    Qualcuno mi corregga se mi sbaglio, ma i contenuti doppi non dovrebbero richiamare penalizzazioni. Google a questo punto tra le pagine che considera avere contenuti troppo simili ne sceglie una da indicizzare ed alle altre non fa caso come indicizzazione. Ricordo che esiste un tag specifico per indicare a Google quale pagina considerare originale tra i "doppioni".


  • User Attivo

    Mi correggo - non è un tag, ma un parametro. "canonical". ed indica la pagina da indicizzare. Evitando sorprese de tipo che google indicizzi una pagina a caso tra quelle che ritiene di contenuti raddoppiati. Ribadisco che di regola Google non penalizza per pagine con contenuti doppi. Eccetto il caso quando pensa che i doppioni siano fatti a scoppo di manipolare il posizionamento del sito nelle SERP.


  • ModSenior

    Ciao Monte_Cristo e benvenuto nel Forum GT.

    In realtà c'è una certa differenza. Usare il robots.txt e il metatag robots con noindex o noindex,nofollow sulle pagine duplicate risparmia risorse ai crawler in quanto si eviterà che la pagina venga processata.

    Invece l'applicazione del rel="canonical" -che lo ripetiamo è un semplice consiglio di Google e non una direttiva ufficiale del W3C- implica che comunque la pagina venga scaricata negli indici di Google e processata.

    Quanto indicato dal suggerimento rel="canonical" viene quindi applicato alle pagine solo in una fase successiva al crawling e all'indexing.


  • User Newbie

    Grazie a tutti dei consigli...

    Qualcuno sa dirmi qualcosa circa i Tag del Blog? Pensate possano incidere ed essere considerati contenuti duplicati essendo tanti per ogni articolo?

    Inoltre...come devo procedere ora che ho rimosso le keywords visibili da ogni pagina come suggerito da RoPa?
    Devo chiedere la riconsiderazione del dominio a Google?
    Grazie

    Sara


  • Super User

    No, aspettiamo un po' e vediamo eventuali novità. La riconsiderazione teniamola per casi eccezionali. 😉


  • User Newbie

    Dici? ma c'è possibilità che si riprenda da solo?


  • User Attivo

    @mister.jinx said:

    Ciao Monte_Cristo e benvenuto nel Forum GT.

    In realtà c'è una certa differenza. Usare il robots.txt e il metatag robots con noindex o noindex,nofollow sulle pagine duplicate risparmia risorse ai crawler in quanto si eviterà che la pagina venga processata.

    Invece l'applicazione del rel="canonical" -che lo ripetiamo è un semplice consiglio di Google e non una direttiva ufficiale del W3C- implica che comunque la pagina venga scaricata negli indici di Google e processata.

    Quanto indicato dal suggerimento rel="canonical" viene quindi applicato alle pagine solo in una fase successiva al crawling e all'indexing.

    Bentrovati Mister.jinx. E' verissimo quello che dici. Ma il mio ragionamento era proprio quello - visto che Google stessa consiglia il canonical vuole dire che non può essere troppo fiscale riguardo le ripetizioni. E poi, se le pagine indicizzate da mesi cominciano a crollare adesso, ma delle modifiche nel frattempo non hanno sofferto, ci sono solo 2 ipotesi - 1 google ha cambiato qualcosa nei suoi principi di posizionamento, e le pagine vengono riposizionati secondo quei principi, oppure Google ha capito appena tra un paio di mesi che ci sono dei doppioni tanto gravi da essere considerati spam... La seconda mi sembra improbabile. Non puo metterci tanto. M d'altra parte se fosse una faccenda a livello di principi interni di google per posizionamento, l'effetto sarebbe notato da un sacco di siti, e quindi e ancora più improbabile che sia questo il motivo. Escluso il google dance, per me i fattori onpage sono esauriti.
    Manca l'offpage. Chissà chi ti linka, e chi linki tu? Ne sei sicuro della qualità dei tuoi partner di linking?. D'altra parte non ho ancora esperienza vastissime nel campo. Sarei curioso dei commenti degli senior SEO sul mio ragionamento.


  • User Attivo

    cavoli, ho appena visto le tue pagine (avrei dovuto farlo subito, invece mi sono perso a teorizzatore). Sono veramente troppo simili e sono tantissime di loro troppo simili. Almeno i titoli e le description. inoltre ho visto i tuoi links. Hai per caso acquistato dei links in entrata?


  • ModSenior

    Ipotizzando che i duplicati interni a un sito puoi sempre risolverli perché ne hai il pieno controllo (anche attraverso alcuni tool che trovi dentro gli strumenti per webmaster), per il rel="canonical" io immagino una cosa diversa.

    Immagina una serie di siti che dall'esterno ti backlinkano una stessa pagina con parametri sulla URL differenti che cosa accade ? Che probabilmente Google troverà URL diverse per la stessa pagina.

    Ecco che in quel caso specifico il canonical è l'unica soluzione che il webmaster ha per suggerire a Google la forma di URL più appropriata.


  • User Attivo

    Grande Mister.jinx. Nel caso di cui parli, il rel="canonical" è veramente utilissimo. Buono anche il video di Madri. Non lo avevo visto. Grazie


  • User Newbie

    Grazie a tutti per le segnalazioni...
    Avendo visto il video che ha postato Mister.jinx. ne deduco che i tanti tag sono un problema...quindi vado ad eliminare quelli di troppo, giusto?

    No, mai acquistato link....

    Quindi come mi consigliate di procedere?


  • User Attivo

    Sara, direi intanto - non smettere di "rompere" anche se delle volte nessuno ti risponda continua a chiedere. Io ti vorrei dare dei consigli da esperto, ma non ho una tal esperienza come RoPa o Mister.jinx
    A livello teorico, ne ho trovate 95% di pagine tra il migliaio che Google mostra con i contenuti del title e description automatizzato. Non ho avuto a che fare con i negozi grandi come il tuo. Certamente, fare 10000 descrizioni a mano e cercare di renderle tutte diverse, sarebbe una pazzia. Ma Google da valore ai Title. E comunque se non ai fini di posizionamento, ma anche ai description. Per me la tua è una percentuale veramente elevatissima di pagine troppo simili a quei livelli. Per me potrebbe essere un problema. Ma dirti - metti a cambiare i title e description delle 10000 pagine e vediamo che fa Google, non me la sento affatto. Magari potresti indagare un po di più su come fanno i title dei altri grandi negozi. Ad esempio amazon? Basterebbe una ricerca "site:" per prendere le 1000 pagine da google del sito e vedere l'elenco dei title e description? Inoltre -è possibile che i soliti principi di automatizzazione li utilizzi anche in qualche tag h1 nelle pagine?


  • Super User

    I tag sono sicuramente un problema da valutare, così come i contenuti duplicati interni ed esterni e altri problemi. Ora abbiamo fatto solo la prima modifica, aspettiamo eventuali novità e agiamo di conseguenza.

    Riguardo al guardare gli altri siti, è un consiglio assolutamete da seguire ma da prendere con le pinze. E' giustissimo farlo sempre e comunque, ma non pensare che se una cosa la fanno su Amazon allora sia una cosa giusta. Ci sono tantissimi fattori dietro e spesso azioni compiute da un nostro concorrente a noi sarebbero letali o viceversa.


  • User Attivo

    100% D'accordo. E' un campo minato. Non intendevo dire copiare, se questo era il vero messaggio, mi devo scusare. Intendevo fare un opinione sulla massa di negozi. ho preso come esempio Amazon, ma no intendevo limitarsi a quello. E mentre copiare parte della strategia di un solo concorrente, potrebbe essere dannoso, perché non si conosce mai cosa in primis lo tiene attaccato al primo posto - se si trova che la maggioranza dei negozi studiati hanno i titoli simili a quelli di Sara - intendo automatizzati e molto simili tra di loro ed in cosi grande quantità - io personalmente traggo la conclusione che la tecnica è inoffensiva. Per me quella può essere definita normalità e prenderla come regola. Ma ripeto sto teorizzando - le critiche dei colleghi pratici con esperienza alle spalle sono più che benvenute!


  • User Newbie

    @Monte_Cristto said:

    A livello teorico, ne ho trovate 95% di pagine tra il migliaio che Google mostra con i contenuti del title e description automatizzato. Non ho avuto a che fare con i negozi grandi come il tuo. Certamente, fare 10000 descrizioni a mano e cercare di renderle tutte diverse, sarebbe una pazzia. Ma Google da valore ai Title. E comunque se non ai fini di posizionamento, ma anche ai description. Per me la tua è una percentuale veramente elevatissima di pagine troppo simili a quei livelli. Per me potrebbe essere un problema.

    Le pagine sono scritte a mano, tutte. Non abbiamo alcun sistema automatizzato. Ovvio che quando tratti negozi che vendono lo stesso articolo non si ha molta scelta e dopo più di 7000 schede negozi i titoli è facile farli simili tra loro.... :rollo:
    Il fatto è che il sito non ha mai avuto problemi in un anno e mezzo che è online con questo sistema...
    Le uniche cose relativamente recenti sono il blog (da marzo 2010) e le parole chiave visibili su ogni scheda (ora rimosse su consiglio di RoPa) aggiunte 3-4 mesi fa.

    Altri consigli? :mmm:


  • User Attivo

    Allora VIVA RoPa.
    Secondo me hai proprio risolto. Mi sa che li devi una birra come minimo, diversamente, un paio di cartoni :1:
    In Bocca al lupo!