- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Google Penalty -30
-
@Giorgiotave said:
Non è una conseguenza di altri algoritmi ma una precisa scelta editoriale, quando quel dominio si trova dopo la 30 posizione, lo mettono di default in 31
Ok, però non ho capito da dove questo si sia dedotto, ripeto non ho letto altri forum che questo!
-
Poco fa su Webmasterworld,
ho letto un post in merito alle pagine cancellate da un sito, che continuano ad essere visualizzate tra i risultati supplementari di GG e risultano 404 "pagine non trovate" nella sitemap.
Il nostro sito (oltre 3.000 pagine) ha questo tipo di problema per tutte le pagine cancellate o sottoposte a revisione editoriale (e non sono poche, diverse centinaia)
Il nostro server per le pagine non trovate 404, restituisce una pagina dove si invitano gli utenti a ripartire dalla home Page.
Secondo voi potrebbe essere un problema per la corretta indicizzazione del sito ?
Nelle nostre pagine che vengono visualizzate tra i risultati suplementari, cancellate da oltre sei mesi, sono presenti i link "affiliati" che potrebbero aver causato la penalizzazione.
Su WMW consigliano un <meta name="robots" content="noindex"> nella pagina del 404.
Voi cosa ne pensate ?
P.S. Scusatemi, adesso ed in futuro, per eventuali errori contenuti nelle citazioni tecniche.
-
@Catone said:
Ok! Un ultimo sforzo! Le 111 chiavi in questione sono molto competitive? In media quanti risultati restituiscono le serp?
Dare una media non ha molto senso; le 111 key ruotano intorno ad una decina di argomenti; ecco i valori delle serp per alcuni di essi:
1.300.000
470.000
228
33.000
220.000
1.300.000
1.220.000.000 (avete letto bene, non ho sbagliato a scrivere!)@Giorgio said:
Faccio il benvenuto nel Forum GT a Olanic (Nicola), gli chiedo se il suo sito per il nome del dominio si trova in 31 posizione o meno, così vediamo se è la stessa penalizzazione
Grazie, sempre molto gentile.Valore ricerca________Posizione________risultati
[](http://www.sito.com ________26_____________1)
www.sito.com _______ 26 ___________ 1-31 su 320 (restituisce una pagina interna)sito.com ____________ 28 ___________ 1-34 su 322 (restituisce la home)
ho letto un post in merito alle pagine cancellate da un sito, che continuano ad essere visualizzate tra i risultati supplementari di GG e risultano 404 "pagine non trovate" nella sitemap.
I mie primi problemi sono partiti da una pesante crescita del sito in numero di pagine con 2 grossi e grossolani errori:
molti link interni sbagliati
pagine con contenuto duplicato.Ho risolto in tempi molto brevi il primo errore (una settimana), e buona parte del mio tempo la sto dedicando a risolvere il secondo con il tuo stesso metodo <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> sperando dia buoni frutti - in ogni caso non credo faccia male.
Ad oggi comunque con site:www.sito.com ottengo 1-110 di circa 430 ma dalla 187 (un paio di mesi fa ero a meno di 100 però) sono tutti risultati supplementari.
Cordialmente, nicola
-
@olanic said:
Ad oggi comunque con site:www.sito.com ottengo 1-110 di circa 430 ma dalla 187 (un paio di mesi fa ero a meno di 100 però) sono tutti risultati supplementari.
Cordialmente, nicola
errata corrige ottengo 1-100
Dimenticavo di aggiungere che le "key in 31 posizione" sono ottenute google sitemaps e quindi rappresentano la media più alta su n giorni; in effetti per le stesse key oggi trovo posizioni diverse 34, 35, etc. e comunque sempre >30 e <40
-
@Google Penalty -30 said:
Le pagine interne non sono indicative...
Controllare se si è "affetti" dalla "Google Penalty -30" è semplice.
Basta digitare su l'Home page di GG : nomedominio.it.
Se il sito è in 31ma posizione hai "beccato" la "Google Penalty -30"
esatto, io ho controllato anche le tue pagine interne, non ne hai una sopra la 30.
Però non tutte le ho controllate, quindi se ne hai qualcuna sopra i 30 possiamo controllare?
@Catone said:
Ok, però non ho capito da dove questo si sia dedotto, ripeto non ho letto altri forum che questo!
mia impressione, ho visto tutto il sito portato a -30. Quindi è una penalizzazione particolare, ponderata.
@Google Penalty -30 said:
Nelle nostre pagine che vengono visualizzate tra i risultati suplementari, cancellate da oltre sei mesi, sono presenti i link "affiliati" che potrebbero aver causato la penalizzazione.
Su WMW consigliano un <meta name="robots" content="noindex"> nella pagina del 404.
Voi cosa ne pensate ?
Chiedi la cancellazione delle pagine, c'è un modulo apposito per farlo ed è veloce
http://www.google.it/intl/it/webmasters/remove.html
http://services.google.com:8882/urlconsole/controller?cmd=reload&lastcmd=login@olanic said:
Grazie, sempre molto gentile.
sito.com ____________ 28 ___________ 1-34 su 322 (restituisce la home)
I mie primi problemi sono partiti da una pesante crescita del sito in numero di pagine con 2 grossi e grossolani errori:
molti link interni sbagliati
pagine con contenuto duplicato.Figurati
Nicola non vorrei sbagliare ma la tua mi sembra una situazione diversa, posso vedere (anche in pvt se vuoi) la tua situazione ed il tuo sito?
Così se è diversa dedichiamo un topic al tuo problema.
Comunque quello che dici è importante: **pagine con contenuto duplicato
**Sappiamo che scatta un filtro particolare e che quindi...si può venire penalizzati
Comunque, siccome mi dici -30, vorrei controllare, se si può sempre
Giorgio
-
Ho un sito a -30 da più di 1 anno. Il settore è turistico. Posso confermare che tale penalizzazione è riconoscibile tramite la semplice tecnica illustrata da Google Penalty -30. Questo non vuol dire che viene affibbiata al sito un handicap di -30 posizioni rispetto a quelle ante-penalty, per serp molto competitive cui risultavo almeno 4° ora sono assolutamente non presente nei primi 1000 risultati (supplementari inclusi).
Le cause della penalizzazione sono a me ben note, si tratta di tecniche assolutamente scorrette come cloacking e testo nascosto ma mai rimosse (finchè la barca va lasciala andare...!?!), o meglio, non rimosse in tempo. Oggi naturalmente è tutto pulito e sistemato, ho da poco richiesto la revoca della penalizzazione tramite sitemaps.
E' la seconda volta che mi capita di dover risolvere ua situazione del genere. La prima volta ho rifatto completamente il sito, ho generato la sitemap e ho richiesto la riammissione: in 1 mese circa sono tornato normalmente nelle serp, anche meglio di prima.
Preciso che i 2 siti succitati li ho presi in gestione già in quelle condizioni. 1 l'ho salvato, spero di avere successo anche col secondo.
In bocca al lupo...
PS:
@Google Penalty -30 said:Mi permetto di inserire il primo messaggio giunto a WebmasterWorld (il forum è a pagamento) siglato 1cents datato 13 ottobre 2006, per far comprendere la situazione.
Webmasterworld non è a pagamento: http://www.webmasterworld.com/regv4.cgiSono bravi a far sembrare obbligatorio il contributo a supporto del forum ma in realtà la registrazione/fruizione della board è gratuita.
Ciao
-
Ciao Madai,
il nostro sito non ha mai utilizzato queste tecniche.
Noi avevamo, nella vasta sezione travel, un numero ingente di link affiliati.
Da mesi per i contenuti siamo ok.
Stiamo adesso pensano di personalizzare meglio le descrizioni (meta) delle singole pagine.
In privato ti invio l'url del sito.
Ringrazio giorgio per il consiglio, ho già attivato un account per la rimozione delle pagine contenute nei risultati supplementari.
-
Hai già fatto richiesta di reinclusione dal pannello sitemaps?
-
Si lo abbiamo fatto una decina di giorni fa.
Ho spiegato nel dettaglio cosa abbiamo fatto.
Al nostro sito in otto mesi hanno lavorato una ventina di persone tra giornalisti (in gran parte e che pubblicamente ringrazio) e tecnici per l'elaborazione del database in Ajax.
Tra qualche minuto, ad esempio incominceremo la pubblicazione degli articoli dedicati allo Shopping ed agli Outlet.
Uno per ogni regione italiana.
E così abbiammo fatto per Concerti, sagre, gastronomia, enoteche, ristoranti..
Tra breve nella sezione teatro, ad esempio, inseriremo il cartellone n.100.
Il nostro obiettivo è di dedicare una pagina regionale per ogni aspetto che ruota intorno al turismo, come ad esempio l'enogastronomia.
Le strade dell'Olio ? Ci sono.
Del Vino ? Anche.
Della pasta e del Formaggio ? Anche.Vogliono contenuti validi. Glieli diamo.
Faccio il giornalista da vent'anni, offrire contenuti non mi impressiona...
Se abbiamo violato la regola:
"Se il tuo sito partecipa a un programma affiliato, accertati che vi aggiunga valore. Fornisci contenuti univoci e pertinenti, che diano agli utenti un motivo per visitare il tuo sito prima di altri. "
E solo perchè ritenevamo, sbagliando, che il co-brand fosse contenuto di valore.
Ora riteniamo di non violarla più e per questo abbiamo richiesto la reinclusione a DMOZ e a GOOGLE.
-
Mi mandate il link gentilmente? io e Kerouac vorremmo vedere
-
Io ho capito quale è il sito , infatti quando hai avuto la penalizzazione e non ti ho trovato più nelle serp mi è crollato un mito !!! , comunque la butto li tanto per dire la mia :
non è che c'è qualche competitor dietro a tutto questo dato che il settore dove ti muovi è moooolto competitivo e tu con il tuo sito eri molto forte su key moooooooolto renumerative ?
-
:bho: @linuxmafiait said:
Io ho capito quale è il sito , infatti quando hai avuto la penalizzazione e non ti ho trovato più nelle serp mi è crollato un mito !!! , comunque la butto li tanto per dire la mia :
non è che c'è qualche competitor dietro a tutto questo dato che il settore dove ti muovi è moooolto competitivo e tu con il tuo sito eri molto forte su key moooooooolto renumerative ?Penso di aver capito anche io di che sito si tratta visto che fino a l'altro anno era ben posizionato per Capodanno, argomento che ben seguo, ed sono rimasto sorpreso quando questo anno non lo trovavo, cmq vorrei essere sicuro che sia quello puoi mandarmi l'url
-
@Giorgiotave said:
.
.
.
mia impressione, ho visto tutto il sito portato a -30. Quindi è una penalizzazione particolare, ponderata.
.
.
.
Nicola non vorrei sbagliare ma la tua mi sembra una situazione diversa, posso vedere (anche in pvt se vuoi) la tua situazione ed il tuo sito?Ciao Giorgio,
per i motivi detti nel primo intervento, il mio sito non è un bel bgilietto da visita o comunque non mi rappresenta come vorrei, per cui il sito lo dirò più avanti.
Sono certo però che si tratta della stessa penalizzazione, la -30, in quanto non vi è una key con serp >30 che mi da un risultato nei primi 30; prima della penalizzazione con una di queste key sono stato primo per circa sei mesi.
In base alle informazioni fin qui raccolte sintettizzo il mio pensiero mettendo al primo punto la tua considerazione- La penalizzazione -30 esiste ed è una penalizzazione particolare e ponderata.
- La penalizzazione -30 è applicata a tutto il sito
- La penalizzazione -30 NON è manuale (google dice poco e voglio credere che quel poco che dice è vero)
- Se di penalizzazione si tratta, se riguarda tutto il sito, se non è manuale, se non è un "ban" ovvero non è ritenuta "gravissima" allora dovremmo cercare una causa plausibile.
- Una causa plausibile per penalizzare un intero sito, secondo me, o è una "infrazione" ripetuta in tutte le pagine del sito o ripetuta "oltre una certa soglia" (fissa o in percentuale alle pagine totali del sito).
Tutto ciò premesso, le cause "plausibili", applicabili al mio sito sono:
a) Testo e link nascosti
b) Sovraottimizzazione
c) Contenuti sostanzialmente duplicati
Se è vero che due casi non sono una regola, è anche vero che se regola c'è è applicata a tutti. Per quanto affermato da Google Penalty la a) non dovrebbe essere la causa plausibile che cerchiamo.
La b) potrebbe essere ma la c) mi convince di più.
Giorgio hai detto che la causa c) è già nota come note sono le penalizzazioni applicate; ti vorrei quindi chiedere due cose:
hai notizie recenti di questo tipo di penalizzazioni o potrebbe essere un aggiornamento dell'algoritmo di google e se, puoi, puoi dire che tipo di penalizzazioni sono?
l'altra domanda invece verte sulla quantità di "contenuto duplicato", ovvero non potrebbe essere che superato la soglia del punto 5. la penalizzazione prende questa nuova forma ovvero diventa -30?
Probabilmente da buon principiante avrò detto tante (spero non solo) sciocchezze ma, anche solo per curiosità, chiedo a PENALTY se con la ricerca con site:www.suosito.com ottiene il messaggio "Al fine di visualizzare i risultati più rilevanti, sono state omesse alcune voci molto simili alle xxx già visualizzate."
Se si posso sapere quante pagine omesse e su quale totale?
Cordialmente, nicola
-
No è tutto regolare.
Risultati 1 - 10 su circa 11.600 .
al primo posto c'è l'home page e poi tutti gli altri.
-
@Giorgiotave said:
Sbagli, imho
La penalizzazione in questione avviene manualmente, ergo, non c'è nessuna mossa automatica che la può sbloccare
Quindi...occorre una risposta da Google; attualmente è possibile farlo attraverso la reinclusione, perchè è l'unico strumento che permette ad un controllo umano di visitare il sito e riammetterlo.
Non è possibille che un chicchesia risolva la questione, questa penalizzazione è particolare
Assolutamente no, i quality rater non c'entrano niente, non hanno queste facoltà.
Queste sono scelte editoriali, un quality rater non ha questi poteri. Figuriamoci se un ora un quality rater o tanti possano fare tanto.
Secondo me è ben altro che un Quality Rater
Aggiungo: non ho niente contro i Quality Rater, anzi io apprezzo molto il loro lavoro che permette alle SERP di essere migliori. Solo che la penalizzazione non può venire da loro, ma è una precisa scelta editoriale ed è impensabile che una Società Quotata in Borsa possa solo far percepire delle scelte editoriali che hanno come conseguenza una penalizzazione molto pericolosa ad un Quality Rater, che ha un contratto di un anno non rinnovabile (a quanto ne so).
Ciao Giorgio,
è chiaro che un Quality Rater non ha il potere da solo di penalizzare un website. Ma di segnalare sì....senno' che ci stanno a fare?
A questo punto, un sito segnalato viene messo in una posizione di non nuocere (31°) a mano - come peraltro dici tu - quindi non dall'algoritmo - come dico io.
-
Sarei curioso di conoscere anch'io il sito, anche perchè con quella mole di contenuti originali le visite dovrebbero essere dieci volte tanto, a dir poco.
-
@_someone_ said:
è chiaro che un Quality Rater non ha il potere da solo di penalizzare un website. Ma di segnalare sì....senno' che ci stanno a fare?
A questo punto, un sito segnalato viene messo in una posizione di non nuocere (31°) a mano - come peraltro dici tu - quindi non dall'algoritmo - come dico io.Non penso Someone, i Quality Rater danno un punteggio che va da 1 a 5 (se non erro) del sito, e i dati vengono usati per altro.
Non mi sembra che possano segnalare un solo sito, ma solo dare un voto.
E siccome per quella penalizzazione ci sono motivi precisi, non penso che i voti sulla validità di un sito nelle SERP (che sono sul generale) possano influenzare i siti...per questa precisa penalizzazione.
O...naturalmente secondo me
@olanic said:
Ciao Giorgio,
per i motivi detti nel primo intervento, il mio sito non è un bel bgilietto da visita o comunque non mi rappresenta come vorrei, per cui il sito lo dirò più avanti.Discussione di Olanic tagliata perchè diventa il quote lungo, ma tutta molto interessante.
Cordialmente, nicola
Ciao Nicola,
molto interessante quanto scrivi, rispondo prima alle due domande:
hai notizie recenti di questo tipo di penalizzazioni o potrebbe essere un aggiornamento dell'algoritmo di google e se, puoi, puoi dire che tipo di penalizzazioni sono?
Non ricordo il titolo del topic, ma su questo forum si è parlato molto di quando Google ha iniziato a penalizzare di più i siti con contenuto duplicato.
Qualcuno lo ricorda?
l'altra domanda invece verte sulla quantità di "contenuto duplicato", ovvero non potrebbe essere che superato la soglia del punto 5. la penalizzazione prende questa nuova forma ovvero diventa -30?
Ecco.
Secondo il mio parere, qualsiasi sia il motivo di questa penalizzazione, non è fatta in modo automatico.
Questo perchè ci può essere sempre un errore e quindi la penalizzazione (meglio filtro) dovrebbe essere fatta in modo semi-automatico.
Penso che in automatico passino una lista di Domini con certe caratteristiche e poi li vaglino.
Ma siccome tu dici: La penalizzazione -30 NON è manuale (google dice poco e voglio credere che quel poco che dice è vero)
Saresti così gentile da tradurre il pezzo in Italiano con il link alla risorsa dove qualcuno di Google afferma questo, vorrei capire alcune cose.
I motivi vanno ricercarti facendo un'indagine tra questi siti penalizzati, mi sembra che comunque molti di questi commettevano una scorrettezza in tutto il sito web, e non in una singola pagina. Forse potrebbe essere una penalizzazione atta a far cadere la struttura di chi non segue le linee guida in tutto il sito e non su alcune parti.
Anche in questa ipotesi, sono per la penalizzazione Semi-Automatica.
Però qui non sono il massimo esperto, mi piacerebbe avere il parere di Stuart, Low, Pieropan, Everfluxx, Nbriani (ha già dato), Agoago e Beke, che mi sembrano avere un certo approccio al SEO molto più tecnico** per l'argomento che stiamo trattando.
**
-
@Giorgiotave said:
Questo perchè ci può essere sempre un errore e quindi la penalizzazione (meglio filtro) dovrebbe essere fatta in modo semi-automatico.
Penso che in automatico passino una lista di Domini con certe caratteristiche e poi li vaglino.
Ma siccome tu dici: La penalizzazione -30 NON è manuale (google dice poco e voglio credere che quel poco che dice è vero)
Saresti così gentile da tradurre il pezzo in Italiano con il link alla risorsa dove qualcuno di Google afferma questo, vorrei capire alcune cose.
Non è necessaria la traduzione: https://www.google.com/webmasters/sitemaps/spamreport?hl=it
mi riferivo a questo passaggio
.... I dati di tutte le segnalazioni di spam verranno comunque utilizzati per migliorare il nostro sistema di classificazione dei siti e gli algoritmi di filtro e col tempo ciò dovrebbe aumentare la qualità dei risultati...che se vuoi si riallaccia a quanto da te definito "penalizzazione Semi-Automatica"
@Giorgiotave said:
I motivi vanno ricercarti facendo un'indagine tra questi siti penalizzati, mi sembra che comunque molti di questi commettevano una scorrettezza in tutto il sito web, e non in una singola pagina. Forse potrebbe essere una penalizzazione atta a far cadere la struttura di chi non segue le linee guida in tutto il sito e non su alcune parti.
Io avevo azzardato l'ipotesi che la scorrettezza non doveva necessariamente essere su tutto il sito ma superare una certa soglia.
Ho anche elencato quelle che sono le mie "plausibili infrazioni" ma purtroppo non vi sono riscontri...
cordialmente, nicola
-
@olanic said:
Non è necessaria la traduzione: https://www.google.com/webmasters/sitemaps/spamreport?hl=it
mi riferivo a questo passaggio
.... I dati di tutte le segnalazioni di spam verranno comunque utilizzati per migliorare il nostro sistema di classificazione dei siti e gli algoritmi di filtro e col tempo ciò dovrebbe aumentare la qualità dei risultati...che se vuoi si riallaccia a quanto da te definito "penalizzazione Semi-Automatica"
Ecco si, Semi-Automatica, credevo che in qualche forum/blog/sito ci fosse una posizione Semi-Ufficiale (per resta in tema di Semi :D) da parte di qualcuno che sta in Google e/o Google Stessa (difficile).
@olanic said:
Io avevo azzardato l'ipotesi che la scorrettezza non doveva necessariamente essere su tutto il sito ma superare una certa soglia.
Ho anche elencato quelle che sono le mie "plausibili infrazioni" ma purtroppo non vi sono riscontri...
cordialmente, nicola
Capisco...
E' un casino...:(
-
@Giorgiotave said:
Non penso Someone, i Quality Rater danno un punteggio che va da 1 a 5 (se non erro) del sito, e i dati vengono usati per altro.
Giorgio, i QR partecipano a progetti diversi, per quel che so io. Per es. ti riporto brani di un quality rater in cui spiega - fine dove puo' - cio' che fa:
*"Ognuno di noi collabora in diversi progetti, con diverse mansioni e metodologie di valutazione. Io personalemnte non valuto le combinazioni di chiavi ma i risulati in base alla rilevanza rispetto alla query.. in base ai contenuti e rilevo se c'è spam."
"Ci sono diversi rater che lavorano a diversi progetti contemporanweamente.
Il mio primo progetto si trattava di valutare per ogni query un singolo risultato... e nel caso identificarne lo spam ed il tipo.
Ora mi è stato affidato un altro progetto, quello di valutare non singoli results ma una serie di risults. In sostanza ho due serie di risultati e io devo valutare quale eà il migliore i base a come sono ordinati i riusltati e quale contiene i riusltati migliori.
Penso che combinando questi due tipi di valutazione si possano avere dei risultati ottimali..da un lato viene valutato ogni singolo result o sito.. poi una serie di risultati..."*
Trattandosi di una penalizzazione e non di un ban, deduco che chi ha filtrato il website (umano come io credo, o algo come altri pensano) ha riscontrato qualcosa di poco chiaro e quindi lo ha messo primo nella pagina dei perdenti, oltre la 3a è noto non ci va nessuno, sopratutto per kws molto competitive (turismo), dove ci sono competitors molto validi.