- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Penalizzazione da violazione copyright
-
Ciao Michele ti ringrazio delle tue considerazioni ma volevo confrontarmi ulteriormente su questi punti.
Come anche detto al convegno sono una sostenitrice di ciò che è il più possibile "naturale" e "utile all'utente".
Riprendo punto per punto i tuoi argomenti:
Punto 1 keyword: non mi risulta al momento ma vi prego smentite se mi sto sbagliando che google abbia preso posizione riguardo al tag key. E' vero che google non lo inserisce tra i suoi meta ma è anche pur vero che il sito w3c.it italia ha al suo interno il tag key.
Il tag key in questo caso non è stuffing (giustamente penalizzato da google) ma un fattore assolutamente naturale che si viene a creare inserendo i tag e la categoria su wp.
Premetto: su wp è stato installato all in seo pack solo per fare il rewrite dell'url (peraltro scrittura dell'url consigliata da google).Punto 2 il tag description: se guardi la description è data dalla prima parte del testo presente nella pagina. Cosa che wp fa tutto in automatico, senza spingere con la possibilità offerta dal plug indicato sopra. E' forse questo plug che crea il pretesto per possibili penalizzazioni?.
Punto 7: contenuti duplicati. La data esatta in cui sono stati inseriti i contenuti duplicati è a partire dal giorno 30 ottobre 2009.
La home è stata duplicata a partire dal 3 novembre.
Sono caduta in penalizzazione il giorno 7 novembre. Non posso credere che sia solo un caso.Fino a quel giorno il sito godeva di visite e popolarità.
Io ci vedo molto un causa - effetto.
Fino a quel momento il sito era perfettamente posizionato.L'idea che mi sono fatta e su questo vorrei confrontarmi:
google sta spingendo per migliorare le sue ricerche in base alla esperienza del navigatore.
Il che include anche la preferenza dello stesso sui vari social dove sono aggregati i "siti preferiti".In questo caso è stato fatto un uso massiccio dei social dove non solo si duplicava il testo originale del mio sito, ma veniva linkata una pagina DIVERSA, dove era nuovamente copiato il testo.
Una operazione seo ridicola, lo ammetto, ma questo è stato fatto.
In tal maniera google ha riconosciuto la paternità del testo al sito linkato dai vari social (che naturalmente non era il mio).
Del resto se ci pensi in via del tutto logica se io dal mio social ti indico come preferito un testo presente nella pagina e poi te lo linko e come dire a tutto il mondo.
"ho trovato questo testo assolutamente interessante, l'ho trovato in questa pagina"Non è forse questo il motivo della presenza dei social network?
Non pensiamo da SEO, pensiamo da come le persone in tutto il mondo utilizzano i social. Cambiare solo di poco la prospettiva mentale e tutto risulterà molto chiaro.
Continuo a parlare degli altri punti nel pomeriggio.. devo finire un lavoro.
-
**Punto 5: **dal google web master tool ci sono 123 testi di ancoraggio tutti completamente diversi.
3 testi di ancoraggio rimandano alla home, gli altri mandano a pagine interne.
-
Ok Deborah, ho capito...
Ma credo che prima di "cambiare solo di poco la prospettiva mentale" devo essere sicuro che tecnicamente (perchè le penalizzazioni di questo tipo sono algoritmiche) il sito sia pulito al 100%.
In base alla mia esperienza non lo è per i punti sopra indicati.
Se invece reputi il contrario, allora aspettiamo che google ti risponda e prenda provvedimenti.
Io sono dell'avviso che un intervento esterno possa solo facilitare una penalizzazione, ma non determinarla.
Tienici informati a riguardo,
grazie mille per condividere con noi la tua esperienza.A presto.
Michele
-
Secondo il mio parere, confortato dai numerosi casi di penalizzazione presentati in questa sezione soprattutto nei mesi scorsi, la causa è tutta da cercarsi nei contenuti duplicati.
Vi sono diverse storie di blog che si sono affossati a causa degli aggregatori, qualcuno addirittura è stato penalizzato perché un concorrente gli copiava sistematicamente ogni post.
Non nego che la seo del sito non potrebbe essere curata meglio e forse aumentare la percezione del "trust" in casi simili, come sostiene dechigno, ma ritengo giusto il concetto fondamentale espresso da deborahdc: con questi algoritmi se il tuo sito non è già parecchio tematizzato e non gode di un trust molto buono puoi essere cancellato da un "attacco deliberato" di un concorrente.
Mi spingo oltre: qualsiasi nuovo blog (e dico blog per la presenza dei feed rss), a meno che non sia spinto con costi piuttosto elevati, può in questo momento essere fatto sparire da Google attraverso comportamenti dolosi con meno di mezz'ora di lavoro.
La chiave, almeno mi sono fatto questa idea, è tutta nel funzionamento del filtro anti-duplicazione (questa pagina madri.com/bonusarea/Posizionamento-Duplicazione-Contenuti.pdf lo descrive in maniera molto completa).
Se potessi scegliere da utente dove voler atterrare, preferirei sempre la pagina di Liquida che, oltre a darmi un testo completo ed i link alla fonte, mi propone anche decine di altri articoli sul tema. Ragionando da utente, io per primo mettere il post originale nei risultati omessi. E una percentuale troppo alta di volte nei risultati omessi fa scattare la penalizzazioneIl concetto di "paternità" fino ad oggi a Google non è interessato e come al solito nelle sue scelta ha avuto peso maggiore l'esperienza dell'utente.
Il caso specifico di questo thread è adesso difficile da analizzare, visti i cambiamenti effettuati sul sito, ma si notano ancora i segni di una possibile penalizzazione causata da duplicazione (tiny.cc/LTkpU).
Leggo che proponi di cambiare le tue pagine per eludere la penalizzazione: mi rendo conto della situazione, ma se davvero dalla parte opposta c'è un comportamento doloso, è tutto inutile (fai prima tu a generare contenuti nuovi o lui a segnalarli?).
Puoi utilizzare altre leve, da accompagnare alla generazione di contenuto (tutte purtroppo poco efficaci e assai dispendiose se davvero hai un "nemico" preprato):
- incrementare la tematizzazione attraverso backlink;
- sospendere la pubblicazione del feed;
- cercare in rete i siti che ti copiano e richiedere la rimozione;
- applicare ogni accorgimento seo possibile per minimizzare il contenuto duplicato interno (footer, barre laterali, url, description, pagine "categorie", ...);
- seguire (anche) i punti di dechigno al fine di ottimizzare al massimo il sito;
- passare alle vie legali;
- iniziare la crociata contro Google ed i suoi algoritmi (perdonami l'enfasi, ma non credo sarà una battaglia semplice).
Spero di essere stato utile nel delineare il problema e che utili siano stati i miei contributi. Vi prego di correggermi qualora abbia travisato il vostro pensiero. Resto in attesa di novità o domande.
-
Credo che il problema sia si da cercare nel filtro antiduplicazione.
Come giustamente evidenzia Deborah chiunque potrebbe fare -in certe condizioni di dominio non troppo in trust- sciacallaggio dei contenuti altrui, replicarli sulla propria home, "spammarli" attraverso i social.
Risultato ? 2 onde diverse:
- L'onda da surf, che posiziona il sito replicante come sito più credibile
- L'onda dello tzunami che penalizza il sito originale.
E' questo il problema che Deborah ha evidenziato e attende una risposta "ufficiale" da Google: cosa faccio in queste condizioni ?
Devo cambiare 400 pagine per rendere originale il mio contenuto ?
Devo rafforzare il trust del mio sito per rendermi ancora più credibile a Google ?
O devo andare di avvocato ?
-
Scusate se mi intrometto ma la situazione credo che sfiori anche il mio problema e chiedo scusa in anticipo se , involontariamente, magari finisco per dire qualche "corbelleria".
Il primo punto è che mi è sembrato sempre di aver letto che Google era in grado di "riconoscere" i siti che "copiavano" vuoi conforntando le date vuoi per altri "algoritimi".
Ora tutto a un tratto sembra che questa logica non sia più valida, e mi spiego.
Mettiamo, come credo anch'io, che sia vero che gli aggregatori siano motivodi penalizzazione dei siti "originali".
In altra parte del forum ho fatto notare di aver scoperto che ci sono aggregatori che aggragano da altri aggregatori che a loro volta lo fanno da altri e sono siti chiaramente, palesemente MFA.
Ci siamo detti anche che la politica di Google è quella della massima fruibilità dei contenuti originali per l'utente finale bene.
Ma possibile mai, chiedo, che Google non si sia accorto che io ( faccio esempio ) per cercare quella notizia ho dovuto sopportare ben 3 passaggi per un aggregatore prima di arrivare alla fonte e leggere l'articolo completo e originale, cosa che stona con la "politica" di cui si vanta?
Mi sembra strano.Io ad esempio , come suggerisce giustamente LaBussola, ho iniziato a chiudere i rubinetti dei Feed per evitare la pirateria : ma a questo punto è penalizzato chi vuole leggere i miei articoli attraverso i feed.
E' giusto , secondo Google, questo?
Ci siamo detti che i "potenti" algoritmi di Google fossero in grado di riconoscere chi copia : sembra, alla luce di questo che o gli algoritmi di Google abbiano una falla persistente, o abbiamo creduto per mesi a una bufala.Qualcuno dirà, giustamente, che è questione di thrust : ok, dico io, ma allora un sito neo-nato , anche di un 6/12 mesi , che non ha avuto il tempo materiale di avere backlink ecc. ,soccombe, giusta osservazione di LaBussola in mezz'ora di lavoro di qualche concorrente.
Ma allora significa che tra poco avremo tanti publisher scoraggiabili e scoraggiati che non produrranno più contenuti originali ( e qui entra il sospetto che sia una politca pro-vendita news ).Quindi in ultima analisi voglio proporre dei contenuti : bene devo eliminare i feed, perchè invece di punire il colpevole, si punisce la vittima.
devo stare attento anche a una sola frase ( e chi fa il giornalsita sa che una stessa frase in certi articoli è facile che sia usata da altri!) formata da 6 o 7 parole.
Ho letto l'interessantissima pagina di Madri proposta da La Bussola : sono rimasto impressionato, lo ammetto.
Addirittura l'algoritmo va a semantizzare il circoscritto di una frase e a confrontarlo!
Ma...mi sembra una cosa mostruosa!
faccio un esempio concreto : la notizia di Fabrizio Corona condannato e la sua frase " mi vergogno di essere italiano".
Scusate ma una news riporta oggettivamente anche delle dichiarazioni : se un giornalista deve preoccuparsi e avere il timore che proprone uno schema di notizia con frasi pronunciate come altri 6 magazine, mister Google pensa che sia contenuto duplicato , è mostruoso.
Vada per gli articoli copiati, vada per interi paragrafi riportati in blocco, ma una frase formata da 6 o 7 parole ( se ho capito bene) mi sembra un assurdità.A questo punto, ad esempio, visto il fenomeno che accompagna i miei siti e qualche altro, posso o no pensare che Google si stia predisponendo a una "vendita" di news e quindi cerca di fare fuori tutti quelli che possono mettersi in concorrenza diretta?
Come constatavamo io e LaBussola ( per il mio tipo di presunta penalizzazione ) se c'è un duplicato, questo è duplicato 7 giorni prima come 7 giorni dopo.
Come allo stesso modo che senso ha "penalizzare" tutti i siti raggrupati sotto un medesimo account, posti su server diversi, con temi diversi, cma diversi, addiritttura intestati a registrant diversi?Posso ammette che un publisher ha 10 siti, ne toppa due, ok la penalizzazione avviene su quei 2 , ma gli altri, integerrimi, continuano la loro strada.
Invece no, pare cha accada anche ad altri una penalizzazione "globale" che mi fa pensare che a questo punto iscriversi ad Analytics o AdSense alla fine è un boomerang.E come ad esempio anche il dispendio di energie e tempo per scrivere ai "pirati" : alcuni rispondono e ti tolgono, altri no, altri ancora non hanno un recapito dove scrivere e hanno domini intestati all'estero : figurati se ti metti a fare causa.
Ma dove sono i potenti algoritmi di Google in grado di riscontrare i pirati distinguendoli dalle vittime?Poi , ma lo scrivo nel mio post, per evitare di intasare questo, mi sono capitate altre due cose , contemporanee su tutti siti dello stesso account.
Scusate, era anche una sorte di sfogo, anche perchè se le cose stanno così come ce le stiamo dicendo, presto saranno centinaia le persone che soffriranno del problema, a meno che non siamo stati colpiti noi dalla mannaia della sfiga, tipo nuvoletta di Fantozzi per intenderci ( almeno sdrammatizzaimo va ).
-
Grazie ragazzi per le vostre preziose indicazioni e per condividere le vostre esperienze con tutti noi, è sempre un momento di crescita profonda.
Tenevo comunque a precisare, che le mie considerazioni sono riferite anche ai contenuti duplicati e non esclusivamente ai fattori on/off page del sito.
Infatti reputo che la penalizzazione sia scattata perchè piccole imprecisioni sommate hanno portato ad una "grossa" (naturalmente per Google) mancanza di qualità (penalizzando appunto il sito).
Se si tratta di contenuto duplicato, cambiando i contenuti della homepage e delle pagine copiate, il sito dovrebbe tornare in fluttuazione entro 10-15 giorni, per poi rientrare in SERP nelle posizioni che gli spettano entro 30-45 giorni.
-
@dechigno said:
5] A livello di backlinking hai lavorato principalmente su una sola keyword "Prestiti veloci online" principalmente in homepage
Potrebbe essere questo il **principale fattore di flag **che ha fatto scattare la penalizzazione successiva? (per contenuti duplicati).
Magari da un valore statistico atteso, che scongiurava del tutto quelle anchor, Google ha capito che la popolarità era "innaturale" e al successivo indizio ha penalizzato.
A pensarci bene però c'è pure da dire che il sito si chiama prestitivelocionline per cui appare anche naturale che sia lincato principalmente in quel modo e principalmente in home.
-
Ciao Micky,
si può darsi, la considerazione del keyword = dominio è corretta ma tieni presente che un linking naturale del dominio dovrebbe essere con queste anchor:
prestitivelocionline.it
www. prestitivelocionline.it
http:/ /www. prestitivelocionline.it
prestitivelocionlineQueste sono le anchor "naturali"...
-
La Risposta di un collaboratore GOOGLE sul Forum del Centro Webmaster Google
google.com/support/forum/p/webmasters/thread?tid=0fae8d5d13eb138a&hl=it
Mi pare ******************
-
Ciao grindhouse e benvenuto nel Forum GT.
Purtroppo devo contraddirti. Altrimenti come si spiega che in questo thread, relativo alla stessa penalty, Alfredo che è dipendente Google (e non semplice collaboratore) risponda così?
Ciao a tutti,e grazie per le vostre segnalazioni, che ci aiutano a migliorare la qualità dei risultati di Google.
[...]
Non posteremo sul Forum i risultati dell'esame delle vostre segnalazioni
-
Condivido la posizione di Mister.jinx, conosco personalmente Angelo Palma (abbiamo lavorato insieme ad un progetto) e a mio avviso questa sua affermazione è un po' troppo avventata, anche se effettivamente alcuni punti li condivido (li ho elencati nel primo post di risposta in questo 3D).
Il problema qui è capire il motivo della penalizzazione, perchè lo sanno tutti che se prendiamo link da banche e siti finanziari ad elevato trust il sito esce dalla penalty.
-
Gentile grindhouse, mi sembra che si sia iscritto appositamente per provocare persone che stanno discutendo civilmente.
Se vuole esprimerci la sua opinione saremo lieti di ascoltarla, altrimenti sarò felice di indicarle dov'è l'uscita.
-
Prendendo questa frase dalla risposta sul forum google:
Non si tratta di penalizzazione, ma solo di dover attendere che anche per quei siti che hanno preso il tuo posto sia finito il periodo di permanenza in quelle posizioni.
Mi pare di leggere, visto l'uso della parolina "anche", che queste fluttuazioni sono legate ad un algoritmo di "time sharing" in cui tutti i siti valutati paritetici condividono la stessa posizione. Come una specie di ex-equo.
Quindi le la fluttuazione è ciclica di n posizione, si può stabilire che c'è un ex-equo di n siti.Io avevo sempre pensato che questo "scalzare" di posizione fosse per valutare il bounce rate di un sito ritenuto interessante per i contenuti. In pratica se il sito si merita la posizione vuol dire che l'utente che ha cliccato sulla query non ne effettua una analoga per un tempo X, ma la costruzione della frase mi ha fatto pensare altrimenti.