- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- sul filtro anti duplicazione.
-
ok, allora cambiamo da "come affossare un concorrente" a "come un concorrente puo' affossare noi".
ristabilita l'etica.
-
@must said:
ok, allora cambiamo da "come affossare un concorrente" a "come un concorrente puo' affossare noi".
ristabilita l'etica.
fallo fallo epoi facci sapere
-
Dipende da che concorrente si vuole affossare
A questo punto l'etica non è importante perchè il test lo possiamo fare su tante pagine diverse anche nostre e ce ne freghiamo del concorrente.
Ma quale pagina vogliamo affossare?
Far scattare questo filtro è difficilissimo. Su pagine dello stesso sito è facile ma su siti diversi....
Dipende da molti fattori anche e sopratutto dai mezzi che abbiamo a disposizione
Ecco:
http://www.google.it/search?hl=it&c2coff=1&q=Hacked+by+batistuta&btnG=Cerca&meta=
Credere ancora che siete in grado di farlo scattare?
Attenzione poi con chi avete a che fare. Attenti che non ci sia un SEO dietro. E che questo SEO sia esperto e non tanto occupato.
-
@Rinzi said:
detto questo, mi sembra che sarrebbe il caso di mantenere una certa etica.....
direi che invece di cercare di fregare gli altri
dovremmo cercare di migliorare noi, non sei daccordo....insomma in seguito alle giuste considerazioni di Giorgio mi permetto di autoquotarmi
-
Il test è più che valido e possiamo usare anche delle pagine del mio sito, possiamo farlo benissimo.
Per migliorarci e scoprire come tutelarci in un futuro.
Vi dico che:
- i link che ho sono troppi, quindi servono troppe risorse
- basta mettere a rotazione delle frasi nei primi 250 caratteri e il filtro non DOVREBBE scattare
Proviamo?
-
Il filtro antiduplicazione ..... mmhhhh!!!! Farlo funzionare egregiamente dovrebbe essere (il sito clone) posizionato sullo stesso server o quanto meno sullo stesso hosting, non credo (mio giudizio personale con una piccola esperienza) che Mister GG riesca a far funzionare a dovere il suo cosidetto filtro antiduplicazione quanto il tutto è posizionato in parti diverse, troppo dispendioso il controllo e voi programmatori se analizzat bene la cosa me lo insegnereste sicuramente, cmq una prova si potrebbe fare, > - basta mettere a rotazione delle frasi nei primi 250 caratteri e il filtro non DOVREBBE scattare non scatta giorgino, non scatta
-
boh, ho la vaga sensazione di non aver espresso bene lo scopo del test.
e quindi lascio proprio stare.
-
@must said:
boh, ho la vaga sensazione di non aver espresso bene lo scopo del test.
e quindi lascio proprio stare.
No, se pensi di non esserti spiegato, fallo , porta avanti il test e mettici a conoscenza dei risultati
-
@must said:
boh, ho la vaga sensazione di non aver espresso bene lo scopo del test.
e quindi lascio proprio stare.must io resto a tua disposizione per fare questo test
-
la mia curiosita' (nata da una somma di alcuni post qua e la') era: nel caso ho un sito poco aggiornato, diciamo fondamentalmente statico, puo' bastare quel ca%%o di trucco per farmi segare il sito dai motori di ricerca?
basta cosi' poco?
ovviamente la risposta che speravo di ottenere e' °OVVIAMENTE NO".
e credo che lo sia, ma per scrupolo avrei fatto questo test.
-
Possiamo farlo benissimo, hai un sito?
-
Intervengo in questo 3d per mettere in rete una mia supposizione.
Il Buon Positano accennava sopra al fatto che molto difficilmente GG spenderebbe risorse per controllare eventuali pagine "troppo simili", perchè sarebbe un lavoro troppo lungo e oneroso.
Io non sono d'accordo nella maniera + assoluta, non vedo ne tecnicamente ne economicamente un problema per fare il controllo.
Lo potrebbe fare in mille modi per esempio... esso ha già nel suo db le pagine ( quindi nessun costo aggiuntivo a livello di memorie di massa ) basterebbe un algoritmo che nel leggerle attribuisca un punteggio a ciascuna di esse.
Terminata la lettura tutte le pagine con lo stesso punteggio o con un punteggio entro dei range stabiliti prima sarebbero quelle teoricamente simili o uguali.
A questo punto il gioco sarebbe fatto e chi ne paga dazio attualmente sono le pagine con minore indice di popolarità.
A conferma di quest'ultimo particolare vi racconto un episodio.
Mesi fa feci una door per posizionarmi con una keyphrase.
Inizialmente la pagina arrivò senza problemi in testa alla serp, tanto che venne notata da una web-agency che me la plagiò.
Immediatamente pensarono anche di pompare pr a spron battuto dietro quella pagina e.... morale della favola loro con la (loro/mia) pagina presero il posto della mia originale.
Però e questa potrebbe anche essere una bella novità... da un paio di settimane è ricomparsa la mia di pagina
Volete sapere perchè ?
Perchè hanno messo troppi links non a tema e tutti d'un botto... meditate ragazzi su questa favola.
-
Bella la favola del piccolo uomo delle doorways che diventa re!
Comunque, il test e' estremamente interessante, altroche'!
Se qualcun'altro potrebbe farlo, la questione e' proprio di sicurezza del proprio lavoro di SEO!
E potrebbe risolvere diversamente una questione altrimenti piuttosto univoca, cioe' che non si puo' danneggiare le pagine altrui, e forse anche Montalb...ehm, Fabio insegna!
Comunque se il test non si risolve negativamente, e' roba da...
Altra cosa, il fatto che il filtro possa scattare solo in presenza di un certo legame di "parentela" mi pare un po' improbabile, perche' figuriamoci se non hanno preventivato casi di plagio che possono colpire le aree piu' remote dove sono ospitati i siti in questione.
Ma non basta verificare la data di archiviazione per decidere quale dei due o + siti ha il diritto di passare il filtro?
Dai ragazzi, vediamola un po' questa cosa...
-
ho fatto un piccolo test su questa cosa....praticamente ho un sito (sito1) che non è per niente ottimizzato ma comunque presente sui vari mdr, non mi interessa molto posizionarlo, in cui ho messo una door proprio come index.htm, ottimizzata per una key, che punta a index.asp, bene, su google è arrivato fino in quarta pagina per quella key.
Dopodichè mi sono creato un account su altervista (sito2), sempre come index.htm ho messo la stessa identica pagina, google ha trovato la pagina grazie ad un link presente sul sito a cui mi ero iscritto per le statistiche...
dopo circa 10 giorni che ero fermo in quarta pagina di gg col sito1, durante un normale controllo noto che sito1 è praticamente sparito anche se comunque è sempre presente nel db, mentre sito 2 si è posizionato in seconda pagina, adesso che sono passati circa 3 giorni ho provato a modificare leggermente la pagina di sito1, ora guardo che succede...
-
Ottimo, anche se per adesso il test mi preoccupa...
-
peccato che ripensandoci era meglio se continuavo a lasciare le pagine uguali e vedere che succedeva, ma ormai l'ho modificata...
comunque un test unico non basta voglio sicuramente riprovare.
-
@riky78 said:
non sono convinto che google dia importatanza alla data dei file per il filtro antiduplicazione, anche perchè la maggior parte dei server non rende visibile la data di modifica.....
detto questo, mi sembra che sarrebbe il caso di mantenere una certa etica.....
Esatto, nessuna importanza per la data di un file, la data la puoi mettere ed inventare a tuo piacimento e pertanto i motori l'ignorano.
-
@Dell'Orto Fabio said:
Intervengo in questo 3d per mettere in rete una mia supposizione.
Il Buon Positano accennava sopra al fatto che molto difficilmente GG spenderebbe risorse per controllare eventuali pagine "troppo simili", perchè sarebbe un lavoro troppo lungo e oneroso.
Io non sono d'accordo nella maniera + assoluta, non vedo ne tecnicamente ne economicamente un problema per fare il controllo.
Lo potrebbe fare in mille modi per esempio... esso ha già nel suo db le pagine ( quindi nessun costo aggiuntivo a livello di memorie di massa ) basterebbe un algoritmo che nel leggerle attribuisca un punteggio a ciascuna di esse.
Terminata la lettura tutte le pagine con lo stesso punteggio o con un punteggio entro dei range stabiliti prima sarebbero quelle teoricamente simili o uguali.
A questo punto il gioco sarebbe fatto e chi ne paga dazio attualmente sono le pagine con minore indice di popolarità.
A conferma di quest'ultimo particolare vi racconto un episodio.
Mesi fa feci una door per posizionarmi con una keyphrase.
Inizialmente la pagina arrivò senza problemi in testa alla serp, tanto che venne notata da una web-agency che me la plagiò.
Immediatamente pensarono anche di pompare pr a spron battuto dietro quella pagina e.... morale della favola loro con la (loro/mia) pagina presero il posto della mia originale.
Però e questa potrebbe anche essere una bella novità... da un paio di settimane è ricomparsa la mia di pagina
Volete sapere perchè ?
Perchè hanno messo troppi links non a tema e tutti d'un botto... meditate ragazzi su questa favola.
Grazie Fabio perche' mi erano sfuggite queste tue ultime righe, avevo letto veloce il tuo post, per fortuna che, come di abitudine, rileggo tutto sempre come fosse la prima volta.
Sono un "maniaco" dei filtri antiduplicazione, a tal punto da avere 3 siti "seri" fotocopia, attenzione non 3 domini che puntano sullo stesso sito ma 3 siti ben distindi di decine di migliaia di pagine in parte simili in parte uguali.
E' stato un esperimento iniziato ben 6 anni fa e che ad oggi controllo giorno per giorno per capirne qualcosa in piu'.
Riassumo, 6 anni fa ho aperto un sito "serio", era un .it.
L'ho tenuto online per 4 anni.
Dopo 4 anni l'ho chiuso (mantenedo solo il nome di dominio) e l'ho spostato-duplicato su un sito .it con mome diverso)
Tramite htaccess ho puntato il vecchio .it sul nuovo e tempo 0 il nuovo nome di dominio ha sostituito completamente il vecchio. Stesse pagine indicizzate, stesso numero di accessi.Passa un anno e duplico il sito usando lo stesso nome di dominio ma usando un .com come estensione, come dire prima c'era solo pippo.it ora anche pippo.com). Risultato le pagine identiche del .com non sono mai apparse nelle serp dei motori ma solo alcune pagine simili (titolo diverso, meta ecc ecc).
A questo punto dopo 2 anni dalla sua chiusura riduplico il sito riaprendo il primissimo sito .it, quello che avevo chiuso. Pertanto 3 siti online, identici quasi per tutto. Stessi link, stesso pr e stesse pagine, salvo rare eccezioni volute e diversificate al fine di test (per dire primo.it, pippo.it pippo.com)
Bene come ho duplicato e riaperto il sito originale tutte le pagine (oltre 30.000) del secondo .it sono sparite per essere sostituite da quelle identiche sul sito .it di maggiore anzianita'.
A seguire le pagine del secondo .it e poi le pagine del .com diverse dai due .it
Allora non contento ho cancellato tutti ma dico tutti i link verso il primo .it, ma nulla, adesso ha pr 0 ma appare sempre e solo come unico sito nelle serp, anche se il secondo .it ha pr6.
Conclusione, i motori associano e valorizzano le pagine al sito principale.
Se il sito e' il piu' vecchio chiunque lo duplichi non apparira', indifferentemente dal fatto che il sito abbia piu' o meno pr.Fabio ora ci dice che chi gli ha duplicato il sito lo ha scalzato e da qui e' importante sapere se il sito che lo ha scalzato era piu' anziano del suo (come prevedo, ma aspetto conferma) cosi' da confermare i miei test.
Ammettiamo che fosse piu' anziano, poi Fabio dice che e' stato bannato per eccesso di link non tematici. Questo e' normale perche' gli algoritmi e filtri di ban hanno priorita' rispetto quelli di catalogazione.
Ricapitolando, se un sito e' piu' anziano e tratta certi temi identici al sito che duplica, indifferentemente dal fatto che non abbia link, annulla il sito che copia.
Se quel sito e' bannato scompare per lasciare spazio a quello che aveva duplicato.
Se due siti sono praticamente identici anche per il 99% delle pagine, comunque il motore indicizza e cataloga, del nuovo sito, le pagine che differiscono dall'originale.
Pertanto se voglio cancellare un concorrente (mettiamo che sia un concorrente cattivo, uno spam engine senza arte ne parte o un sito di spam) allora dovro' utilizzare un dominio piu' anziano che originariamente trattasse lo stesso tema del sito duplicato.
Questo almeno cosi' da quanto constatato dal mio test e da quanto dice Fabio, a meno che Fabio ci dica che il sito che lo ha "fregato" fosse un sito nuovo di pacca ma magari con tanti link in tema.
Ma non credo che dipenda dai link, viceversa non si spiegherebbe come mai il mio sito originale senza un solo link ha nuovamente estromesso il sito clone che contava su centiania di link esterni in tema.
-
Bellissimo post agoago,
leggere un post di un amico che ha 6 anni di esperienza alla spalle (6?, forse molti di più) è molto bello per me
A questo punto, la mia domanda è quasi spontanea:
ma se un sito mi vuole far fuori e duplica la mia pagina in che modo posso difendermi?
Se tu affermi che la popolarità non influisce quanto l'anzianità l'unico modo che io ho è trovare un dominio più vecchio.
Esistono altre tecniche più intelligenti?
Ad esempio io potrei avere a disposizione 100 link che non sono a tema e in un giorno potrei metterli nel sito che mi ha copiato.
-
ormai il posizionamento a me sembra che lo faccia solo il dominio..