- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- [Test per SEO] voi cosa fareste?
-
[Test per SEO] voi cosa fareste?
Aprò questa discussione per dar seguito al mio post di oggi su GET.
Partendo da un progetto reale di cui mi sto occupando vi chiedo.. voi cosa fareste?
queste sono specifiche:l cliente Xyz, leader nella vendita di bulloni in tutta europa, vuole aumentare la propria visibiltà nel mercato italiano, vuole un progetto SEO.
Il suo sito istituzionale www.solobulloni.com gode di un ottima link popularity, completamente indicizzato, ottimo trust, tutto quello che un SEO può desiderare.
Per questo progetto a noi interessa solo la sezione IT (www.solobulloni.com/IT/) le cui pagine sono **duplicate **in un sito di supporto www.solobulloni.it, anche questo è indicizzato ma decisamente debole.
Cosa abbiamo:- sul sito istituzionale non possiamo mettere mano
- abbiamo accesso FTP al sito di supporto
- per politica aziendale ogni giorno un batch copia tutti i file contenuti nel sito www.solobulloni.it su www.solobulloni.com/IT/.
- i contenuti sono duplicati, **non possiamo **fermare questo processo e Google già oggi sembra insospettito dalla situazione.
Le soluzioni a cui ho pensato sono due, la prima che vi verrà in mente la boccerò giustificandovi il motivo (semplicemente perchè la mia mente contorta la pensata per seconda).
ciao
-
301?
-
@dsom said:
301?
poco chiaro...
ricorda...
- per politica aziendale ogni giorno un batch copia tutti i file contenuti nel sito www.solobulloni.it su www.solobulloni.com/IT/.
-
se puoi mettere su un .htaccess
RewriteCond %{HTTP_HOST} ^www.solobulloni.it$
mandami tutto quello che c'è (il codice ora non lo scrivo !!!) su www.solobulloni.com/IT/In ogni caso funzionerà sempre e solo un sito
bye
-
io non ci vedrei niente di male a mettere tutto il .it sotto robots.txt
Tanto mi sembra di capire che di quello se ne facciano poco e gli serva solo per aggiornare il .com, che È già ben posizionato.
Almeno cosí si rimedia il danno del dup content, no?
Matteo
-
vuole aumentare la propria visibiltà nel mercato italiano
è qui che bisogna ragionarenon come non far considerare duplicato il .it...almeno credo no must?
-
fai un 301 in modo che qualsiasi richiesta che arriva sul .it venga processata e mandata al .com/it/
successivamente lavori sempre e solo sul .it aggiorni quello etc etc.
è sicuramente una soluzione tarocca (i siti online sono sempre indietro di un giorno, se non hai sezione news o blog è ok) ma funziona.
se non avrai mai accesso all'ftp del .com è l'unico modo.
o almeno è l'unico modo che mi viene in mente in 15 secondi
se poi l'unico poszionato è il .com la soluzione è veramente l'ideale.. imho
-
mettiamo carne al fuoco
@dsom said:
fai un 301 in modo che qualsiasi richiesta che arriva sul .it venga processata e mandata al .com/it/
siamo su un server Windows...
come faresti..
-
Io "spegnerei" tramite robots.txt il dominio .it --- in questo modo risolvi il problema dei contenuti duplicati ( come ti avevo detto in chat ) a quel punto il problema potrebbe essere risolto... e il batch continuerebbe a svolgere la sua funzione.
-
@Dell'Orto Fabio said:
Io "spegnerei" tramite robots.txt il dominio .it --- in questo modo risolvi il problema dei contenuti duplicati ( come ti avevo detto in chat ) a quel punto il problema potrebbe essere risolto... e il batch continuerebbe a svolgere la sua funzione.
questa è la prima soluzione che mi è venuta in mente...
il robots.txt verrà copiato anche lui nel siti istituzionale ma trovandosi in una directory (IT/) non sarà considerato (richiesto) dai motori di ricerca...
... la seconda + tardi... (è stata accennata ma nn è chiarissima)
-
Investire soldi in un sito dedicato ad un mercato specifico, quello italiano in questo caso, non è cosa semplice.
Ho l'impressione che il tuo cliente ci sia arrivato seguendo ragionamenti che si allontanano parecchio dalle dinamiche dei motori di ricerca, noi per primi lo sappiamo, per fare SEO bisogna "entrarci dentro", prendere confidenza con il mezzo e ragionare in funzione dell'obiettivo prestabilito.
A questo punto mi chiedo, che senso ha investire soldi in un progetto dedicato (.it) se poi di dedicato non ha nulla... ha un sito istituzionale potente, su quello vanno contenuti di un tipo, sul .it di un altro...
mah
comuqnue se come ho capito hanno la testa dura e si fa come dicono loro mi piace più di tutte la soluzione del sempre preparatissimo Fabio, ma non arriverei necessariamente a soluzioni così drastiche, ovviamente per stabilirlo mi servirebbe capire che tipo di contenuti ha il sito, se si tratta di viaggi è un conto, se vende cellulari un'altro ancora...
Comunque facci sapere alla fine come la risolvi!
-
RewriteEngine on
RewriteCond %{HTTP_HOST} ^www.solobulloni.it$
RewriteCond %{HTTP_HOST} ^solobulloni.it$
RewriteRule ^(.*)$ http://www.solobulloni.com/IT/$1 [R=301,L]Così è più chiaro?
Non l'ho provato, però dovrebbe funzionare...
-
Io andrei di robots.txt sul /* il sito .it, spingerei l'ottimizzazione dei fattori interni del .it (visto che si ribaltano sul .com/IT) e lavorerei sui fattori esterni del .com
Mi sorge un dubbio, spero che siano pagine statiche.....
Ciao,
Andrea
-
@GrazieMamma said:
Comunque facci sapere alla fine come la risolvi!
Caro GrazieMamma... un piacere leggerti ogni tanto
le soluzioni le ho individuate già prima di scrivere il post sul blog e aprire il topic
La prima che mi era venuta in mente è quella introdotta da Fabio. Il robots.txt duplicato su entrambi i server bloccherebbe solo il .it
La seconda sta uscendo dai vari discorsi fatti
Purtroppo ogni cliente ha proprie caratteristiche e politiche. Quella che vi ho raccontato è solo una parte della complessa storia che questo progetto ha dietro.
@__charango__: come ho sottolineato in un post siamo su server windows... niente .htaccess
@__gaiodedu__: dinamiche ? ma possiamo decidere noi questo
-
ot un saluto anche da parte mia al mitico Graziemamma /ot
Con lo stratagemma del robots.txt però sorgere un ulteriore problema, che personalmente non sono riuscito ancora a risolvere.
Se "spianti" le pagine con il robots... dopo sei mesi google le risputerà nei suo db, non mi sono mai spiegato perchè ma giuro è quanto mi è successo più di una volta... chi sa mai che la "sems family" Low, colleghi delle colleghe.... non mi diano una spiegazione...
-
@Dell'Orto Fabio said:
Se "spianti" le pagine con il robots... dopo sei mesi google le risputerà nei suo db, non mi sono mai spiegato perchè ma giuro è quanto mi è successo più di una volta... chi sa mai che la "sems family" Low, colleghi delle colleghe.... non mi diano una spiegazione...
non è che magari nel robots.txt le elimini ma poi sono per qualche motivo incluse in una sitemap? oppure le pagine "nascosta" dal robots hanno comunque dei links e gg le segue ?
-
@Rinzi said:
siamo su un server Windows...
come faresti..
ISAPI Rewrite sul .it?
(in effetti non hai specificato se sul .it puoi mettere in qualche modo le mani...)
-
@Rinzi said:
mettiamo carne al fuoco
siamo su un server Windows...
come faresti..
in ordine :-
Isapi rewrite: non sarà il massimo... dipende dal numero di pagine, ma credo sia la via.
anche perchè basta non caricare il modulo sull'altro server e semplicemente di la non funzionerebbe. -
puoi chiedere a google di non indicizzare più il dominio ma ci vogliono 6 mesi.
3)azzardo, non saprei dire se funziona: puoi fare una sola regola rewrite (sempre supponendo che di la non sia caricata la dll) solo per il file robots.txt.
lo chiami motori.txt ma lo "riscrivi" in robots.txt.
se lo copia di la copia motori.txt e non ci sono problem-
puoi caricare con un js in ogni pagina un file da remoto in un server dove setti via firewall accesso da un solo host (quello del .it).
nel file ci sono i meta per noindex nofollow.
se l'altro prova a includere gli da un 403 -
forse giocando con js puoi caricare il nomedominio e fare un check se caricare o no un certo file con i meta noindex, nofollow.
basta, è tardi, sono fuso e vado a letto
olaz
-
-
@autodafe said:
non è che magari nel robots.txt le elimini ma poi sono per qualche motivo incluse in una sitemap? oppure le pagine "nascosta" dal robots hanno comunque dei links e gg le segue ?
Assolutamente no ! Inoltre nel robots c'è l'istruzione con la richiesta di omettere la cartella che non voglio indicizzare.
-
Hej fermi tutti, ho vinto io
L'ho detto prima io di mettere il .it sotto robots, eh! Date a cesare qeul che è di cesare e a supermatte quel che è di supermatte
Matteo