- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Cloaking "a fin di bene" - SEO vs AJAX
-
@Giorgiotave said:
Poi dipende da caso a caso.
Puoi fare un esempio concreto?
no scherzo sotto in fondo c'è un esempio.
Ajax presuppone una interrogazione lato server tramite javascript.
Cambiare invece stato da display:none a display:visible non è ajax ma un cambio di stato di un oggetto via javascript.
Quello che chiedi è totalmente sconsigliabile. Il motore legge tutti i testi invisibili perchè questi ultimi sono leggibili nell'html. Tra l'altro li classificherà proprio come invisibili e quindi gia comincia ad insospettirsi.
Se proprio vuoi farlo devi usare codice lato server che non mostri l'html che non deve uscire.ciao, prima di tutto grazie per la risposta, indicativamente la penso come te, queste cose non mi piacciono, volevo giusto capire se c'era qualcuno che aveva una soluzione che funzionava (e legale), visto che prima o poi è probabile diventino un problema di uso comune
ci sarà un AJAX SEF ed uno non SEF
di questo sono sicuronon so se conosci script.aculo.us, sono librerie ajax che tramite l'operazione che ti ho descritto prima e alcune function permette transizioni "graficose" realtime.
uso questo tipo di script abitualmente, ad esempio c'è n'è uno (orrendo :P)
sul mio sito http://www.aicube.net per il cambio della lingua, se guardi il codice ci sono 2 div che si alternano, ma sono entrambi presenti sull'html.se vedi via google lo spider prende entrambi i testi senza battere ciglio.
basta cercare :
site:www.aicube.net/ my name
site:www.aicube.net/ mi chiamotrovi lo stesso file in 2 versioni. questo perchè i div sono entrambi presenti.
l'esempio dei div con display:none era giusto per far capire che il problema c'era perchè certo testo non è proprio presente nel codice.
Il problema che ponevo invece è una versione fatta male di una cosa del genere: http://www.dynamicdrive.com/dynamicindex17/ajaxtabscontent/
qui si usano file esterni, facilmente indicizzabili per buttare il contenuto, nel problema che ponevo invece si presuppone si usino funzioni js esterne quindi contenuto non indicizzabile e non percepibile dal motore.
la mia domanda è : cosa fareste?
-
Ecco google ha beccato entrambi i testi perchè, quando passa sul tuo sito, esegue i link e vede che i testi corrispondono alla stessa pagina (perchè non è un link ma un js che apre un div).
Quindi sia il contenuto inglese che italiano corrispondono alla stessa pagina anche se l'utente, per vederli, dovrà cliccare la lingua corrispondente.
Nel tuo caso non ci saranno problemi perchè non stai facendo un uso fraudolento dei div nascosti. Il senso dei 2 contenuti è lo stesso e google se ne accorgerà e valuterà come una traduzione e non un tentativo di mostrare contenuti ad hoc per lo spider.
Considera comunque che google esegue una pagina come un utente e vede quello che vede un utente.
Il tuo non è un vero e proprio cloaking visto che non fai manipolazioni lato server quindi puoi stare tranquillo.
Se proprio vogliamo essere puristi dell'indicizzazione...bisognerebbe evitare sti div al click e fare 2 pagine separate per ogni lingua. Più che altro per fornire all'utente la pagina nella lingua che vede nella ricerca di google e non quella che uscirà per default sul tuo sito.
Il controllo approfondito dell'html con contenuti fraudolenti poi, secondo me, è un altro passaggio dedicato che fanno gli spiders
ciao ciao
-
@FuSioNmAn said:
Ecco google ha beccato entrambi i testi perchè, quando passa sul tuo sito, esegue i link e vede che i testi corrispondono alla stessa pagina (perchè non è un link ma un js che apre un div).
Quindi sia il contenuto inglese che italiano corrispondono alla stessa pagina anche se l'utente, per vederli, dovrà cliccare la lingua corrispondente.
Nel tuo caso non ci saranno problemi perchè non stai facendo un uso fraudolento dei div nascosti. Il senso dei 2 contenuti è lo stesso e google se ne accorgerà e valuterà come una traduzione e non un tentativo di mostrare contenuti ad hoc per lo spider.
Considera comunque che google esegue una pagina come un utente e vede quello che vede un utente.
Il tuo non è un vero e proprio cloaking visto che non fai manipolazioni lato server quindi puoi stare tranquillo.
Se proprio vogliamo essere puristi dell'indicizzazione...bisognerebbe evitare sti div al click e fare 2 pagine separate per ogni lingua. Più che altro per fornire all'utente la pagina nella lingua che vede nella ricerca di google e non quella che uscirà per default sul tuo sito.
Il controllo approfondito dell'html con contenuti fraudolenti poi, secondo me, è un altro passaggio dedicato che fanno gli spiders
ciao ciaociao, e grazie ancora, ricapitoliamo so anche io che il mio non è assolutamente cloacking, probabilmente mi spiego un pò male
la domanda è diversa : supponendo di non poter attuare una tecnica come quella che uso io, posso fare un vero e proprio cloacking sullo spider di google per mostrargli una pagina identica ma indicizzabile?
è una cosa che un ipotetico controllo umano non potrebbe penalizzare,io mostrerei lo stesso testo, quindi niente di male.
la questione è se secondo voi google becca e castiga subito, o aspetta un po e controlla..
-
Secondo me:
1 - i div con display: none che diventano display: block al click su un bottone non danno nessun problema.
2 - ho visto certi siti che hanno il contenuto delle pagine indicizzato, però nel momento in cui accedi alla pagina se non sei registrato ti chiede di registrarti. Perciò credo che facciano uso di cloaking per far vedere ai motori i contenuti.
Perciò nessuno ti può dire "non ti preoccupare, usa pure il cloaking", proprio perchè google penalizza pesantemente il cloaking. Però non penso lo faccia automaticamente, perciò io ti consiglierei di provare / fare qualche test.
-
Ciao DSOM
La prima cosa che mi viene da dire è che usare scriptaculous per alternare testi in lingue diverse non è il massimo
Il risultato, dal punto di vista dello spider, è come quei vecchi siti di agriturismo composti da una sola pagina con il testo in tutte e 4 le lingue.
E la sincronia fra il title e il testo visibile?
E la sincronia fra la description e il testo visibile?
E la provenienza (e il testo) dei dei backlink che puntano al documento?In una delle due lingue il documento risulterà inevitabilmente meno ottimizzato.
E' senz'altro vero che ci troveremo ad affrontare sempre più spesso questo tipo di cose, almeno per un pò di tempo, visto anche che ogni tre giorni esce un nuovo framework in javascript e ogni tre ore una libreria basata su uno di questi, secondo me intanto si potrebbe partire cercando di confondere meno possibile le idee ai motori sui contenuti dei documenti.
-
quotando in pieno **Beke (che saluto!;) ) **, un unica considerazione personale di carattere generale... mentre il display:none lo considero algoritmicamente non possibile da penalizzare tu-court (lo dimostrano le lettere di ban "soft" utilizzate in tali casi) , per il cloaking starei piu' attento ... cioè anche se usato "con scopi benefici" io non dormirei proprio tranquillo...
Nicola
-
[LEFT]Ciao Nicola
Sono daccordo, difficile stabilire quando un display:hidden è fatto in malafede, a meno di evidente keyword stuffing o pesante distonia fra i topic.
Soprattutto adesso che, come giustamente fa notare DSOM, si moltiplicano le pagine che usano codice "avanzato" (e quindi difficilmente parsabile, vista anche la quantità dei documenti da esaminare) per presentare i contenuti agli utenti.
Tutto questo ovviamente al netto dei GQR...
[/LEFT]
-
@beke said:
[LEFT]Tutto questo ovviamente al netto dei GQR...[/LEFT]
esatto! pensavo proprio solo a loro ormai ....
-
@dsom said:
la questione è se secondo voi google becca e castiga subito, o aspetta un po e controlla..
la prima che hai detto secondo me quindi... ma forse potresti fare un bel test su qualche dominio ad hoc e magari poi raccontarci come è andata... no?
(comunque ritengo abbastanza uno sforzo spropositato star dietro agli spider e alle loro mutevoli sembianze , solo per usare un componente aiax poco "Seo" ... non sarebbe meglio trovare una soluzione alternativa piu' semplice? che so landing page, pagine alternative seo-frendly "difficilmente raggiungibili" dagli utenti... ecc ecc)
Nicola
-
@nbriani said:
comunque ritengo abbastanza uno sforzo spropositato star dietro agli spider e alle loro mutevoli sembianze , solo per usare un componente aiax poco "Seo" ... non sarebbe meglio trovare una soluzione alternativa piu' semplice? che so landing page, pagine alternative seo-frendly "difficilmente raggiungibili" dagli utenti... ecc ecc
Nicolad'accordo con te.
Il problema è che la vera sfida non è posizionare siti facendoli diventare tutti "ad hoc", ma posizionare toccando meno cose possibli, e venendo incontro alle esigenze dei clienti, AJAX incrementa l'usabilità in modo impressionante, perchè dovrebbero rinunciarci?
Il thread non nasceva appunto per trovare altre vie, ma per valutare strade e risorse AJAX SEO Firendly, anche perchè prima o poi questi strumenti saranno presenti su tutti i siti, incrementano la User Exeperience in modo troppo impressionante per poterli ignorare.
Altro aspetto interessante, è il rapporto che c'è tra web analytic e ajax : tracciare transizioni di conversione che lavorano tramite AJAX non è cosa da tutti i giorni, (Google Analytic non lo fa ad esempio) e i professionisti del settore si stanno dando da fare in questo senso.
AJAX (e derivati) saranno e già sono una delle anime del WEB 2.0.
Meglio organizzarsi no?
EDIT :
Leggo ora le risposte di Beke, avevo visto solo l'ultima di nicola
è ovvio che script.aculo.us usato come sul mio sito è un esempio "orribile" (come avevo già detto) in termini SEO, ma quel sito è tutto tranne che ottimizzato, come si dice, il calzolaio ha le scarpe rotte
La differenza è che usato magari differentemente sempre al netto dei GQR è uno degli strumenti AJAX che conosco che da meno noia, forse anche perchè è meno potente di altri.
Ad esempio, sul mio blog permette di mantenere link in home SEF verso tutti gli utlimi post (cliccando sulle categorie in alto), e la cosa ha riscontri positivi sul ranking.
ola
-
La domanda sorge spontanea, e se data l'uscita di ottime librerie come moo.fx e scriptacolous, prendesse piede l'uso massiccio di queste tecnologie, l'unico cloaking "legale", sarebbe quello che renderizza due versioni del sito, uno per utenti con js attivo e/o spider, e utenti senza?
Quindi si tornerebbe un po' al sito in due versioni ( come accadeva con flash e html ) con però un controllo automatico che verifica se il client usa o ha attivo js e salva il tutto in un cookie ( ovviamente sarà necessaria una pagina di intro/welcome/etc etc ).
Con un controllo di questo tipo... siamo in presenza ancora di cloaking o no?
Il contenuto ovviamente varia, ma ad hoc in base alle potenzialità del client permettendo una corretta fruizione delle informazioni a tutti gli utenti.
Che dite?
-
Il confine tra cloaking e non cloaking è la corrispondenza nel mirror dei contenuti dell'originale, tradotto in parole semplici la buona fede