- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Keyword ripetute nelle pagine e qualità del sito
-
Capito, anche se spesso questi Tags-Cloud non sono affatto linkati e purtroppo ti indirizzano ad una pagina che nulla a che vedere con il termine ricercato, salvo la presenza del Tags in questione.
Domandone da un milione di Dollari o forse di Euro vista la situzione attuale, se la questione viene gestita in questo modo:
<a href="h-t-t-p://w-w-w.pomodori-marci.it/passata-di-pomodoro-avariata.html" title="pomodori avariati con confezione non integra">passata di pomodoro avariata</a>Cambia qualcosa?
Il solito grazie a chi risponde.
Un salutone a tutto il forum.Nota: h-t-t-p://w-w-w, ho dovuto inserire l'indirizzo in questo modo visto che non sono un utente premium.
-
- Forniscono all'utente da subito un idea sugli argomenti trattati e ciò fornisce un valore aggiunto al sito (sopratutto se non se ne abusa...) e google apprezza tutto ciò.
Ciascun tag è un Link agli articoli/posts inerenti perciò non fanno altro che "spingere" le pagine interne per le keyword presenti nel tag-cloud.
Che siano utili e sanza dubbio vero ma su questi link è sempre opportuno inserire un nofollow in quanto spesso portano a pagine contenente tutti gli articoli relativi al tag cliccato.
Senza nofollow i motori indicizzerebbero pagine diversi con contentui (o meglio porzioni di contenuti) identici e questo non è bene.
PS: Sulla questione tabelle/div come fattore di ranking sono sempre stato poco convinto... A google/utenti interessano i contenuti NON la formattazione HTML...
Anche questo è vero ma usando le tabelle la quantità di codice di formattazione che ottieni è molto maggiore rispetto all'uso di div formattati tramite css esterno.
Pagine più leggere e con meno codice di formattazione sono preferibili.
In oltre alcuni spider pare leggano soltanto una certa quantità di byte... ...quindi più la pagina è leggera e meglio è.
Non ho mai avuto modo di testare questa cosa ma in alcuni manuali SEO viene riportata.
- Forniscono all'utente da subito un idea sugli argomenti trattati e ciò fornisce un valore aggiunto al sito (sopratutto se non se ne abusa...) e google apprezza tutto ciò.
-
@Swalke said:
Che siano utili e sanza dubbio vero ma su questi link è sempre opportuno inserire un nofollow in quanto spesso portano a pagine contenente tutti gli articoli relativi al tag cliccato.
Senza nofollow i motori indicizzerebbero pagine diversi con contentui (o meglio porzioni di contenuti) identici e questo non è bene.
Dipende da come è pensato/progettato il CMS, se si riporta l'utente all'elenco dei post/articoli relazionati al tag non c'è nulla di male, anzi è un modo per favorire il deep crawling del sito web e fornire all'utente una vista d'insieme degli argomenti a cui è interessato.
Il filtro anti-duplicazione agisce poco se i contenuti sono sullo stesso dominio sopratutto se il CMS non duplica i contenuti ma fornisce indici e sommari sematicamente organizzati.Anche questo è vero ma usando le tabelle la quantità di codice di formattazione che ottieni è molto maggiore rispetto all'uso di div formattati tramite css esterno.
E' vero in parte.... dipende da come si scrivono i CSS...Pagine più leggere e con meno codice di formattazione sono preferibili.
In oltre alcuni spider pare leggano soltanto una certa quantità di byte... ...quindi più la pagina è leggera e meglio è.
Non ho mai avuto modo di testare questa cosa ma in alcuni manuali SEO viene riportata.
Degli spider, se esistono, che leggono solo una parte del body ci interessa poco... GoogleBot legge tuttoCiao!
-
Il filtro anti-duplicazione agisce poco se i contenuti sono sullo stesso dominio...
Da quello che so è difficile in ogni caso capire "quanto" incida il contenuto duplicato sull'indicizzazione (indipendentemente dal fatto che si trovino sullo stesso dominio).
C'è chi pensa che non incida, c'è chi pensa che incida.
Io non ho mai trovato pareri certi quindi in ogni caso tendo a non fare indicizzare pagine che duplicano i contenuti.Personalmente (e su questo siamo d'accordo) credo che contenuti duplicati su siti diversi siano sinonimo di bassa qualità e i motori tengano in considerazione la cosa.
...ma tu hai notizie certe su come vengono considerate le duplicazioni su pagine dello stesso sito?
Eventualmente potresti girare un link?E' vero in parte.... dipende da come si scrivono i CSS...
...mmm su questo non sono d'accordo.
Una pagina che usa div e css per organizzare i contenuti è più leggera della stessa versione della pagina usando le tabelle.
Credo che solo impegnandoti molto riusciresti a ottenere usando le tabelle una pagina più leggera rispetto alla stessa versione fatta con div e css.
In oltre i css esterni vengono messi in cache dopo il primo accesso.Degli spider, se esistono, che leggono solo una parte del body ci interessa poco... GoogleBot legge tutto
Questa cosa è sicura?
...è vero che alla fine è Google quello che ci interessa
...hai delle info o test fatti da qualcuno che puoi segnalare?...a me sembra strano che venga letto sempre e comunque tutto.
Se una pagina è troppo pesante da scaricare credo che anche google abbia dei timeout.Piccola parentesi: non vorrei risultare troppo pungente nel chiedere se puoi postare qualche link su quanto affermi. Semplicemente mi piacerebbe avere info in più su quanto dici.
-
@Swalke said:
Da quello che so è difficile in ogni caso capire "quanto" incida il contenuto duplicato sull'indicizzazione (indipendentemente dal fatto che si trovino sullo stesso dominio).
C'è chi pensa che non incida, c'è chi pensa che incida....ma tu hai notizie certe su come vengono considerate le duplicazioni su pagine dello stesso sito?
Eventualmente potresti girare un link?La duplicazione sullo stesso sito è fortemente penalizzante se supera il 20% dei contenuti interni duplicati. I famosi tag e pagine tag vanno escluse dall'indicizzazione di google con il robots.txt. Non ti giro un semplice articolo ma un bel video di
.Questa cosa è sicura?
...è vero che alla fine è Google quello che ci interessa
...hai delle info o test fatti da qualcuno che puoi segnalare?...a me sembra strano che venga letto sempre e comunque tutto.
Se una pagina è troppo pesante da scaricare credo che anche google abbia dei timeout.Verissimo... Sono anni che google legge tutto il testo. Se stai leggendo guide che parlano delle solite prime 15 righe o le ultime 12 righe... Buttale e non consultarle più sono arretrate e non aggiornate. Google legge tutta la pagina fino a 97 kb dopo tronca il text. Nei 97 kb comprende ovviamente i tag dell'html e tutto il codice generale della pagina stessa. Questo è il link di conferma.
Dici anche se è google il motore che ci interessa..... Sicuramente si. le ultimesta tistiche di ottobre 2009 di sems.it affermano che il 91% degli italiani utilizza google come punto di ingresso alla rete:o.
In america il 65% google il 9% bing e il 20% yahoo.
Ciao swalke
-
La duplicazione sullo stesso sito è fortemente penalizzante se supera il 20% dei contenuti interni duplicati.
Ok. Non ero stato io a dire:
Il filtro anti-duplicazione agisce poco se i contenuti sono sullo stesso dominio...
Sulla questione
Sono anni che google legge tutto il testo. Se stai leggendo guide che parlano delle solite prime 15 righe o le ultime 12 righe... Buttale e non consultarle più sono arretrate e non aggiornate. Google legge tutta la pagina fino a 97 kb dopo tronca il text. Nei 97 kb comprende ovviamente i tag dell'html e tutto il codice generale della pagina stessa.
Ti ringrazio per il prezioso link!
...ma il discorso non resta lo stesso?
Se google tronca sopra i 97 kb vuol dire che non recupera tutta la pagina. Quindi è vero che le pagine devono essere il più leggere possibili ---> usare div e css esterni è sicuramente meglio che usare le tabelle no?
Infatti anche l'articolo che hai postato lo dice.Ci siamo capiti male sulla mia frase:
...è vero che alla fine è Google quello che ci interessa
...in quanto non era ironica.
-
Si ovviamente allegerire il sito con uso di css è buona regola. Mi sembra una cosa così scontata che non la citò più da anni in nessun post. Anche ridimensionare le immagini e usare immagini piccole come sfondo, ripetendole sull'asse delle y e delle x l'immagine, piuttosto che usare immagini grandi quanto tutta la pagina e buona norma.
Le tabelle sono nate dai primi anni della programmazione informatica ma servono a contenere meta-dati e dati... non servono di certo a fare effetti grafici e template come si usavano negli anni 90.
La conclusione è che per fare una pagina da 97 kb forse stiamo anche esagerando con il contenuto ed è meglio dividere il testo in più argomenti di approfondimento.In questo modo possiamo sfruttare la potenza dei link interni e altre keyword.
Se siamo nel caso di siti e-commerce è meglio dividere i prodotti in liste più brevi ed accessibili.
Se siamo nel caso invece di siti dinamici (flash) buttiamo via il flash e valorizziamo l'immagine dell'azienda sui motori di ricerca, che è più importante di avre un bel sito non visitato.
-
Ok daccordissimo su tutto quanto.
...per un attimo ho pensato che ci stessimo controbattendo sostenendo praticamente le stesse cose.Si ovviamente allegerire il sito con uso di css è buona regola. Mi sembra una cosa così scontata che non la citò più da anni
Infatti la seconda domanda di paocavo (lecitissima)
...ho trovato diversi siti ben posizionati anche di recente costruzione realizzati con le tabelle, ma non si parlava di qualità e accessibilita del sito?
si riferisce a una delle tematiche più scontate del seo on page.
Parte però da un presupposto sbagliato.
Come dice egidio infatti l'utilizzo delle tabelle non è necessariamente sinonimo di "non qualità".
Per presentare dati tabulari sono e restano la soluzione mogliore.
Certo se vengono usate a puro scopo di formattazione della pagina allora restano una pessima soluzione.
-
@Swalke said:
Da quello che so è difficile in ogni caso capire "quanto" incida il contenuto duplicato sull'indicizzazione (indipendentemente dal fatto che si trovino sullo stesso dominio)
Infatti io avevo detto:
@paocavo said:Il filtro anti-duplicazione agisce poco se i contenuti sono sullo stesso dominio sopratutto se il CMS non duplica i contenuti ma fornisce indici e sommari sematicamente organizzati
Una pagina che usa div e css per organizzare i contenuti è più leggera della stessa versione della pagina usando le tabelle.
Credo che solo impegnandoti molto riusciresti a ottenere usando le tabelle una pagina più leggera rispetto alla stessa versione fatta con div e css.
Inoltre i css esterni vengono messi in cache dopo il primo accesso.Non discuto il fatto che i siti vanno fatti con i DIV, è così da anni...
Volevo solo porre l'attenzione su cosa ci metti all'interno dei DIV o tabelle che siano...
I css "esterni" non sono prerogativa dei DIV, anche con le tabelle è possibile porre lo style in fogli esterni.
-
Si.... come dice Paocavo è vero... L'uso delle tabelle non implica il NON utilizzao dei fogli di stile css. Stiamo discutendo dello stesso problema risolto in varie soluzioni.
La soluzione più gista (ottimale) è quella che aderisce meglio al caso specifico da rappresentare.
In conclusione è vero ed è giusto tutto ciò che abiamo citato (sia io che paocavo che swalke).
-
Ringrazio tutti voi per la discussione sulle penalizzazioni e la qualità del codice, soprattutto per il parametro di riferimento dei 97 kb non semplice da superare ma pur sempre da tenere in considerazione.
Vi sarei infinitamente grato se poteste rispondere anche alla mia domanda postata in origine che riporto a seguito.
Capito, anche se spesso questi Tags-Cloud non sono affatto linkati e purtroppo ti indirizzano ad una pagina che nulla a che vedere con il termine ricercato, salvo la presenza del Tags in questione.
Domandone da un milione di Dollari o forse di Euro vista la situzione attuale, se la questione viene gestita in questo modo:
<a href="h-t-t-p://w-w-w.pomodori-marci.it/passata-di-pomodoro-avariata.html" title="pomodori avariati con confezione non integra">passata di pomodoro avariata</a>I risultati sono molto diversi?
Il solito grazie a chi risponde.
Un salutone a tutto il forum.Nota: h-t-t-p://w-w-w, ho dovuto inserire l'indirizzo in questo modo visto che non sono un utente premium.
-
Nell'ottimizzazione on-page la tua soluzione va benissimo.Ovviamente incide di più l'ottimizzazione off-page del sito. Cerca di ricevere anche dei Bl del genere, da siti a pr e trust alto.