-
Rss e SEO
Qualcuno utilizza script tipo lastrss o carp per le pagine del sito programmi tipo traffic equalizer funzionano o si rischia fortemente il ban?
-
**Lastrss **
Se lo usi per arricchire pagine vere del tuo sito, può contribuire a rendere le pagine spesso aggiornate.
Non ti consiglio di fare pagine che contengono SOLO feed rss parsati. Meglio un mix 70% contenuti veri, 30% rss parsati che cambiano.C'è di meglio in Rete comunque
Rischio ban: basso/nullo, SE lo usi con criterio
Penalizzazioni: potenziali rischi filtraggio contenuti duplicati.
**
Carp
**Non lo conosco, sinceramente, ma da come viene presentato nel sito, sembrerebbe che le pagine create contengano solo RSS parsati in html. Questo non è bene.
Vedi considerazioni sopra.Rischio ban: medio
Penalizzazioni: potenziali rischi filtraggio contenuti duplicati.**Traffic Equalizer
**Crea automaticamente siti internet sulla base di keyword inserite dall'utente.Rischio ban: alto
Penalizzazioni: tutte quelle possibili e immaginabili.Cordialmente,
Stuart
-
Grazie delle info Stuart,
ti spiego cosa vorrei realizzare:
-Pagine con la massima informazione possibile su un argomento
-Contenuti dinamici che si autoaggiornano ogni caricamento della pagina
-I contenuti verrebbero prelevati da almeno 3 o + fonti-Rss
-Articoli
-Motori di ricerca
-Directory
-Blogs
-Forum
-NewsgroupsTutto all'insegna della randomizzazione e della sinergia di informazioni, in modo che se cerchi ad esempio "macchine da cucire" ti compaia un pagina che ti elenca :
-siti che parlano di macchine da cucire (in stile directory)
-articoli "" ""
-rss "" ""
-Blogs "" ""
-Forum "" ""
-Newsgroups "" ""e possibilmente anche dei feed di ebay che trattano il termine (se è acquistabile)
Secondo te si può realizzare un progetto simile e in che modo?
Con un Cms? con degli include in una pagina che si autoaggiorna?
-
Io sto realizzando una cosa simile, in pratica è una sezione di un sito esistente che offre le ultime news sull'argomento di cui tratta il sito prese da feed RSS.
I feed sono presi da diecine di fonti, categorizzati e mostrati per sotto-argomento, e uniti a materiale originale pubblicato sul sito sullo stesso sotto-argomento.
Esempio:
- argomento del sito: il mondo delle bambole
- il sito contiene articoli e foto sulle bambole
- la sezione "X" è suddivisa per ogni tipologia di bambole ed ogni sottoargomento contiene:
- feed RSS su quella tipologia di bambole
- ultimi articoli del sito su quella tipologia di bambole
- foto di quella tipologia di bambole
I feed si possono commentare e votare in stile Digg, e riportano la fonte e la data di pubblicazione.
Il tutto è assolutamente in prova (ed in fase di sviluppo) ed è stato messo online un paio di giorni dopo il 27 giugno...
Non ci vedo controindicazioni particolari, per cui lo sto sperimentando su un sito che è incluso in Google News di almeno 4 nazioni ed è correttamente indicizzato.
-
@Stuart said:
Carp
Non lo conosco, sinceramente, ma da come viene presentato nel sito, sembrerebbe che le pagine create contengano solo RSS parsati in html. Questo non è bene.
Vedi considerazioni sopra.Rischio ban: medio
Penalizzazioni: potenziali rischi filtraggio contenuti duplicati.Cordialmente,
StuartScusa Stuart, ma
"sembrerebbe che le pagine create contengano solo RSS parsati in html. Questo non è bene."
non l'ho capita.
Inoltre non capisco il rischio ban nell'uso di feed RSS.
Ti ringrazio per la delucidazione!
-
@"777" said:
Scusa Stuart, ma
"sembrerebbe che le pagine create contengano solo RSS parsati in html. Questo non è bene."
non l'ho capita.
Inoltre non capisco il rischio ban nell'uso di feed RSS.
Ti ringrazio per la delucidazione!
Ciao 777
per RSS parsato in html intendo un feed rss (in xml, solitamente) che viene elaborato da script, e convertito in html.Considerando che:
- Nel 99% i feed vengono presi da altri siti
- Essendo i feed degli abstract di notizie già esistenti su altri siti web
Non ha molto senso costruire delle pagine web che siano composte unicamente da contenuti di fatto copiati.
Tanto più che la generazione di queste pagine è in automatico, e Google odia visceralmente i contenuti automatici (agoago docet).Entro certi limiti (dati più dal buon senso che dagli algoritmi veri e propri), dei "plugin" nelle pagine, composti da rss-html , se aggiornati spesso e in automatico, prevengono lo status di "stale" alle pagine, rendendole sempre aggiornate.
Ma proprio perchè questi contenuti in genere non sono unici, bisogna usarli con cautela.ah dimenticavo: il feed rss propriamente detto non comporta ban (anzi!).
Può comportare ban la creazione di un sito che sia interamente e automaticamente composto da output html di feed rss propri o di terze parti.Cordialmente,
Stuart
-
Dove si ferma il confine tra "assolutamente informativo" "completo ed esauriente" dal "contenuto duplicato" intendo.... se io metto insieme tante informazioni prese da varie fonti e le unisco insieme per creare un contenuto "unico" ma formato da parti "non uniche" in che misura G stabilisce che questo "collage" in senso assoluto non è unico?
In fondo allora anche G stesso prendendo gli abstract dai siti inclusi nelle sue ricerche crea contenuti duplicati o no?
Anche un nuovo contenuto non sarà mai nuovo del tutto, perchè conterrà sicuramente frasi simili ad altri...
G controlla una pagina a settori? oppure completa? randomizzando la visione dei contenuti e la loro disposizione sulle pagine come fa a stabilire che si trattano di contenuti duplicati?
-
@Archetipo said:
Dove si ferma il confine tra "assolutamente informativo" "completo ed esauriente" dal "contenuto duplicato" intendo....
Il confine si ferma dove arrivano i GQR
Se hai intenzioni serie è una cosa se hai intenzioni "poco serie" è un altra ...
-
@Stuart said:
Ciao 777
per RSS parsato in html intendo un feed rss (in xml, solitamente) che viene elaborato da script, e convertito in html.Considerando che:
- Nel 99% i feed vengono presi da altri siti
- Essendo i feed degli abstract di notizie già esistenti su altri siti web
Non ha molto senso costruire delle pagine web che siano composte unicamente da contenuti di fatto copiati.
Tanto più che la generazione di queste pagine è in automatico, e Google odia visceralmente i contenuti automatici (agoago docet).Entro certi limiti (dati più dal buon senso che dagli algoritmi veri e propri), dei "plugin" nelle pagine, composti da rss-html , se aggiornati spesso e in automatico, prevengono lo status di "stale" alle pagine, rendendole sempre aggiornate.
Ma proprio perchè questi contenuti in genere non sono unici, bisogna usarli con cautela.ah dimenticavo: il feed rss propriamente detto non comporta ban (anzi!).
Può comportare ban la creazione di un sito che sia interamente e automaticamente composto da output html di feed rss propri o di terze parti.Cordialmente,
StuartOK, grazie Stuart.