ho toppato alla grande :bho:
sottomare
@sottomare
Post creati da sottomare
-
RE: Google: numero di accessi a fianco le serp
-
RE: Network di siti? Perchè?
Scusate, sono un po' testardo , ma non mi avete convinto ma non mi sembra di aver individuato la risposta. O meglio la motivazione.
In riferimento a questo articolo:
Ciao, credo possa esserti utile questo articolo.
http://www.bruceclay.com/blog/archiv...is_better.html
Andrea
Ci sono principalmente 2 errori, che ritengo grandi, e che mi fanno perdere un po' di fiducia sulla veridicità dell'articolo:
-
come dice Sughero3 non mi risulta che sia vero che banna l'IP ma il sito
-
il 90% della TOP 50 significa 45 siti web con IP fisso. Facendo una ricerca per una delle keywords più cercate al mondo "Paris Hilton" questo non è assolutamente vero.
(lo so andrebbe fatto un test più largo su più ricerche)
E poi c'è una considerazione da fare:
un sito web con IP fisso in genere deve avere un server dedicato o semi dedicato (virtual server o che condivide il server con pochi altri siti), il che vuol dire svariate migliaia di euro all'anno (oltre 2000 euro l'anno come minimo, ma penso anche che sia poco fattibile a così basso prezzo).
Questo a mio parere significa che il sito deve rendere molti soldi e questo vuol dire avere tanti accessi che di conseguenza significa che il sito è importante, conosciuto e quindi appare anche senza IP dedicato nelle prime posizione delle serp.Es. Reale: possediamo un server dedicato con sopra 4 siti + 1 sottodominio (quindi 5 siti) che generano insieme quasi 70k utenti al giorno.
Il tutto con 2 IP, e fino a fine 2006 con uno unico.
Al trasferimento a 2 IP, al sito più grande è stato attribuito un IP dedicato.
Secondo un po' di analisi questo non ha invariato per niente le serp. in tutti i casi, i siti hanno mantenuto la loro posizione (ci posizionavamo già precedentemente molto bene di solito in prima pagina, spesso tra i primi 5).Fare il tutto con 5 IP che fanno parte della stessa classe non mi sembra il caso, separarli in server di web farm diverse comporterebbe almeno una spesa di mantenimento superiore al 300%.
Calcolando anche un CPM medio di 25 euro è una spesa insostenibile... immagino una cifra all'incirca di 30k euro di server e banda, in base agli attuali costi che sosteniamo.Questo per far capire che sono pochi coloro che si possono permettere un IP dedicato su server sparsi sul territorio per qualche manciata di siti. Il che significa che sono siti che già per loro guadagno molto e per guadagnare molto sono importanti, stra linkati,...
Quindi è normale che appaiano nella TOP 50.
Se il ragionamento fosse inverso, ovvero stanno nella TOP 50 perchè hanno un IP statico e quindi sono diventati conosciuti ed importanti, Google non premeriebbe i contenuti di qualità, ma chi ha più soldi da investire.
Ciao
elle -
-
Google: numero di accessi a fianco le serp
Ciao a tutti,
volevo farvi notare cosa succede per questa ricerca:http://www.google.it/search?hl=it&q=campo+imperatore&btnG=Cerca&meta=
Non me ne ero mai accorto... voi?
(è anche aggiornato in tempo reale, cliccandoci e rifacendo la stessa query il contatore viene aggiornato)
Secondo voi è solo una utility per l'utente o potrebbe anche cambiare il posizionamento?
(che io sappia il numero di click già veniva utilizzato per il posizionamento).L'unica cosa è che non ha un controllo sull'IP e il num di click, almeno per quanto riguarda la visualizzazione sul motore (poi probabilmente per il posizionamento ne tiene conto).
Questo avviene non solo per il primo risultato, ma anche per i successivi risultati...In allegato anche lo screen nel caso fosse solo un test per google.
Ciao
elle -
RE: Network di siti? Perchè?
Ciao,
mi intrometto.Premettendo che reputo sia vantaggioso alla lunga il network, inteso però come network di siti monotematici, di proprietà dello stesso "editore" e non una accozzaglia di siti già esistenti che decidono di fare un network.
Vorrei capire questo punto di gaiodedu:
a. ok il network di siti purchè su ip differenti (non su stesso ip condiviso)
Premetto:
- il network, come da introduzione, ha lo stesso proprietario
- google capisce che sono un network perchè tutti i siti si linkano (anche per altri fattori, non è l'unico elemento)
- ne deriva che inizialmente o anche per sempre, google non darà peso ai link tra i vari siti del network
perchè dovrei usare ip differenti?
Tanto google già sa che i siti fanno parte di un network (link) dello stesso proprietario (whois), cambiare IP che vantaggi potrebbe dare?Tra l'altro supponendo che si possiede un server dedicato è anche la soluzione più ragionevole ed economica.
Qui, ora, potrei sbagliarmi (è quanto mi risulta, ma potrebbe essere diverso): ma in una webfarm, sempre supponendo di avere un server dedicato, posso sì cambiare IP ma non la classe, che al max varia ma rimane molto simile:
72.158.174.53
72.158.179.245secondo voi, quindi, google non gli da lo stesso peso di un IP condiviso?
Questo è quanto penso, è sbagliato? Ho detto qualche cavolata? :bho:
Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ho AdSense,
e NON ho AdWords.Non ci sono landing page di alcun genere...
ora sto testando anche ad eliminare parecchie pagine (con cautela) diciamo più inutili (come tutte quelle che ordinavano i prodotti per nome crescente e decrescente).
Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ho AdSense,
e NON ho AdWords.Non ci sono landing page di alcun genere...
ora sto testando anche ad eliminare parecchie pagine (con cautela) diciamo più inutili (come tutte quelle che ordinavano i prodotti per nome crescente e decrescente).
Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ciao LowLevel,
prima di tutto grazie per l'interesse.Qui bisognerebbe analizzare un po' di roba. Sono indiscreto se ti chiedo di vedere il file robots.txt, le righe del file di log in cui Googlebot accede alle risorse in disallow e possibilmente gli host degli spider?
Se vuoi mi scarico i log file e faccio una ricerca completa, ma è uguale, in quanto questo è quanto traccio nelle statistiche dei click:
mozilla/5.0 (compatible; googlebot/2.1; +http://www.google.com/bot.html)
con ip: 66.249.65.209
Il robots.txt è corretto, l'ho provato anche a validare con i webmaster tools di google ed è corretto.
Comunque la stringa è questa:
User-agent: *
Disallow: /[nomecartella]/dove [nomecartella] è la cartella che contiene il file di redirect.
Personalmente investirei in un lavoro di copywriting. In più punti dei tuoi post mi è sembrato di capire che tu sia perfettamente conscio della necessità di distinguersi.
Se sei consapevole di ciò, allora dovresti anche essere spinto a credere che distinguersi con testi unici ed originali dovrebbe essere un buon modo per migliorare le cose.
Certo, il copywriting delle sole description non basta e ha senso solo se accompagnato da interventi di altro tipo.
Hai pienamente ragione, in siti web normali.
Ho fatto anche dei test creando pagine con contenuti scritti di sana pianta, e la pagina sale abbastanza bene (visto anche che è poco tempo che sono online) solo se contiene max 5 prodotti con link esterni.
Sinceramente è presto, sono solo un 6 giorni che sono su... però sembra proprio così...
sto facendo diversi test in tal senso e se volete vi tengo aggiornati.Capisci bene che con solo 5 prodotti x pagina non offro un servizio di qualità nè per gli utenti nè per i merchant.
Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ciao LowLevel,
prima di tutto grazie per l'interesse.Qui bisognerebbe analizzare un po' di roba. Sono indiscreto se ti chiedo di vedere il file robots.txt, le righe del file di log in cui Googlebot accede alle risorse in disallow e possibilmente gli host degli spider?
Se vuoi mi scarico i log file e faccio una ricerca completa, ma è uguale, in quanto questo è quanto traccio nelle statistiche dei click:
mozilla/5.0 (compatible; googlebot/2.1; +http://www.google.com/bot.html)
con ip: 66.249.65.209
Il robots.txt è corretto, l'ho provato anche a validare con i webmaster tools di google ed è corretto.
Comunque la stringa è questa:
User-agent: *
Disallow: /[nomecartella]/dove [nomecartella] è la cartella che contiene il file di redirect.
Personalmente investirei in un lavoro di copywriting. In più punti dei tuoi post mi è sembrato di capire che tu sia perfettamente conscio della necessità di distinguersi.
Se sei consapevole di ciò, allora dovresti anche essere spinto a credere che distinguersi con testi unici ed originali dovrebbe essere un buon modo per migliorare le cose.
Certo, il copywriting delle sole description non basta e ha senso solo se accompagnato da interventi di altro tipo.
Hai pienamente ragione, in siti web normali.
Ho fatto anche dei test creando pagine con contenuti scritti di sana pianta, e la pagina sale abbastanza bene (visto anche che è poco tempo che sono online) solo se contiene max 5 prodotti con link esterni.
Sinceramente è presto, sono solo un 6 giorni che sono su... però sembra proprio così...
sto facendo diversi test in tal senso e se volete vi tengo aggiornati.Capisci bene che con solo 5 prodotti x pagina non offro un servizio di qualità nè per gli utenti nè per i merchant.
Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ciao a tutti,
mi fa piacere che l'argomento sia di vostro interesse.Citazione:
[quote]Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.
Quanto differenti? Puoi fare un esempio?[/quote]Per ogni tipologia di prodotto, esempio Schede Madri c'è sia la versione singolare e plurale, inoltre sempre nel tag, vendono introdotti i nomi dei prodotti in questo modo:
<title>Schede Madri - Prezzi Scheda Madre da [NomePrimoProdotto] a [NomeUltimeProdotto]</title>
key: prezzi schede madri, scelta scheda madre, [nomeprimoprodotto], [nomeSecondoProdotto], [nomeTerzoPordotto]
descr: Guida alla scelta delle Schede Madri a partire da [Nomeprimoprodotto] a [nomeultimoprodotto]
(questo è veramente il massimo che si può fare, al max andrebbe inserita una descrizione a mano di ciascuna tipologia di prodotto, ma son circa 5000)
[quote]Citazione:
In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).
Allora devo aver frainteso: se hai disabilitato quelle pagine col robots.txt, perché fai un cloaking sullo spider, visto che lo spider non effettuerà accessi a quelle pagine?[/quote]In realtà non è vero.
Per offrire un servizio serio ho dovuto realizzare un sistema anti click-froud che comprendeva anche l'eliminazione dei "click" generati dallo spider.Dopo, solo a Gennaio, ho introdotto il robots.txt per eliminare direttamente i click dai motori. In realtà Google continua ad accedere a quelle pagine, che non vengono più indicizzate (a volte infatti succedeve che venissero indicizzate), però ci passa sopra.
Non è una questione di contenuti duplicati, è una questione di contenuti unici. Ce ne sono? Quanti?
Io non sottovaluterei questo punto; la qualità globale di un sito si vede anche da quanta informazione "nuova" ha creato sul Web e propone ai propri utenti.
Nel momento in cui crei pagine il cui contenuto unico è basso, rischi di trasformare il sito in un "uno tra i tanti". E a quel punto sei alla mercè dei fattori esterni, visto che quelli interni non sono sufficientemente curati e distintivi.
Contenuti unici non ce sono, almeno non molti, rispetto alla quantità di contenuto duplicato proveniente dalla descrizione dei prodotti dei singoli merchant.
Però il sito è stato trattato sempre bene, ottime posizioni sui motori, traffico di circa 5mila accessi al giorno (quasi tutto da google) da molti mesi ormai...
Il problema secondo me non è sui contenuti, ma sui link di affiliazione... ovvero Google ha deciso che un sito che contiene molti link di affiliazione non è un buon sito pertanto viene penalizzato. Tale teoria secondo me è reale in quanto è successo mesi fa anche in Germania e Francia (ho analizzato solo questi due paesi, ma penso sia più esteso il fenomeno).
Come comportamento, da parte di google, lo reputo anche giusto, perchè un sito di sola comparazione, magari non è effettivamente utilissimo.
Però il progetto di comparazione nostro era molto più grande, e stavamo proprio per abbandonare (entro qualche mese) l'attuale filosofia di sito di comparazione, per creare un sistema molto web 2.0 e quindi anche poco simpatico ai motori, per creare una esperienza utente, che in questo settore non si era mai vista (oltre alla possibilità di inserire commenti ai prodotti alla ciao.it) ... ma con gli attuali accessi ormai è quasi inutile.
(ricordo che tutti i comparatori hanno avuto questa penalizzazione, soprattutto quelli "classici").Pertanto volevo sapere se c'erano alternative white per non far proprio leggere quelle pagine al motore, in modo tale da generare traffico e quindi poter riprendere l'idea di differenzazione dagli altri comporatori ed essere quindi giudicati successivamente da Google come sito di qualità, da un quality rater o automaticamente.
AGGIUNGO (modificato successivamente)
x Truzzo.com
Il redirect è con asp e non è in chiaro l'urlGrazie
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Ciao a tutti,
mi fa piacere che l'argomento sia di vostro interesse.Citazione:
[quote]Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.
Quanto differenti? Puoi fare un esempio?[/quote]Per ogni tipologia di prodotto, esempio Schede Madri c'è sia la versione singolare e plurale, inoltre sempre nel tag, vendono introdotti i nomi dei prodotti in questo modo:
<title>Schede Madri - Prezzi Scheda Madre da [NomePrimoProdotto] a [NomeUltimeProdotto]</title>
key: prezzi schede madri, scelta scheda madre, [nomeprimoprodotto], [nomeSecondoProdotto], [nomeTerzoPordotto]
descr: Guida alla scelta delle Schede Madri a partire da [Nomeprimoprodotto] a [nomeultimoprodotto]
(questo è veramente il massimo che si può fare, al max andrebbe inserita una descrizione a mano di ciascuna tipologia di prodotto, ma son circa 5000)
[quote]Citazione:
In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).
Allora devo aver frainteso: se hai disabilitato quelle pagine col robots.txt, perché fai un cloaking sullo spider, visto che lo spider non effettuerà accessi a quelle pagine?[/quote]In realtà non è vero.
Per offrire un servizio serio ho dovuto realizzare un sistema anti click-froud che comprendeva anche l'eliminazione dei "click" generati dallo spider.Dopo, solo a Gennaio, ho introdotto il robots.txt per eliminare direttamente i click dai motori. In realtà Google continua ad accedere a quelle pagine, che non vengono più indicizzate (a volte infatti succedeve che venissero indicizzate), però ci passa sopra.
Non è una questione di contenuti duplicati, è una questione di contenuti unici. Ce ne sono? Quanti?
Io non sottovaluterei questo punto; la qualità globale di un sito si vede anche da quanta informazione "nuova" ha creato sul Web e propone ai propri utenti.
Nel momento in cui crei pagine il cui contenuto unico è basso, rischi di trasformare il sito in un "uno tra i tanti". E a quel punto sei alla mercè dei fattori esterni, visto che quelli interni non sono sufficientemente curati e distintivi.
Contenuti unici non ce sono, almeno non molti, rispetto alla quantità di contenuto duplicato proveniente dalla descrizione dei prodotti dei singoli merchant.
Però il sito è stato trattato sempre bene, ottime posizioni sui motori, traffico di circa 5mila accessi al giorno (quasi tutto da google) da molti mesi ormai...
Il problema secondo me non è sui contenuti, ma sui link di affiliazione... ovvero Google ha deciso che un sito che contiene molti link di affiliazione non è un buon sito pertanto viene penalizzato. Tale teoria secondo me è reale in quanto è successo mesi fa anche in Germania e Francia (ho analizzato solo questi due paesi, ma penso sia più esteso il fenomeno).
Come comportamento, da parte di google, lo reputo anche giusto, perchè un sito di sola comparazione, magari non è effettivamente utilissimo.
Però il progetto di comparazione nostro era molto più grande, e stavamo proprio per abbandonare (entro qualche mese) l'attuale filosofia di sito di comparazione, per creare un sistema molto web 2.0 e quindi anche poco simpatico ai motori, per creare una esperienza utente, che in questo settore non si era mai vista (oltre alla possibilità di inserire commenti ai prodotti alla ciao.it) ... ma con gli attuali accessi ormai è quasi inutile.
(ricordo che tutti i comparatori hanno avuto questa penalizzazione, soprattutto quelli "classici").Pertanto volevo sapere se c'erano alternative white per non far proprio leggere quelle pagine al motore, in modo tale da generare traffico e quindi poter riprendere l'idea di differenzazione dagli altri comporatori ed essere quindi giudicati successivamente da Google come sito di qualità, da un quality rater o automaticamente.
AGGIUNGO (modificato successivamente)
x Truzzo.com
Il redirect è con asp e non è in chiaro l'urlGrazie
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Grazie a tutti.
x Low
Di cose buone ce ne sono molte. Il problema è che le descrizioni dei prodotti provvengono da altri siti (ovvero chi vende il prodotto), ma secondo qualche test che sto facendo non dipende tanto da quello (contenuti duplicati) (anche perchè per il momento non mi sembra che funzioni molto bene l'antiduplicazione di google).Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.
In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).
Però a quanto pare, mi sconsigliato anche questo.
Ovverò è cloaking, al contrario?Ciao
elle -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
Grazie a tutti.
x Low
Di cose buone ce ne sono molte. Il problema è che le descrizioni dei prodotti provvengono da altri siti (ovvero chi vende il prodotto), ma secondo qualche test che sto facendo non dipende tanto da quello (contenuti duplicati) (anche perchè per il momento non mi sembra che funzioni molto bene l'antiduplicazione di google).Per il resto è fatto tutto bene, a partire dai classici title e meta tutti differenti da pagina a pagina.
In realtà il cloaking si fa per creare pagine ottimizzate per i motori, io potrei anche mettere semplicemente un testo: "pagina non disponibile per i motori di ricerca" (anche perchè nel robots.txt ho già indicato a google che non deve andare a leggere quelle pagine di redirect).
Però a quanto pare, mi sconsigliato anche questo.
Ovverò è cloaking, al contrario?Ciao
elle -
Penalizzante una pagina con contenuto diverso utente\motore?
Salve a tutti,
ho molte pagine di un mio sito che fanno un redirect verso l'esterno.Sto parlando di comparazione di prodotti, pertanto ci sono molti link all'esterno.
Google recentemente ha penalizzato quasi tutti i comparatori, compreso il mio.Siamo una società seria, in cui abbiamo investito molto, e ora abbiamo 1/10 dei visitatori di 15 giorni fa.
Sto applicando alcune modifiche in modo che il comparatore sia più user-friendly, ma anche google-friendly.
Facendo un po' di analisi mi risulta che le pagine che non contengono link di affiliazione hanno continuato ad avere buone posizioni, mentre quelle con l'elenco prodotti son calate drasticamente.
Quindi pensavo:
nella pagina che fa il redirect verso il sito affiliato faccio un controllo se si tratta di un motore di ricerca che ha richiesto la pagina stessa, in tal caso non faccio il redirect ma genero una pagina: (con queste possibilità)a) avviso che la pagina è innaccessibile per i motori
b) pagina con un contenuto personalizzato, diverso per ogni prodottoQual è il caso secondo voi migliore?
Questa tecnica è considerata legale o può portare ad un ulteriore penalizzazione\ban?
Grazie
elle -
Penalizzante una pagina con contenuto diverso utente\motore?
Salve a tutti,
ho molte pagine di un mio sito che fanno un redirect verso l'esterno.Sto parlando di comparazione di prodotti, pertanto ci sono molti link all'esterno.
Google recentemente ha penalizzato quasi tutti i comparatori, compreso il mio.Siamo una società seria, in cui abbiamo investito molto, e ora abbiamo 1/10 dei visitatori di 15 giorni fa.
Sto applicando alcune modifiche in modo che il comparatore sia più user-friendly, ma anche google-friendly.
Facendo un po' di analisi mi risulta che le pagine che non contengono link di affiliazione hanno continuato ad avere buone posizioni, mentre quelle con l'elenco prodotti son calate drasticamente.
Quindi pensavo:
nella pagina che fa il redirect verso il sito affiliato faccio un controllo se si tratta di un motore di ricerca che ha richiesto la pagina stessa, in tal caso non faccio il redirect ma genero una pagina: (con queste possibilità)a) avviso che la pagina è innaccessibile per i motori
b) pagina con un contenuto personalizzato, diverso per ogni prodottoQual è il caso secondo voi migliore?
Questa tecnica è considerata legale o può portare ad un ulteriore penalizzazione\ban?
Grazie
elle -
Secondo dominio (caso particolare) per lo stesso sito
Salve,
Posseggo un sito .com con PR6 da molti anni.
Finalmente ultimamente si è liberato il .itPrecedentemente il dominio .it faceva il redirect (non so se 301 o 302) ad un sito web che tutt'ora esiste anche se ultimamente non era puntato verso alcun sito in quanto avendo cambiato ip si erano dimenticati di redirizionarlo.
Se ora gli faccio fare un redirect 301 al mio sito .com, può succedere qualcosa di strano al .com o no?
Grazie
elle -
RE: Network di siti
Grazie Stuart,
per l'analisi completa.@Stuart said:
Ciao sottomare, benvenuta nel Forum GT
Nella fase iniziale della creazione di un network bisogna fare grande attenzione a:
- contenuti unici e originali su ogni dominio;
- no ad un linkaggio reciproco tra tutti i siti (tutti linkano tutti);
- attenzione ai backlink, l'ideale è che nessun sito del network abbia backlink in comune - usare questo tool come verifica http://www.webuildpages.com/tools/common-backlinks/
- No spam di nessun tipo. Basta la penalizzazione di un sito per far franare tutti gli altri;
- In virtù del punto 4, se all'interno del sistema vi è un sito considerato principale, non inserire link verso i siti satellite su di esso..Stuart
- qui non c'è problema
- ok, però, come scritto sopra, perderò in immagine dal punto di vista di network
- ok, farò attenzione ai link che inserisco sui miei attuali siti web, per il resto gli altri bl saranno naturali
- ok, qui non c'è alcun problema
- qui ho problema, sempre dal punto di vista dell'immagine come network
A questo punto,
intravedo due soluzioni, che tu stesso esponi:- Fregarmene dell'immagine come network
- Fregarmene del trasferimento di PR tra i vari siti del network
La migliore, in prospettiva, è la seconda, anche perchè essendo il progetto ambizioso, i bl verso ciascun sito arriveranno da soli (e sparsi qua e la - con intelligenza, non a caso - tra i vari siti web che posseggo).
Quindi, correggetemi se sbaglio, realizzerei il network in questo modo:
- domini separati o sottodomini? (questo è l'unico dubbio che ho ancora)
- tutti con lo stesso IP o stessa classe di IP (posseggo già tre server miei, quindi non mi sembra il caso di acquistare e gestire hosting da svariati provider, anche perchè così non ho alcuna limitazione su interventi da fare direttamente sulle macchine)
- tutti registrati sotto lo stesso nome
- in pratica voglio dichiarare anche a Google che il proprietario è uno solo e quindi che sono effettivamente un network (penalizzazione prevista: nessuna; vantaggi previsti: nessuno; nei fatti: i siti non passano PR tra di loro)
- tutti linkano tutti
- da ciascun sito che posseggo (questi sono registrati già loro stessi sotto lo stesso proprietario e appartengono tutti a max 2 IP con stessa classe) faccio un link verso un sito del network (cercando di trovare attinenza tra i due siti)
- il sito principale raccoglie i link degli ultimi articoli, di tutti i siti del network
- aspetto (di più rispetto alla prima soluzione) che i siti crescano (in realtà questo non è detto, perchè dando l'immagine di network è più facile che un utente dei vari siti, venga a conoscenza degli altri siti del network e inserisca un link verso uno di questi)
Questa era la soluzione che avevo sin dall'inizio in testa (il vero dubbio era sui sottodomini e domini), scusate se vi ho fatto sbattere tanto!, però volevo capire se c'erano altre possibilità.
Grazie
elle -
RE: Network di siti
Prima di tutto vi ringrazio,
e mi fa piacere che sia nata una discussione produttiva.Vedo in linea generale che la scelta suggerita è quella dei sottodomini, però a questo punto mi sorge una domanda:
- assegnare a ciascun sottodominio un IP con classe differente, ha dei reali vantaggi trattandosi di sottodomini?
Ok che i motori valutano come siti differenti, ciascun sottodominio, però non sono mica studipi che non capiscono che si rifanno tutti allo stesso dominio.
Ora mi state facendo venire dei dubbi
Creare da zero un network di siti, e linkarli tutti tra di loro, non capisco perchè un motore dovrebbe svantaggiarti, essendo appunto un network, con dietro un'unica redazione.
Mettiamola, così, forse è più realistico come esempio:
- Diciamo che il sito GiorgioTave.it voglia creare invece che sottocartelle, dei sottodomini, in questo modo:
- gif.giorgiotave.it
- html.giorgiotave.it
- seo.giorgiotave.it
- flash.giorgiotave.it
- php.giorgiotave.it
...
perchè ciascuno di questi siti non dovrebbe linkare tutti gli altri, se l'argomento è dedicato ai programmatori?
Perchè google o altri, dovrebbero penalizzarli,per un fatto naturale, ovvio e logico?
(mi sono forse espresso male, chiamandolo network?)x Cibino
rileggevo ora il primo post e volevo fare una domanda a sottomare: il discorso dei vari siti a pr 6 che quindi sarebbe più indicata come soluzione il dominio di terzo livello...volevo chiederti in base a cosa eri arrivata a questa conclusione?
Non potendo linkare tutti i siti del network dai siti da PR6, pensavo che linkando il dominio principale del network (utilizzando i sottodomini), da questo poi far propagare il PR ai sottodomini.
Grazie
elle! - assegnare a ciascun sottodominio un IP con classe differente, ha dei reali vantaggi trattandosi di sottodomini?
-
Network di siti
Salve,
è la prima volta che posto, ma vi seguo saltuariamente da molto tempo! Complimenti! (non lo dico per adularvi ;-), ma seriamente, faccio + o - lo stesso vostro lavoro, e apprezzo molto la vostra community).E' la prima volta che mi si presenta un problema di questo genere.
Dobbiamo realizzare un network di siti web legati tutti da un elemento unico, ma ciascuno monotematico. (es: un network di radio online, ciascuna di un genere).
Cosa mi consigliate? Fare un network stile blogo.it, ovvero ciascun sito con un proprio dominio o un unico dominio tipo radionline.it con un sottodominio per ciascun sito monotematico?
Lo dico, logicamente, in un'ottica per i motori di ricerca.
Ovvero nascendo da zero con 4 siti, e prevedendo nei prossimi tre anni l'apertura di almeno altri 15 siti monotematici, conviene usare un unico dominio con tanti sottodomini, o tanti siti differenti?
Logicamente, essendo un network, i vari siti saranno linkati tra di loro.
Aggiungo, se potesse essere utile, che posseggo vari siti web due dei quali con PR 6. Da ciascun sito possono linkare max 2 siti tra questi... quindi pensavo che forse mi conveniva realizzare il network con sottodomini.
Grazie
elle