- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Max 2 risultati per dominio nella serp
-
a quanto ho capiro domini diversi (intesi in questo caso anche come sottodomini non percepiti collegati al principale) sono siti a se stanti. se ebay ha sottodomini per ogni sua categoria potrebbe non risentirne in modo consistente di tale modifica.
-
Post sbagliato, scusate.
-
Bene ragazzi,
questo diventa il weekly thread della settimana
-
Probabilmente non verrà applicato a tutti i domini di terzo livello, perchè se consideriamo blogspot e wordpress, sparirebbero dalle SERP moltissime pagine.
Stessa cosa vale per i servizi di web-hosting gratuito che offrono un dominio di terzo livello per creare siti.
Sicuramente è una soluzione positiva per quei siti (spam engine in primis) che utilizzavano questa "pecca" nell'algoritmo per posizionare pagine dei sottodomini molti simili a quelle del dominio principale.
-
Non vedo l'ora di vederlo in azione
Google sta davvero facendo lucidando bene le sue serp, andando a togliere la polvere anche negli angoli più impensabili.
Magari hanno notato che usando questa tecnica la qualità delle ricerche si alza, sopratutto facendo sparire molti risultati doppioni.
Pensando a Wordpress ad esempio, con un sistema di tagging ben fatto e con tanti blog su un argomento, le serp potrebbero essere coperte da Blog.
Lo stesso per ebay.
Questo non significa più diversificazione per l'utente e secondo me unificare domini e sottodomini permetterà a Google di pulire alcune serp da alcuni domini pesanti, andando a dare risposte sempre più differenti tra loro e quindi cercando di soddisfare più utenti (dando più risposte).
Secondo me eh, poi magari...
-
Vi confermo che i domini di terzo livello, nell'ottica di questa novità , almeno per il momento vengono considerati DOMINI A PARTE...
-
Vero, per il momento non è ancora attivo.
-
kijiji piangerà ..
-
@verywell said:
kijiji piangerà ..
Sinceramente vedo ancora piu' di 2 risultati per kijiji... una serp a caso: scarpe nike.
-
Questa riduzione dei risultati sara valido anche per domini differenti con stesso IP?
io ho molte pagine indicizzare come
www.nomedominio1.it/nomepagina.htm
www.nomedominio2.it/nomepagina.htme alcune volte capita che google mi metta la stessa pagina con domini differenti...naturalmente per me è una buona cosa...dite che non ssarà sempre cosi??
-
@didif78 said:
Questa riduzione dei risultati sara valido anche per domini differenti con stesso IP?
Non centrano i domini differenti, qui si tratta di sottodomini.
Secondo me non verra mai utilizzato questo sistema, anche perché basterebbe spostare uno dei due siti su un altro hoster e sei matematicamente sicuro che gli IP sono diversi... molto diversi.
-
ci sarà un bel po' da lavorare a livello seo per far si che le due pagine siano sempre le migliori del sito...
comunque darà una bella pulita alle serp
-
scusate ma se fosse davvero cosi...siti come forumfree.net, forumcommunity.net wordpress.com che fine farebbero?
-
@Final_Player said:
scusate ma se fosse davvero cosi...siti come forumfree.net, forumcommunity.net wordpress.com che fine farebbero?
@dechigno said:
Probabilmente non verrà applicato a tutti i domini di terzo livello, perchè se consideriamo blogspot e wordpress, sparirebbero dalle SERP moltissime pagine.
Stessa cosa vale per i servizi di web-hosting gratuito che offrono un dominio di terzo livello per creare siti.
Ci dovrebbero proprio essere delle esclusioni da questo filtro.
Inoltre a quanto pare da una lettura più attenta, non dovrebbe essere un taglio netto, cioè non sarà impossibile posizionarsi per determinate query su più sottodomini, ma solo molto più difficile.
-
Ora ci tocca aspettare ma ci sono varie prospettive interessanti:
- può essere applicato solo ad alcuni domini
- cambia il modo di trasferire Trust
Secondo me la cosa più bella sarebbe escludere i sottodomini anche da Wordpress, Blogspot e via dicendo. Cambierebbe anche il mercato Globalmente e vorrei proprio vedere come si muoveranno poi i BIG
-
Ciao a tutti,
in passato le grandi aziende hanno usato i sottodomini come strategia per affermare i loro brand e invadere le SERPs anche senza avere molti contenuti da offrire (ebay in primis).
A questo punto bisognerà lavorare ancora di più sui contenuti: non basta più creare un sottodominio per guadagnarsi una fetta maggiore traffico.Si prospettano tempi duri e nuove opportunità !
-
anche per quantor iguarda il mio dominio posso dire che ci sono ancora i sottodomini...
-
@Girovago said:
Lo stesso discorso vale per eBay?
Ogni volta che cerco qualcosa in prima pagina ci sono 4-5 link al sito di aste
Credo che il discorso valga soprattutto per ebay e per chi fa come loro, proprio per evitare che ogni volta che qualcuno cerca qualcosa in prima pagina ci siano 4-5 link allo stesso sito.@claudioweb said:
Esempio pratico: la ricerva giorgiotave oggi restituisce un paio di risultati per il sito www.giorgiotave.it, altri risultati per blog.giorgiotave.it, agriturismi.giorgiotave.it ecc.
Qui è diverso: giorgiotave.it è il nome, il brand del sito. Così come "tuttojesolo", è paragonabile a "ibm" nell'esempio che fa Matt Cutts quando ne parla. E quindi, è giusto che monopolizzi le prime due pagine di risultati per "giorgiotave" (in cui è chiaro cosa cercava l'utente, ed è giusto che gli si presenti tutto ciò che è disponibile in merito), ed è altrettanto giusto che non sia così per "forum seo" (dove invece è corretto fornire molteplici alternative).
Infatti credo che questo filtro non si applicherà :
- a sezioni realmente distinte ospitate su terzi/quarti livelli dello stesso sito (come corporate blogs, forum, sezioni localizzate ecc) nel caso di ricerche per brand, che a guardar bene è ben diverso dall'avere un sottodominio per ogni keyword o nicchia tematica per coprire serp generiche;
- a siti che offrono spazi ospitati su terzi livelli, perchè ogni sottodominio è di fatto un sito a sè e come tale deve avere le stesse possibilità degli altri, indipendentemente da dov'è ospitato.
Queste valutazioni non credo siano difficili da fare in via algoritmica, quindi la mia opinione è che i siti che non vengono toccati dal filtro non verranno decisi basandosi su una white list, ma in base a:
- grado percepito di appartenenza del sottodominio rispetto al sito madre (la domanda è: è una sottosezione o proprio un'altra area, o addirittura un sito a parte?)
- tipo di query immessa dall'utente (sta cercando qualcosa riferito proprio a quel nome, o la sua ricerca è generica?)
Credo sia questa l'ottica in cui va letta l'introduzione di questa tecnologia: non si vuole sparare a zero sui terzi livelli indiscriminatamente, ma il filtro va interpretato cum grano salis e penso che ci si debba aspettare che sarà applicato solo a chi usa i sottodomini per saturare le serp generiche.
Just my ? 0.02
-
Ottima spiegazione, la tua soluzione mi sembra la più indicata, speriamo facciano realmente così
-
Interessante Petro...ti faccio una domanda
Per siti misti?
Cioè per siti che usano i sottodomini sia per dare spazio agli utenti sia per i propri contenuti attinenti al sito madre?.