- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Msn e Google
-
Il mio sito è
www.maderafina.net (commercio elettronico)
per google ho usato sitemaps ed ho ottenuto ottimi risultati
prima di fare questo su msn avevo catalogate 1000 pagine e su google credo 6/700, ora ne ho circa 100 o meno.
Forse può dipendere dalla complessità dei link.
-
@maderafina said:
Forse può dipendere dalla complessità dei link.
direi di si, hai dai 2 ai 4 parametri in url....una mappa del sito dove raccogli i link alle pagine principali del sito nn c'è?
-
Esiste un modo per generare le pagine come fanno molti altri, ho visto kelkoo, trova prezzi etc.
Invece di:
http://www.maderafina.net/default.asp?cmd=getProd&cmdID=759&l=1
usare:
http://www.maderafina.net/amacalunga_cotone_giallo_it.htm
e così via per ogni articolo, in modo da falo catalogare ad altri motori,
poi quando uno è finito dentro il sito per navigare allora userà i link dinamici del sistema.
Si può fare?
Così otterrei l'attenzione di msn e yahoo?
-
tutto si può fare... con tempo e pazienza
Così otterrei l'attenzione di msn e yahoo?
direi che in generale ti arruffiani tutti i motorihai idea di come impostare il lavoro?
-
Ho alcune idee su come impostare il lavoro.
Quello che ho a disposizione è il database con tutti i dati.
Proverei forse a farlo con access, genero un modello e poi creo tutte le pagine e le butto sul sito.
Esiste qualcosa di automatico? O me lo devo creare.
Comunque farei come si fa una autocomposizione di lettere su word.
Se conosci qulche altro sistema consigliamelo.
Tieni presente che ho 700 articoli diversi.
-
Conoscete qualche programma che mi aiuti a trasformare pagine dinamiche del mio sito difficilmente catalogabili da yahoo con pagine statiche?
-
Sono pagine ASP, usa il global.asa (BeginRequest).... Googla!!
-
Grazie per l'informazione, usavo gia questo sistema.
Pero devo diversificare le pagine in base anche alla lingua, così catalogo la stessa pagina in 7 lingue. Altrimenti il motore di ricerca vede sempre la stessa.Mi servirebbe un generatore automatico di pagine html.
Dove lo posso trovare? Anche free se possile basta che sia valido.
-
Qualocosa che ti spiderizzi tutto il sito?? Puoi usare xenu
-
@maderafina said:
Esiste un modo per generare le pagine come fanno molti altri, ho visto kelkoo, trova prezzi etc.
Invece di:
http://www.maderafina.net/default.asp?cmd=getProd&cmdID=759&l=1
usare:
http://www.maderafina.net/amacalunga_cotone_giallo_it.htm
e così via per ogni articolo, in modo da falo catalogare ad altri motori,
poi quando uno è finito dentro il sito per navigare allora userà i link dinamici del sistema.
Si può fare?
Così otterrei l'attenzione di msn e yahoo?
Se la tua intenzione è quella di generare dei doppioni delle pagine interne te lo sconsiglio vivamente.
Hai pensato all'opportunità di creare delle "Landing pages" con indirizzo statico e query specifiche, che siano ottimizzate per le parole chiave che ti interessano e portino l'utente alla sezione più corretta del sito?
-
No, non voglio fare un doppione uguale identico. Lo so che verrei penalizzato.
Ma delle pagine molto semplici graficamente per farle catalogare bene da yahoo e msn.
Poi se uno clicca sul'articolo ad esempio entra nel sistema di ecommerce vero e proprio. Credo che siano landing page vero?Esiste qualche software che mi aiuti nella creazione.
Io parto da un db.
Le vorrei creare sul mio computer e poi scaricarle sul sito.
-
Voglio riportare un caso personale che fa pensare.
Da tempo sostengo che i motori si bilancino, o almeno alcuni si bilanciano-adattano in base ai risultati della concorrenza.Un mio sito serio e storicio da anni ed anni non aveva piu di 150 pagine indicizzate su msn. Da sempre.
l' 8 di questo mese per un errore probabilmente mio (robots.txt) mi faccio bannare il sito a pr5 da G, 30 mila pagine perse in un colpo... questo ripeto l'8 di novembre.
Ogni giorno ho un programmino che mi fa le stat delle pagine presenti nelle serp per i principali motori.
Oggi controllo il mio file excel delle stat e noto, per Msn:
113 28/10/2005 - 68 03/11/2005 - 3.712 08/11/05 - 3.944 16/11/05
Incredibilmente (si fa per dire) come G ha levato le pagine del sito dalle sue serp Msn ne ha presentate, nelle sue di serp, ben 3.700
Un caso, una coincidenza? O controlli incrociati giornalieri?
Non so ma sono convinto che il sistema piu' sicuro per aumentare gli accessi sia 1 contenuto su 3 domini e con 3 robots.txt diversi.
Lavoro di poche ore, spesa ridicola e risultati "sorprendenti". (e grazie al robots ogni motore non vede contenuto duplicato, per il motore il vostro contenuto e' e sara' sempre unico).
Inoltre si puo' giocare sui link. Msn se ne frega attualmente della qualita' dei link, G no. Allora tanti link pacco al dominio ad uso e consumo di Msn e link mirati a quello per G.
Avere un unico dominio significa o perdere link utili ad M o rischiare penalizzazioni su G. Perche' rischiare? Perche' salire li' quando si scende la' e viceversa? Non e' meglio salire per ogni motore?
-
Stesso sito, ma stat per yahoo:
30.600 28/10/2005 - 42.400 08/11/05 - 69.100 16/11/05
Notare che sono anni che il numero delle pagine del sito in questione sono sempre le stesse, cento piu' o cento meno ogni mese... e dopo 5 anni yahoo mi raddoppia di colpo nelle sue serp, nel giro di una settimana, le pagine presenti per il sito ora bannato da G?
Ma non me la ha spiderizzate in questa ultima setimana, vuol dire che da tempo le aveva nei suo db ma non riteneva opportuno presentarle agli utenti. Ora che non ci sono piu' su G ecco che magicamente appaiano...
-
Ciao Agoago
Ma cosa hai combinato per farti bannare da google?
E cosa intendi per 3 domini, ognuno con il suo robots.txt
Ma io ho un ecommerce come fare a gestirlo su 3 domini diversi?
Potrei usare l'ecommerce sul mio principale www.maderafina.net che ha catalogate ben 24000 pagine credo, poi far catalogare solo da msn su www.maderafina.it con delle landinpages semplici, e poi far catalogare solo da yahoo su www.maderafina.biz con delle landinpages costruite diversamente. Tutte che puntano poi a il mio ecommerce.
Questo volevi dirmi?
Ok ma come creo allora queste pagine statiche in automatico per fare prima?
Ho 6/700 articoli in 7 lingue diverse.Quale è il tuo dominio così curioso un pochino.
-
Il giorno che G mi ha bannato il mio server e' stato meravigliosamente bucato da qualche bravo professionista che non solo ha cambiato il codice adsense mio con quello di un altro (magari suo) ma credo abbia anche modificato il mio robots escludendo G e poi operando un remove urls.
Ho scritto al support di G vediamo se riescono a dirmi qualcosa di piu'.
Per quanto riguarda i 3 domini e' molto piu' semplice di come immagini.
Apri 2 nuovi domini e duplichi il contenuto del primario. I 3 domini-siti sono identici in tutto e per tutto, 3 cloni.L'unica differenza e' che i 3 robots (ovviamente 1 per dominio) saranno differenti e cosi' impostati:
- escludi l'accesso a M e Y
- escludi l'accesso a M e G
- escludi l'accesso a Y e G
Fine, lavoro di un'oretta, poi lavori di link esterni, a seconda dei motori.
Poca spesa tanta resa.
-
Come tutti i post di Ago, geniale.
Quello che però mi sono sempre chiesto, google e gli altri motori sanno cosa c'è dietro al robots?Mi spiego: d'accordo i contenuti non sono indicizzati, ma non è possibile che google "sappia" o "intuisca" quanto si trova nelle sezioni del sito da non indicizzare?
-
@Catone said:
Mi spiego: d'accordo i contenuti non sono indicizzati, ma non è possibile che google "sappia" o "intuisca" quanto si trova nelle sezioni del sito da non indicizzare?
più che intutire è sicuro che i motori seguano alla lettera le istruzioni del robots.txt (sono sembre il solito ma mi fido poco )magari un okkiatina per vedere senza indicizzare (almeno publicamente) il contenuto delle directory vietate dal robots.txt
-
Per capire questo dovrebbe essere sufficiente verificare i log.
Il contenuto dele pagine per le quali lo spider non fa richieste non può essere conosciuto.A meno che, ovviamente, alcuni motori non utilizzino user-agent o spider diversi da quelli proprietari o ufficiali.
In effetti... siamo punto e a capo
-
Bah guardando il log ogni tanto mi sembra che qualche tentativo venga fatto in questo senso.
Soprattutto il primo bot di msn, quello che consumava giga di banda...