Ecco il mio:
http://pagerank-patatrakonlinesubitoit/interviste/2/lapproccio-al-pagerank-patatrak.htm
Se vuoi lo metto anche sul mio blog, così puoi eventualmente fare domande lì.
Ecco il mio:
http://pagerank-patatrakonlinesubitoit/interviste/2/lapproccio-al-pagerank-patatrak.htm
Se vuoi lo metto anche sul mio blog, così puoi eventualmente fare domande lì.
NOOO!!!
Ho vinto la categoria Articolo o blog??
Non ci credo!
Vado a prendere un caffè, magari sto dormendo.
Domenica ero circa 41esimo...
Dopo un mese che per mancanza di tempo avevo dimenticato il contest, ero passato dalla prima alla ennesima pagina.
Mi accorgo di aver fatto una m33nchiata, vuoi vedere che sono penalizzato ?
Faccio un rollback e oggi sono (circa) diciottesimo.
Se entro 2/3 giorni arrivo in priuma pagina, mi sparo sui testicoli dopo averli messi a bagno nell'acido, dopo averli depilati col silkepil.
La cosa positiva è che dopo digg e flickr, sono primo su yahoo. Contentino per un perdente.
Onore ai vincitori.
E giusto per approfondire:
HTTP/1.1 - RFC 2616 (14.11 Content Encoding )
qui www w3 org/Protocols/rfc2616/rfc2616-sec14.html#sec14.11
e
Deflate compressed data format - rfc1951
qui www ietf org/rfc/rfc1951.txt
@Giorgiotave said:
Ciao Jeremj,
ci mostreresti due esempi di pagina compressa e pagina non compressa?
Non ci sono differenze né a livello di codice né a livello di visualizzazione.
Semplicemente, il traffico tra il server ed il browser è compresso.
Il browser lo decomprime, lo parsa, lo visualizza e non noti nulla.
Max
@Jeremj said:
Salve,
sto per attivare sul mio sito un programma di compressione html (httpZip di Port80). Mi chiedevo se avesse qualche effetto negativo sugli Spider dei motori in generale o per qualcuno in particolare.
Non conosco httpZip, ma sono quasi sicuro che IIS, nonostante sia una chiavica, lo possa fare da solo (sai com'è, uso Apache che lo fa da anni).
A parte questo, la gzip compression è una cosa che si attiva SOLO se il client la supporta. Altrimenti il documento non viene compresso.
In particolare, da specifica, il server (o lo script lato server) genera un output compresso solo se il browser fornisce un header particolare.
Conclusione: se httpZip non ha bug, non ci sono problemi con i motori.
Perchè se non lo vogliono o non lo supportano, non mandano quell'header nella richiesta.
MSN e ask, sono assente pure io.
Google sono ottavo/nono (ballo un pò), e su Yahoo sono nono con firefox, ennesimo con Safari o opera (mah, strana sta cosa).
Addiritura limitandomi a yahoo, vedo il .info in 7a con safari od opera e in 88a con firefox. Sta cosa non me la spiego.
Yahoo però noto che presenta flickr e digg tra i risultati, cosa che google non fa.
Sarà dovuto al fatto che yahoo è notoriamente più lento ?
A distanza di un mese mi sembra che, nonostante il numero di risultati sia variabile in base alle maiuscole, i risultati siano sostanzialmente simili...
Considerando che le sitemaps sono uno strumento piuttosto nuovo e tutto da scoprire, la mia personalissima conclusione è che "tutto fa brodo".
Ad ogni record delle sitemaps puoi attribuire un peso numerico da 0 a 1 quindi, secondo me, è bene:
Max
Il contest mi sta sembrando interessante, ma ancora più interessante, oltre al posizionamento dentro google, sono i risultati simili per alcuni siti, completamente diversi per altri, che si ottengono con la stessa SERP su google e yahoo.
Mi piacerebbe approfondire un pò questa differenza di posizionamento perchè se si riesce a capire qualcosa, si può:
Che ne pensate ?
@Giorgiotave said:
Salve ragazzi, mi riferisco ad errori gravi (Errore di compressione e Formato file non supportato), non di url non accessibili e via dicendo.
Eh pure io. il documento restituito dalle mie due sitemap era text/html, con contenuti validi. Nemmeno XML.
Più sbagliato di così... Penso sia più grave avere un documento non xml che un 404 o altro tipo di errore.
@Giorgiotave said:
E' importante riuscire a capire bene questo Strumento che Google ci offre
"Te lo appoggio".
E' per questo che sto alimentando il thread
@Karapoto said:
Confermo l'esperienza di Giorgio, ho fatto test suicidi per capire come ragiona google, ed in effetti gli accessi son scomparsi a causa degli errori nella sitemap, o meglio dal fatto che non le stavo più utilizzando e quindi dalle pagine finite rimosse.
Ieri le ho caricate e le ha prese subito, vi farò sapere come andrà.
Al momento nessuna variazione significativa nelle url restituite dal site:
Ho fatto anche io un test suicida stanotte (per sbaglio).
Ho scazzato del codice, stanotte, e le sitemap me le restituiva sostituendole con un contenuto html del sito. Le sitemap erano solo 2 su 10 di quelle di quel sito.
Oltre a correggere l'errore, ho notato che le pagine indicizzate erano sempre presenti nell'indice.
Forse il comportamento che notate è solo riferito alle pagine in fresh cache e non alle pagine già digerite da giorni ?
@Giorgiotave said:
Si confermo
Se una delle vostre Sitemaps da errore, tutti gli url vengono rimossi dalle SERP :():
Questo è quello che io sto notando. E' stranissimo e sto cercando di capire perchè succede; perchè l'indicizzazione è così dipendente dalla Google Sitemaps fino a questo punto.
Concordo parzialmente.
Ho un sito che ha una sitemapindex ed una decina di sitemaps.
Due di queste danno errore perchè sono vuote. Eppure sono indicizzato correttamente, non sono rimosso dalle serp.
Due i casi quindi:
@angelweb said:
Tutto normale.
Devi solo aumentare i link che daranno peso al tuo sito.
Ok, thanks, allora sto tranquillo.
@angelweb said:
Poi, se te lo ha detto prima Giorgio..
Ciao Giorgio!
Concordo do aver bisogno di links, ma il mio è più un problema di capirne il comportamento.
Ok, google quando fa il suo lavoro di crawler, si scarica le pagine, poi magari le indicizza dopo un pò. E fin qui ci siamo.
Ma in questo caso, le pagine se le è prese, erano visibili nell'indice, poi però le ha buttate dopo qualche giorno e non è più tornato!
Con il minisito del pagerank, invece, non si è fatto proprio vedere. Si è scaricato solo le sitemaps e manco il contenuto del sito!
E' normale ? O sono sfigato?
hola a tutti, sono nuovo qui sopra...
Volevo qualche hint su un comportamento che a me pare strano.
circa 10 giorni fa ho messo online una nuova versione del sito della mia azienda, tutto figo, XHTML strict compliant, sitemaps e tutti gli accrocchi per farlo "a regola d'arte", comprese le url parlanti.
Googlebot lo ha visitato diverse volte al giorno, indicizzandolo senza problemi tramite le sitemaps, tant'è che su google, site:$mysite mi forniva tutte le pagine.
Da circa 3 giorni è successo qualcosa di strano: google ha fatto sparire tutte le pagine nuove (tutte!) che prima aveva indicizzato, lasciando SOLO le vecchie ancora li.
Da allora vedo che googlebot viene periodicamente, si scarica le sitemaps aggiornate ma nonostante abbia anche aggiunto contenuti, non si degna minimamente di scaricare una pagina.
bannato non sono bannato, altrimenti non ci sarebbero in cache le pagine vecchie. Delle penalizzazioni non mi interessa nulla, visto che il mio scopo non è avere buoni risultati con alcuna SERP.
Yahoo, live e gli altri motori si stanno (lentamente) prendendo tutto.
Cosa può essere successo?
Aggiungo un'altra cosa: sullo stesso server, con lo stesso motore, 4 giorni fa ho aggiunto un sito per il contest "patatrak" (lo so, sono in ritardo).
Google ha lo stesso comportamento anche su quel sito. scarica le sitemaps ma non si prende nulla a livello contenuti.