- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Iniziato Update PR
-
@paocavo said:
Analizzando il generale abbassamento di almeno un punto di parecchi siti
credo proprio che con questo export del PR Google abbia definitivamente messo al bando (fuori dal conteggio del PR) BL profenienti da:- Directory
I Link buoni sembrano essere prevalentemente quelli presenti su siti in trust e posti all'interno di un buon testo.
Chi vede il proprio PR rimasto invariato può cantare vittoria, altrimenti bisognerà rimboccarsi le maniche e cercare di ottenere recensioni su siti well-knowns
Ciao Poacavo volevo capire come fa google a capire quali sono le directory. Ora mi chiedo anche quella di dmoz e altre importanti non servono a nulla? Oppure e considerata anche la mia come directory? visto che per ogni sito si genera automaticamente una pagina personale con testo e link che porta al sito grazie.
Altrimenti mi devo rimboccare le maniche e rifare il tutto
- Directory
-
ciao,
uno dei miei siti è passato da pr 0 a pr 5.
gli altri non si sono ancora mossi, ma dovrebbero... finiamo di attendere
-
@paocavo said:
Analizzando il generale abbassamento di almeno un punto di parecchi siti
credo proprio che con questo export del PR Google abbia definitivamente messo al bando (fuori dal conteggio del PR) BL profenienti da:- Directory
- BL a pagamento
- Scambio reciproco di BL
- Link in firma
- Farm-link
I Link buoni sembrano essere prevalentemente quelli presenti su siti in trust e posti all'interno di un buon testo.
Ciao Paolo,
...stavo pensando anchio la stessa cosa... Sembrano davvero troppe le segnalazioni in rete di abbassamenti di PR da pensare che dipenda soltanto dal naturale e fisiologico cambio di "scala" dovuto alla crescita dei documenti e delle pagine web... o c'è stato uno "scatto" nel ricalcolo degli "scaglioni" (0-10) che non c'era stato prima, oppure è come dici tu ... Google ha introdotto nuove variabili nella considerazione dei link ai fini del conteggio del PR....
Ho pero' una considerazione personale... gli elementi che tu citi (minore considerazione dei link comprati, scambiati, ecc) erano per me certamente (si fa per dire ) già presenti ai fini del ranking , non credi? ..non capisco quindi il motivo di aggiungere quelle variabili anche nel calcolo del PR...
Non credo che faccia certe considerazioni due volte... ti torna? quindi o li introduci come nuove variabili negli algoritmi di ranking o dentro il calcolo del PR (che poi certo è anch'esso un "algoritmo"..)
Dato che non penso che il PR visulizzato fosse stato fino ad oggi diverso dal PR reale (intendo come valore vero poi riportato in scala) allora le cose sono due: o fino ad oggi in realtà certe considerazioni sui link non erano tenute in conto oppure ci sono altri elementi nuovi...
..io per esempio avevo pensato ad una considerazione legata al "momento temporale" dell'ottenimento di un BL (vedi anche proprio l'ultimo brevetto uscito...) ... che so' considerando meno, ad esempio, bl molto vecchi ripsetto ai nuovi... oppure valutazioni legate al concetto di "pagine seme" introdotte dal "Trust Rank" (cioè un Bost al PR trasmesso da pagine seme ben definite che ha portato ad una variazione forte del valore dei nuovi PR tale da aver creato questo importante cambio di scala....)
chissà ... vediamo se in giro per il mondo , qualcuno trova la chiave giusta... (oppure semplicemente dobbiamo attendere la fine dell'update che anche la volta passata aveva avuto un primo momento "problematico" e poi una risitemazione successiva..)
Nicola
-
A mio avviso una concausa dell'abbassamento generale è stato il cosiddetto "Canonicalization update" , un update dell'algoritmo avvenuto il 22 Marzo (considerato ai tempi da moltissimi un aggiornamento PR, cosa assolutamente falsa). Questo update separa in maniera netta le url http://www.ciao.com e http://ciao.com dividendo il PR fra i due indirizzi in proporzione ai BL ricevuti da ciascuna. Webmaster Tools vi aiuta a risolvere questa nuova dicotomia. Da ciò che ho visto non vi è stata nessuna diminuzione di considerazione di alcuni siti rispetto ad altri, anzi G appare ancora piuttosto (molto) ingenuo in questo.
-
@paocavo said:
Analizzando il generale abbassamento di almeno un punto di parecchi siti
credo proprio che con questo export del PR Google abbia definitivamente messo al bando (fuori dal conteggio del PR) BL profenienti da:- Directory
- BL a pagamento
- Scambio reciproco di BL
- Link in firma
- Farm-link
I Link buoni sembrano essere prevalentemente quelli presenti su siti in trust e posti all'interno di un buon testo.
E mi hanno beccato in pieno!
Il mio sito aveva pr4 (non so come, visto che non lo aggiorno da anni e non ho fatto nessun tipo di segnalazione/promozione se non l'inserimento del link nelle firme dei forum) ed adesso e sceso a pr3.
Anche un sito per un cliente è sceso di un punto passando da pr3 a pr2, mentre gli altri sono stazionari su pr3.Ho constatato questa perdita di un punto anche in alcuni siti della "concorrenza".
Ma vale la pena farsi condizionare così tanto da questo numerino?
-
@dani74 said:
Ciao Poacavo volevo capire come fa google a capire quali sono le directory. Ora mi chiedo anche quella di dmoz e altre importanti non servono a nulla? Oppure e considerata anche la mia come directory? visto che per ogni sito si genera automaticamente una pagina personale con testo e link che porta al sito grazie.
Altrimenti mi devo rimboccare le maniche e rifare il tuttoGoogle "sa", per definizione, quali siano le prime N directory mondiali poi, credo, le nuove le scopre analizzando la struttura del sito ed il contenuto delle sue pagine.
Se la tua è una Directory, cioè è un mero elenco di siti organizzati in categorie e sub-categorie allora rientrarai nel cluster "Directory-Web-Site" altrimenti se invece crei una (buona) landing-page per ciascun sito allora la cosa è diversa...;) , IMHO.
-
@Eugene said:
Ma vale la pena farsi condizionare così tanto da questo numerino?
if (PR<3) and (Age>1) then Response.write("Yes") else Response.Write("No") end if
PS: Age indica l'età del sito e si misura in anni.
-
Secondo me state facendo supposizioni X.Filesiane. Google digerisce praticamente tutto ed è molto meno sofisticato di quello che si vocifera..anzi. Addirittura adesso dovrebbe filtrare le dir.. chissà poi perchè.
Ho un sito super spammoso, linkato da cani e porci anche tramite tecniche black hat (estreme) e con inserimenti automatici in commenti wordpress (in siti anche di lingue diverse), in web dir ecc. Roba che di affinita di argomenti c'entra MENO di 0 con il sito in questione. Anzi non ho nemmeno un sito neanche LONTANAMENTE affine che mi linka in tutto il web. Nemmeno 1. Risultato?
Pr5. E non solo.. per quelli che pensano che il pr non conti nulla, che ci voglia affinità di siti linkanti ecc... sono anche in cima a quasi tutte le serp settoriali.
-
@nbriani said:
Ciao Paolo,
...stavo pensando anchio la stessa cosa... Sembrano davvero troppe le segnalazioni in rete di abbassamenti di PR da pensare che dipenda soltanto dal naturale e fisiologico cambio di "scala" dovuto alla crescita dei documenti e delle pagine web... o c'è stato uno "scatto" nel ricalcolo degli "scaglioni" (0-10) che non c'era stato prima, oppure è come dici tu ... Google ha introdotto nuove variabili nella considerazione dei link ai fini del conteggio del PR....
Ho pero' una considerazione personale... gli elementi che tu citi (minore considerazione dei link comprati, scambiati, ecc) erano per me certamente (si fa per dire ) già presenti ai fini del ranking , non credi? ..non capisco quindi il motivo di aggiungere quelle variabili anche nel calcolo del PR...
Non credo che faccia certe considerazioni due volte... ti torna? quindi o li introduci come nuove variabili negli algoritmi di ranking o dentro il calcolo del PR (che poi certo è anch'esso un "algoritmo"..)
Ciao Nicola!
ti ricordo che PR=Page**Ranking **Dato che non penso che il PR visulizzato fosse stato fino ad oggi diverso dal PR reale (intendo come valore vero poi riportato in scala) allora le cose sono due: o fino ad oggi in realtà certe considerazioni sui link non erano tenute in conto oppure ci sono altri elementi nuovi...
Probabilmente il valore di uno stesso BL dipende dalla distribuzione per cluster dei siti referenti. Ad esempio se un un sito ha al 5% BL da scambio link allora saranno valutati ai fini del PR, viceversa se ha BL da scambio al 90% allora...ciccia!
..io per esempio avevo pensato ad una considerazione legata al "momento temporale" dell'ottenimento di un BL (vedi anche proprio l'ultimo brevetto uscito...) ... che so' considerando meno, ad esempio, bl molto vecchi ripsetto ai nuovi...
questo è un altro problema i cui effetti, credo, si vedranno in futuro...
oppure valutazioni legate al concetto di "pagine seme" introdotte dal "Trust Rank" (cioè un Bost al PR trasmesso da pagine seme ben definite che ha portato ad una variazione forte del valore dei nuovi PR tale da aver creato questo importante cambio di scala....)
Puoi spieare meglio il concetto e fornirci qualche riferimento? thanks
chissà ... vediamo se in giro per il mondo , qualcuno trova la chiave giusta... (oppure semplicemente dobbiamo attendere la fine dell'update che anche la volta passata aveva avuto un primo momento "problematico" e poi una risitemazione successiva..)
Non credo...
-
Da PR 0 a PR 2. Ottimo, almeno ora esisto pure io!
-
@superdan said:
Ho un sito super spammoso, linkato da cani e porci anche tramite tecniche black hat (estreme) e con inserimenti automatici in commenti wordpress (in siti anche di lingue diverse), in web dir ecc. Roba che di affinita di argomenti c'entra MENO di 0 con il sito in questione. Anzi non ho nemmeno un sito neanche LONTANAMENTE affine che mi linka in tutto il web. Nemmeno 1. Risultato?
Pr5. E non solo.. per quelli che pensano che il pr non conti nulla, che ci voglia affinità di siti linkanti ecc... sono anche in cima a quasi tutte le serp settoriali.Che dire.... Complimenti!
Ma nessuno pensa che Google sia tanto sofisticato o infallibile... se no non esisterebbero i quality Rater, no?
Certo che leggendo la storia, i documenti originali, i testi di studio e i paper dei vari ingegneri, se si pensa alla struttura ingegneristica , alle menti e alle persone coinvolte, alle decine di brevetti registrati intorno al motorone californiano (ma anche agli altri) , forse non sarà "sofisticato" come dici tu, ma io lo trovo "idealmente" e "intellettualmente" affascinate ... Google, ma anche gli altri big searcher, incarnano la frontiera tecnologica dell'information retrieval in rete, che ritengo un argomento davvero interessante e di forte impatto con il ns futuro prossimo cosi' ormai legato alla rete...
Per questo mi piace fare "supposizioni" e applicare il mio "modestissimo" pensiero e ragionamento teorico ...:D
Si fanno supposizioni "x.filesiane" in questo caso, semplicemente perchè colpisce un calo tanto diffuso di PR.... cosi' cercavo di ragionare a voce alta sulle possibili motivazioni...
Nicola
-
@superdan said:
Secondo me state facendo supposizioni X.Filesiane. ...
forse...
LowLevel tempo fa parlava di Google come un pentolone in cui ogni tanto (spesso IMHO) salta fuori qualche carota...
Quello che osservo nasce dall'analisi di molti siti e sono sempre discorsi generali, è ovvio che ci sono sempre eccezioni ...ma è solo questione di tempo...poi risistema tutto...
-
Ti dirò che a tutt'oggi Mister G si pappa ancora testo nascosto (invisibile ecc.), link nascosti, cloacking ecc. ecc. ecc. Ma alla grande proprio altro che filtri fantascientifici ecc. Ovvio può capitare che si venga bannati (ma non è detto, ci sono siti che sono cosi da anni e viaggiano ancora da dio..) ma SOLO dopo che un umano ne verifica la presenza (il cosiddetto cutt's antispam team). E quasi sempre SOLO dietro una segnalazione umana (cioè qualcuno che riempie il modulo e fa diciamo "la spia"). Secondo me G è sopravvalutato dai molti in realtà è molto ma molto piu semplice e "pistola" di quanto il 99% della gente creda. Anche queste supposizioni si basano su osservazioni (gestisco una 300ina di siti) e a mio parere basta sapere quelle 2-3 cose per muoversi abbastanza bene. Ovvio pero, quelle poche vanno sapute molto bene, in primis la struttura cosa che praticamente in Italia non conosce quasi nessuno e che invece è fondamentale. Saluti
-
Puoi spieare meglio il concetto e fornirci qualche riferimento? thanks
Cercavo soltanto di immaginare quali possibili cambiamenti potessero essere stati introdotti nel calcolo del PR.. e ripensavo ai vari documenti letti in passato ... cosi' mi era rivenuto in mente il "Trust Rank" ... con quel suo meccanismo di "documenti seme" di partenza che diffondono un parametro di Trust vero i siti linkati... cos' supponevo (ma non ho certamente riferimenti) che il Page Rank potesse aver avuto un simile sviluppo (cioè documenti autorevoli di partenza che hanno un valore aggiuntivo di page rank da distribuire) ma è senza dubbio una idea un po' forzata e tirata in ballo cosi' di sana pianta..
Mentre mi par piu' credibile l'ipotesi della "freschness" dei BL ai fini del conteggio del PR e l'introduzione del fattore temporale nella considerazione di un BL ... che mi pare un concetto ormai a 10/15 anni di distanza dal calcolo originario del PR e ad olltre 20 anni dalla nascita della rete che possa avere un qualche fondamento reale... (visti anche appunto i nuovi brevetti)
Nicola
-
**Secondo me G è sopravvalutato dai molti in realtà è molto ma molto piu semplice e "pistola" di quanto il 99% della gente creda. **
Mah... non so cosa sei abituato a considerare "complesso" visto che ritieni un MDR come Google "semplice"
A me pare invece che non solo la documentazione prodotta in questi anni sulla sua infrastruttura informatico/organizzativa, ma anche i risultati che sono sotto gli occhi di tutti (almeno i miei) quotidianamente in termini di prestazioni e qualità nello svolgimento del suo "lavoro" (l'information retrieval appunto) , di fronte ad un mare cosi' complesso, enormemente vasto e soprattutto cosi' poco "collaborativo" (vedi gli esempi che tu citi) , siano una prova inequivocabile della incredibile complessità della struttura necessaria a sostenere la qualità attuale... (penso lo stesso anche di ask, msn, yahoo, ecc eh, non fraintendermi)
Nicola
-
Io posso dire di aver perso un punto di pr ma il sito è salito tra i primi nelle serp per molte key.
Quindi non so a questo punto che valore dare al numeretto sulla barra...
-
@netdream said:
...Quindi non so a questo punto che valore dare al numeretto sulla barra...
Le due cose non hanno relazione.. i documenti in serp NON SONO SEMPLICEMENTE ORDINATI PER PAGERANK.
Nicola
-
la cosa bella è che parliamo un po' tutti per ipotesi basate su qualche paper (che non necessariamente ha reale valore) e per empirismo.
secondo me, il pagerank in sè mangia tutti i link. il fatto è che i link danno molto più del pagerank. ed è per questo motivo che dico che non bisogna puntare al pagerank, ma al ranking. se si lavora bene, il pagerank sale lo stesso, ma sicuramente il ranking ha maggiori chance di fare altrettanto, ed anche in tempi più rapidi.
sulle possibili cause del calo del PR, io non ci metto il fatto che google abbia smesso di valutare il pr di directory o altro. il PR secondo me è un dato molto grezzo. le cause le ho scritte qui e preferisco spammare che creare contenuto duplicaton
-
@must said:
le cause le ho scritte qui e preferisco spammare che creare contenuto duplicaton
Ciao Must!
avevo letto il tuo articolo ieri... (ho il tuo blog nel mio reader da sempre )
La cosa pero' effettivamente "strana", "nuova" è che se fosse per cause fisiologiche e naturali (come supposto anche da noi in questo thred) ... perchè prima non era mai successo?
o meglio perchè prima non era mai successo in maniera cosi' diffusa?
Possibile che solo in questi ultimi tre mesi ci sia stato un incremento cosi' incredibile di documenti in rete? ..non credo proprio... o forse era diverso tempo che non veniva ripesato il Pr ai dieci scalini della barretta in toolbar? possibile che sia un evento "discontinuo" e "manuale" ?
Mah.. io avevo dei dubbi, e quindi consideravo plausibile che fosse stato introdotto un qualche cambiamento...
Nicolap.s vieni su con Cavone al raduno? o devo venire a prenderti io....:():
-
Quando si parla di google come del "massimo", andrebbero fatti dei debiti distinguo.
Ingurgida miliardi di pagine spam che solo grazie alle nostre "lamentele" poi elimina. Non si pone alcuna domanda per stringhe come questa "ag345734573wjdasdjasdkas0rw90er9w00xc0zx9csxc90z9zxcxckjzxc9zx" usata nei domini. Non sa distinguere tra sito normale e sito pornografico. Il safesearch nel mio settore funziona solo grazie alle mie continue e stucchevoli segnalazioni (si poi qualcuno corregge).
Non riconosce il testo nascosto, non riconosce la lingua usata, non distinguendo molte volte tra il cinese e l'italiano (lo giuro e senza scomodare la semantica).
I brevetti ? Secondo me rappresentano nel 90% una lista di buone intenzioni e comunque rappresentano un sicuro ostacolo giurdico posto contro l'innovazione della concorrenza.
La toolbar? Ma avete mai provato a vedere se davvero comunichi con un qualche datacenter? Io l'ho fatto, e dalla mia esperienza l'unica toolbar che davvero pinga è quella di Alexa.