• Community Manager

    Quanto conta oggi il PR? [Esercizio per Tutti]

    Presa visione della situazione globale sul PageRank (se ne sentono di tutti i colori), in [url=http://www.giorgiotave.it/forum/viewtopic.php?p=52981#52981]questo topic Mamilu ci invita a fare ora uno studio sul PageRank.

    Ecco la sua proposta:

    @Mamilu said:

    E allora Giorgio, perchè non ci facciamo uno studio sopra?
    Perchè non si apre un bel thread, si identifica un bel sitozzo a caso e si comincia ad analizzare il PR che mostra la toolbar e si cerca di capire quanto ha effettivamente in modo approssimativo, da cosa è dato questo valore, quanti BL ha, il peso, la pertinenza ed il PR di detti BL, la sua anzianità ecc., le sue pagine interne, il sistema di link, la situazione grafi, da quali principali fonti insomma proviene quel PR ed una volta per tutte cerchiamo di dare una nuova dimensione a questo valore.

    Tentiamo?
    Avresti qualche idea per un sito test?

    Bene, mi sembra una bella proposta. Come sito mi sembra di gran lunga iil più adatto Motoricerca.info.

    Proporrei, per iniziare, delle domande come:

    1) Quanto ha di PR, approssimativamente, la home page di www.motoricerca.info ?

    2) Da quali principali fonti proviene quel PR?

    Chi se la sente di partire? Che ne dite?


  • User Attivo
    • rigistrato il 28 ottobre 2001

    • pr 5 su tutti i data center

    • links interni 21

    • links esterni 7

    • links in entrata 1400 (yahoo)

    • links unici in entrata 190 (yahoo)

    • è in dmoz

    • ha 72 pag in archive.org


  • Super User

    Non si conosce una persona contandone le molecole.

    pr 5 su tutti i data center

    Sì sì, ma l'esercizio non consiste nel farsi infinocchiare da quello che dice Google, consiste nell'ottenere informazioni corrette osservando vari elementi.

    Se fosse sufficiente guardare la barretta verde per rispondere alla prima domanda, che esercizio sarebbe? 😉


  • User Attivo

    non volevo dire che il tuo pr è 5.
    volevo dire che tutti i datacenter dicono 5

    😄


  • Super User

    @Matteo said:

    non volevo dire che il tuo pr è 5.
    volevo dire che tutti i datacenter dicono 5

    Giustissimo. Mettere in chiaro la differenza tra le due cose è il primo passo da fare. 🙂


  • Super User

    image

    image

    Questi potrebbero essere alcuni aspetti della situazione grafi.


  • Super User

    Hmm.. purtroppo no, quei grafici non aiutano.

    Io farei un passo alla volta, comunque. E' importante innanzitutto quantificare il PR della home page senza fidarsi di quello che mostra la toolbar. Consiglio di fare un'analisi manuale, i software in questo caso non servono.

    Quantificare il PR di una pagina dovrebbe essere un passo importante per tutti quelli che fanno scambio link, no? Penso che questo esercizio potrà aiutare gli "scambisti" a non prendere fregature.

    Quindi: quanto PR ha la mia home page? 😉


  • User Attivo

    Per me esistono almeno 2 pr, uno visualizzato tramite datacenter ed uno nascosto.

    Il pr pubblico corrisponde alla vecchia formula del pr, quello nascosto potrebbe rappresentare il pr negativo, o magari il pr positivo (vecchio) + il pr negativo.

    Il pr negativo e' dato da una serie di valutazioni non espresse dalla vacchia formula basata sulla quantita' e distribuzione dei link, ma terrebbe conto anche della qualita', quantita', tempi di distribuzione dei vari link e via discorrendo.

    La somma del pr visibile e quello non pubblico formerebbe (almeno in parte) il famoso tr.


    C'e' da dire che per G pr ed un domani tr, assume-assumono un peso notevole al fine della valutazione complessiva di un sito, o di parte di esso.

    Questo perche' tutti motori hanno in comune una scelta politica di sort direi storica, che affonda le proprie radici nella storia stessa dell'arte della catalogazione.

    Per valutare usano un mix di algoritmi (tantissimi) ai quali assegnano pesi diversi, la somma dei valori assegnati da ogni algoritmo da un valore finale, che e' in pratica il valore di quanto valutato.

    Un algoritmo puo' assegnare da 0 a 100 punti, un altro da 0 a 1000 e via discorrendo. Sommano il tutto e valutano. Sempre che, cosa e' in analisi, superi i filtri di spam.

    I pesi dei vari algoritmi possono cambiar in modo dinamico, a secondo di tanti fattori, festivi o meno, nazione, lingua ecc ecc.

    Oggi lo stesso sito vale 2000 domani 1980, dopodomani 2020. A seconda di come si muove mercato, utenti ecc ecc


    Ma di fatto, oggi, una pagina, un sito e' la somma di tanti algoritmi.

    Questo sembra, ad oggi, essere il miglior metodo di valutazione, ma non lo e', almeno non lo e' in modo sistematico.

    Ci sono eccezioni per le quali non e' conviente sommare i valori assegnati da tutti i vari algoritmi (sia positivi che negativi), ma conviene, e' opportuno, basarsi solo su alcuni di essi, a seconda della forza espressa dagli stessi.


    Oggi se un algoritmo mi restituisce come risposta un valore talmente negativo io motore arrivo a bannare il sito, senza preoccuparmi del resto.

    Capisco da quel algoritmo che mi trovo davanti a puro spam, e banno.


    Se un dato algoritmo riscontra per un sito-pagina valori positivi altissimi, ma che non rientrano nelle medie previste, io motore tendo a penalizzare comunque in quanto i valori sono fuori dai miei range... nel migliore dei casi invece non penalizzo, ma viceversa sommo quei valori alti, accettandoli, ai valori di tutti gli altri algoritmi.

    Entrambi questi comportamenti sono discutibili, sono vecchi concetti, vecchi come chi scrive.


    Ci sono 2 "mondi" di sort ben distinti, quale sia il migliore lo giudicheranno gli utenti.

    Il primo, l'attuale, e' composto da "macchine"" che stabiliscono, algoritmo per algoritmo, quanto valga, il valore-sort di una pagina, key per key.
    Stabiliscono il valore delle pagine in base alla somma di vari loro algoritmi.

    Il secondo mondo e' ben distinto dal primo.
    Concettualmente potremmo dire che e' all'opposto dal primo, pur usando gli stessi algoritmi, e valori assegnati da quegli algoritmi.


    Ora soffermatevi un attimo, e pensate...

    Ragionateci bene... secondo voi puo' esserci qualcosa di meglio di un sistema meramente automatizzato (e velocissimo) che utilizza-sfrutta la somma dei risultati di svariate formule matematiche per catalogare e sortare miliardi di pagine?

    Quando G, anni fa, allineava decine di migliaia di pc e concepiva i migliori algoritmi per sortare il web, sommando per fare il sort i valori risultanti dai vari algoritmi, alcuni di noi si ponevano la domanda se questa fosse la soluzione migliore.

    Abbiamo assistito nel tempo allo sviluppo di altri grossi sistemi di catalogazione, alltheweb, gigablast, teoma ed ora msn, ma tutti basati sempre sullo stesso principio, automazione+somma dei valori dei loro diversi algoritmi.

    Poi qualcosa e' cambiato, in modo furtivo G ha iniziato ad appogiarsi a persone-personale che condizionassero, in base al loro giudizio, le serp.


    Era l'inizio del secondo mondo. Il secondo mondo prevedeva sistemi ibridi, formati da algoritmi automatizzati e dal giudizio umano. Primativamente il giudizio umano era rifuggito, condannato da ogni informatico, perche' si basava su una teoria in base alla quale non ci fosse "ai" che non potesse fare come e meglio del giudizio umano.

    Si sono dovuti ricredere. Solo un sistema misto uomo macchina da i migliori risultati.

    A questo oggi e' arrivato G.
    Dopo tanti anni. A valersi di collaboratori unami per capire meglio come sortare manualmente il web. Ci ha messo almeno 5 anni dalle prime teorie sui motori ibridi, ma alla fine ce l'ha fatta.


    Possiamo per questo dire che G ha finalmente raggiunto la seconda epoca-mondo (ovvio che ce ne sara' una terza ed una quarta e chissa quante altre)?

    Mi piacerebbe, ma G e' si e no a meta' strada. Gli altri motori neanche all'inizio.

    Cosa manca per completare il secondo ciclo?

    Non ne siamo certi, ma ipotizziamo la predominanza assoluta di un algoritmo.

    In un sistema ibrido, potendo verificare i migliori siti tramite giudizio umano, li si puo' "marcare" manualmente.

    In caso di "marchio" positivo allora non conta piu' il valore dato da il sigma dai vari algoritmi, ma conta l'algoritmo predominante che inficia tutti gli altri.


    Ora si entra nel filosofico, nel meta.
    Su questa seconda parte si puo' discutere come discutessimo di fatti religiosi. Compito improbo per tutti noi.

    Abbiamo 2 atleti.

    Il primo migliore in corsa ma scarso nel resto, non solleva pesi, non salta in alto ecc ecc.

    Il secondo atleta bravino in tutto, mai arrivato primo, ma trai primi 10 al mondo per ogni specialita'.

    Cerco la key "migliori atleti olimpionici". Ipotizziamo che ci siano solo 2 siti, quelli dei 2 ipotetici atleti.

    Quale dei 2 dovrebbe risultare primo nelle serp?


    Ad oggi appare tra i primi solo il secondo, il primo caso sara' bannato o penalizzato in quando fuori dalle medie previste.

    Ovvio che questo esempio legato allo sport e' sciocco, banale, ma rende l'idea della differenza tra la prevalenza di un algoritmo e la somma di tutti gli algoritmi.

    Un sistema automatizzato e "disumano" deve basarsi sulla somma dei vari algoritmi, mentre un sistema ibrido puo' basarsi anche solo e/o principalmente sul valore predominante, dando-assegnando poco o nulla peso ai valori degli algoritmi che non raggiungano i primissimi posti.


    Il tutto, in concreto, si riassume apparentemente tra 3 opzioni, per i motori.

    Automatico-sommatoria (tutti meno G)
    Ibrido-sommatoria (G)
    Ibrido-prevalenza e poi a seguire sommatoria.


    Ok, prendiamo il tutto per buono, ovviamente per chi concorda con questo scenario, nessuno e' obbligato.

    A proposito, una volta mi facevo forte di questa frase: posso non essere daccordo con le tue idee ma combattero' alla morte perche' tu le possa esprimere.

    Come non si puo' essere in sintonia con questo principio???

    Poi, un mio caro amico, un nichilista convinto, mi disse: non rischierei mai la mia vita per difendere le mie idee... potrebbero essere sbagliate.

    Se mi avessero sparato nello stomaco avrei sofferto meno, capisco la differenza tra il difendere la liberta' di espressione altrui e la sciocchezza dei fondamentalisti, ma fa male lo stesso.


    Comunque, ho presentato 3 ipotetici principi dai quali i motori possono partire... pero' puo', per un seo, finire qui?

    Ovviamente no, a seconda di quale "strada" percorrano in futuro i motori noi dovremo adeguarci di conseguenza, ma attenzione.

    Se anche voi credete che la strada dei motori, prima o poi, sia quella che da Automatico-sommatoria diventi Ibrido-prevalenza allora dovrete rivedere molte delle basi che oggi fondamentano il vostro lavoro.


    Pensate ad un seo che lavora ed ottimizza oggi pensando di trovarsi di fronte ad un computer che lo valuta.

    Poi un seo che sappia che chi lo giudichera' sara' un editore, un po' come dmoz, e poi i vari automatismi.

    Poi un seo che sappia che se passa l'analisi umana dovra' confrontarsi dimostrando di essere il meglio per un dato algoritmo, non mediamente discreto per tutti i vari algoritmi.


    Infine, pensate che tutto queste analisi appartengono a seo italiani (mica tedeschi, americani o indiani) e sono cosi' vecchie che in quel tempo Page e company mangiavano prevalentemente hanburger al macdonald o alla mensa dell'universita', sbarcando il lunario.

    Ora Page e' giustamente tra gli uomini piu' ricchi del mondo, spero per lui che sappia distinguere l'Amarone dalla coca cola, ma non basta poterselo permettere, prima bisogna conoscerne l'esistenza.

    Se in grado, riuscira' parimenti a passare dalla somma statica, alla somma dinamica, alla prevalenza, e ce la puo' fare, visto prima o poi che per l'ibrido ci ha messo solo qualche anno, (noi italiani l'ibrido l'avevamo online da anni).


  • Super User

    @agoago said:

    Poi qualcosa e' cambiato, in modo furtivo G ha iniziato ad appogiarsi a persone-personale che condizionassero, in base al loro giudizio, le serp.

    Questo approccio però è usato anche da Yahoo ed MSN, sebbene in modo diverso (informazioni antropiche per Yahoo, IA per MSN).

    Loro non lo considerano ibrido affatto. Persino le informazioni provenienti da persone-personale vengono considerate solo una parte dell'algoritmo (e, sì, sommata al resto, inevitabilmente).

    Il discorso è interessantissimo e meriterebbe un thread a sé, anche perché devia un po' dal tema e dall'obiettivo che avrei voluto raggiungere: ci sono migliaia di webmaster e SEO che scambiano link in base al PR e se riusciamo con questo esercizio a raggiungere le conclusioni che spero di ottenere, riuscirò a far prendere un colpo a moltissimi "scambisti di link". 😄

    Ma per fare questo è necessario innanzitutto capire quanto PR ha la mia home page.


  • Community Manager

    @LowLevel said:

    Il discorso è interessantissimo e meriterebbe un thread a sé, anche perché devia un po' dal tema e dall'obiettivo che avrei voluto raggiungere: ci sono migliaia di webmaster e SEO che scambiano link in base al PR e se riusciamo con questo esercizio a raggiungere le conclusioni che spero di ottenere, riuscirò a far prendere un colpo a moltissimi "scambisti di link". 😄

    Merita un discorso a se, possiamo anche aprire un altro thread per non deviare questo.

    Sinceramente Low, è da un anno che non calcolo più il PageRank e le cose sono cambiate.

    Mi cimenterei volentieri nel calcolo della tua home page, ma non saprei da dove partire.

    L'unica cosa sicura è che una parte (o tutto) il PageRank è dato dai link che si ricevono. Ma come calcolare la quantità passata?

    Come si iniziano a fare i calcoli?

    Da dove si parte?

    Non è tutto scontato come sembra...


  • Super User

    @Giorgiotave said:

    L'unica cosa sicura è che una parte (o tutto) il PageRank è dato dai link che si ricevono. Ma come calcolare la quantità passata?

    Non aspiravo a calcolare il vero PageRank. Si tratterebbe di una cosa troppo complessa per quel tipo di sito.

    Miravo più a trovare delle tecniche alla portata di tutti per capire quanto fasullo sia ciò che mostra la toolbar.

    Per un attimo, prendiamo per buona l'indicazione della toolbar e decidiamo di farci volutamente infinocchiare da quello che dice. Essa sostiene che il PR della mia home sia 5.

    Un buon primo passo da fare è quello di dare un'occhiata alla struttura del sito e ad altre sue pagine oltre la home per capire se quel PR5 è "alto" o "basso". Sono certo che diversi forumisti hanno già fatto questo più volte.

    Un secondo passo è quello di fregarsene della toolbar e di dare un'occhiata all'indicatore del PageRank della directory di Google, meno preciso della toolbar ma aggiornato più frequentemente, sebbene non per tutte le categorie.

    Il mio sito ha la fortuna di essere presente in più categorie di DMOZ, ovviamente con pagine diverse. Quindi andando a guardare le pagine corrispondenti della directory di Google è possibile acquisire informazioni più precise sul valore di PageRank di più di una pagina del sito.

    Per ora mi fermo qua.

    Ovviamente a questo punto dovrebbe essere ovvio che la home page del mio sito possiede un PageRank superiore ad un PR5, più che altro perché deve pure esserci una ragione se insisto così tanto 😄 .

    Vediamo se c'è qualcuno interessato a quantificarlo meglio quel valore.

    Forza! Che la strada verso "quando A scambia un link con B, uno dei due ci perde e l'altro ci guadagna" è ancora lunga. 😉


  • Super User

  • Community Manager

    La directory di Google mostra che hai tre pagine con PageRank 6 e due con PageRank 5

    PageRank 6

    Home Page di [url=http://www.motoricerca.info]Motoricerca.info inserita in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Marketing/Registrazione_e_Posizionamento_sui_Servizi_di_Ricerca/?il=1]Registrazione e Posizionamento sui Servizi di Ricerc

    [url=http://www.motoricerca.info/news/]NewsBlog di Motoricerca.info inserito in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Marketing/Weblog/?il=1]Internet > Marketing > Weblog

    [url=http://tool.motoricerca.info/robots-checker.phtml]Robots.txt Checker inserito in [url=http://www.google.com/Top/Computers/Internet/Web_Design_and_Development/Authoring/Online_Tools/robots.txt/?il=1]Authoring > Online Tools > robots.txt

    PageRank 5

    [url=http://tool.motoricerca.info/keyword-density.phtml]Keyword Density Calculator inserito in [url=http://www.google.com/Top/Computers/Internet/Web_Design_and_Development/Authoring/Online_Tools/Keywords/?il=1]Authoring > Online Tools > Keywords

    Articolo [url=http://www.motoricerca.info/articoli/odp.phtml]Capire ODP e far valutare un sito inserito in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Ricerca/Directory/Open_Directory_Project/Rassegna_Stampa/?il=1]Open Directory Project > Rassegna Stampa

    Sicuramente hai più di quello mostrato dalla toolbar 😄


  • Super User

    Ci stiamo avvicinando. 🙂

    Voi lo chiamate "PR6", ma in realtà la directory di Google usa una scala diversa da quella della toolbar e una barretta verde che misura 27 pixel può corrispondere sia ad un PR6 che ad un PR7.

    Anzi, statisticamente un "27 pixel" è probabile che sia più un PR7 che un PR6.

    Adesso, il prossimo passo è partire dal presupposto che la home sia almeno un PR6 e stabilire se si tratta di un PR6 basso o alto. Per questo bisogna dare un'occhiata alla struttura del sito web, che in questo caso è gerarchica.

    La home sta in cima, al livello inferiore ci sono le sezioni di secondo livello, elencate nel riquadro di navigazione in alto. Se il grosso del PR arriva attraverso la home, se le sezioni di secondo livello non sono tantissime e se possiedono lo stesso PageRank della home, questo significa che il PageRank che arriva sulla home è abbastanza alto da dividersi tra le pagine di secondo livello mantenendo lo stesso valore di "PageRank visivo".

    E' il caso del mio sito. Se notate, sia la home che la pagina delle news hanno un "27 pixel" e da questo si desume che la home deve ricevere un PR6 abbastanza alto da rimanere PR6 quando viene diviso tra le pagine di secondo livello.

    Quindi dal PR5 sancito dalla toolbar siamo passati ad un PR6 abbastanza alto, potremmo dire con sufficiente certezza "non meno di un PR6 medio". Una differenza davvero grande se si tiene conto che si tratta di differenze non lineari: un PR6 medio corrisponde a diverse volte un PR5.

    Non abbiamo strumenti o altri indizi per stabilire quanto sia alto il PR6 e se per caso raggiunga un PR7 (qui subentra il buonsenso, che suggerisce che il PR7 è pura fantascienza per quel sito).

    Adesso arriva la parte più divertente: da dove proviene tutto quel PR?


  • Super User

    Visto che la barra di Google è piena e mostra 44px potremmo indicare:

    4,4px = 1
    8,8px = 2
    13,2px = 3
    17,6px = 4
    22px = 5
    26,4px = 6
    30,8px = 7
    35,2px = 8
    39,6px = 9
    44px = 10

    Seguendo questa traccia possiamo ipotizzare che "27 pixel" equivalgano a circa PR=6,13

    La home con MSN risulta avere 2,795 results containing link:www.motoricerca.info

    Ma oltre un PR6 ed alcuni PR5, gli altri sono tutti minori e non appaiono sufficienti per portare un PR6

    Evidentemente quelle pagine interne il PR6 lo ricevono da link esterni e ne passano alla home.


  • Community Manager

    @LowLevel said:

    Adesso arriva la parte più divertente: da dove proviene tutto quel PR?

    Da alcune pagine interne che passano pochi link in uscita e sono linkatisse dal resto del mondo 😄


  • Super User

    @Andre@ said:

    image

    Questi potrebbero essere alcuni aspetti della situazione grafi.

    Con che programma li hai fatti questi grafici così carini?


  • Super User

    @Andre@ said:

    Seguendo questa traccia possiamo ipotizzare che "27 pixel" equivalgano a circa PR=6,13

    Sì, ma bisogna ricordare che una lunghezza in pixel identifica non un singolo valore di PageRank ma un intervallo di valori, da un minimo ad un massimo.

    La tabella riportata in questa pagina dovrebbe dare una mano:

    http://images.google.com/images?q=pagerank motoricerca

    Evidentemente quelle pagine interne il PR6 lo ricevono da link esterni e ne passano alla home.

    Giustissimo. E la cosa diventa ancora più evidente se si usa il comando "linkdomain:" di MSN, che riporta i link che puntano ad un intero dominio:

    Se cerco col www:

    http://search.msn.com/results.aspx?q=linkdomain%3Awww.motoricerca.info

    i risultati sono solo 3mila. Però se ometto il www dal dominio:

    http://search.msn.com/results.aspx?q=linkdomain%3Amotoricerca.info

    i risultati salgono a 34mila.

    Quindi è evidente che il grosso dei backlink non punta al dominio principale ma ad un dominio di terzo livello.

    low esiste una scala di riferimento dei px verdi nella dir di gg?

    Vedi la tabella citata sopra.

    Da alcune pagine interne che passano pochi link in uscita e sono linkatisse dal resto del mondo

    Esatto. 🙂


  • Community Manager

    Penso che ora abbiamo un bel link ad un bel thread da postare a tutti quelli che arrivano sul forum a chiedere maggiorni informazioni 🙂

    Grazie Low per averci chiarito le idee su alcuni punti importanti ed averci fornito alcune informazioni molto interessanti 🙂

    :ciauz:


  • Super User

    @Giorgiotave said:

    Penso che ora abbiamo un bel link ad un bel thread da postare a tutti quelli che arrivano sul forum a chiedere maggiorni informazioni 🙂

    Vogliamo anche aggiungere che non essendo i contenuti del sito particolarmente ottimizzati (sì, me ne sono sempre fregato) i risultati in termini di buone posizioni su Google non sono poi niente di che nonostante tutto quel PR? 🙂

    Il sito manca anche di buoni anchor text nei backlink. Il vantaggio maggiore di chi fa scambio link (sempre che lo faccia bene e non a casaccio) è l'anchor text, non il PR.

    In termini di solo PR, infatti, uno scambio link comporta una perdita per uno dei due siti che partecipano allo scambio.

    E' per questo che è importante lasciare perdere la toolbar quando si scambiano link: non solo la toolbar non è affidabile ma accettare uno scambio senza sapere che effetto avrà sul PR può rivelarsi un'arma a doppio taglio.

    Bisognerebbe incentivare l'acquisizione di link attraverso metodi diversi dallo scambio, è una tecnica che darà sempre più problemi.