• Super User

    @Matteo said:

    non volevo dire che il tuo pr è 5.
    volevo dire che tutti i datacenter dicono 5

    Giustissimo. Mettere in chiaro la differenza tra le due cose è il primo passo da fare. 🙂


  • Super User

    image

    image

    Questi potrebbero essere alcuni aspetti della situazione grafi.


  • Super User

    Hmm.. purtroppo no, quei grafici non aiutano.

    Io farei un passo alla volta, comunque. E' importante innanzitutto quantificare il PR della home page senza fidarsi di quello che mostra la toolbar. Consiglio di fare un'analisi manuale, i software in questo caso non servono.

    Quantificare il PR di una pagina dovrebbe essere un passo importante per tutti quelli che fanno scambio link, no? Penso che questo esercizio potrà aiutare gli "scambisti" a non prendere fregature.

    Quindi: quanto PR ha la mia home page? 😉


  • User Attivo

    Per me esistono almeno 2 pr, uno visualizzato tramite datacenter ed uno nascosto.

    Il pr pubblico corrisponde alla vecchia formula del pr, quello nascosto potrebbe rappresentare il pr negativo, o magari il pr positivo (vecchio) + il pr negativo.

    Il pr negativo e' dato da una serie di valutazioni non espresse dalla vacchia formula basata sulla quantita' e distribuzione dei link, ma terrebbe conto anche della qualita', quantita', tempi di distribuzione dei vari link e via discorrendo.

    La somma del pr visibile e quello non pubblico formerebbe (almeno in parte) il famoso tr.


    C'e' da dire che per G pr ed un domani tr, assume-assumono un peso notevole al fine della valutazione complessiva di un sito, o di parte di esso.

    Questo perche' tutti motori hanno in comune una scelta politica di sort direi storica, che affonda le proprie radici nella storia stessa dell'arte della catalogazione.

    Per valutare usano un mix di algoritmi (tantissimi) ai quali assegnano pesi diversi, la somma dei valori assegnati da ogni algoritmo da un valore finale, che e' in pratica il valore di quanto valutato.

    Un algoritmo puo' assegnare da 0 a 100 punti, un altro da 0 a 1000 e via discorrendo. Sommano il tutto e valutano. Sempre che, cosa e' in analisi, superi i filtri di spam.

    I pesi dei vari algoritmi possono cambiar in modo dinamico, a secondo di tanti fattori, festivi o meno, nazione, lingua ecc ecc.

    Oggi lo stesso sito vale 2000 domani 1980, dopodomani 2020. A seconda di come si muove mercato, utenti ecc ecc


    Ma di fatto, oggi, una pagina, un sito e' la somma di tanti algoritmi.

    Questo sembra, ad oggi, essere il miglior metodo di valutazione, ma non lo e', almeno non lo e' in modo sistematico.

    Ci sono eccezioni per le quali non e' conviente sommare i valori assegnati da tutti i vari algoritmi (sia positivi che negativi), ma conviene, e' opportuno, basarsi solo su alcuni di essi, a seconda della forza espressa dagli stessi.


    Oggi se un algoritmo mi restituisce come risposta un valore talmente negativo io motore arrivo a bannare il sito, senza preoccuparmi del resto.

    Capisco da quel algoritmo che mi trovo davanti a puro spam, e banno.


    Se un dato algoritmo riscontra per un sito-pagina valori positivi altissimi, ma che non rientrano nelle medie previste, io motore tendo a penalizzare comunque in quanto i valori sono fuori dai miei range... nel migliore dei casi invece non penalizzo, ma viceversa sommo quei valori alti, accettandoli, ai valori di tutti gli altri algoritmi.

    Entrambi questi comportamenti sono discutibili, sono vecchi concetti, vecchi come chi scrive.


    Ci sono 2 "mondi" di sort ben distinti, quale sia il migliore lo giudicheranno gli utenti.

    Il primo, l'attuale, e' composto da "macchine"" che stabiliscono, algoritmo per algoritmo, quanto valga, il valore-sort di una pagina, key per key.
    Stabiliscono il valore delle pagine in base alla somma di vari loro algoritmi.

    Il secondo mondo e' ben distinto dal primo.
    Concettualmente potremmo dire che e' all'opposto dal primo, pur usando gli stessi algoritmi, e valori assegnati da quegli algoritmi.


    Ora soffermatevi un attimo, e pensate...

    Ragionateci bene... secondo voi puo' esserci qualcosa di meglio di un sistema meramente automatizzato (e velocissimo) che utilizza-sfrutta la somma dei risultati di svariate formule matematiche per catalogare e sortare miliardi di pagine?

    Quando G, anni fa, allineava decine di migliaia di pc e concepiva i migliori algoritmi per sortare il web, sommando per fare il sort i valori risultanti dai vari algoritmi, alcuni di noi si ponevano la domanda se questa fosse la soluzione migliore.

    Abbiamo assistito nel tempo allo sviluppo di altri grossi sistemi di catalogazione, alltheweb, gigablast, teoma ed ora msn, ma tutti basati sempre sullo stesso principio, automazione+somma dei valori dei loro diversi algoritmi.

    Poi qualcosa e' cambiato, in modo furtivo G ha iniziato ad appogiarsi a persone-personale che condizionassero, in base al loro giudizio, le serp.


    Era l'inizio del secondo mondo. Il secondo mondo prevedeva sistemi ibridi, formati da algoritmi automatizzati e dal giudizio umano. Primativamente il giudizio umano era rifuggito, condannato da ogni informatico, perche' si basava su una teoria in base alla quale non ci fosse "ai" che non potesse fare come e meglio del giudizio umano.

    Si sono dovuti ricredere. Solo un sistema misto uomo macchina da i migliori risultati.

    A questo oggi e' arrivato G.
    Dopo tanti anni. A valersi di collaboratori unami per capire meglio come sortare manualmente il web. Ci ha messo almeno 5 anni dalle prime teorie sui motori ibridi, ma alla fine ce l'ha fatta.


    Possiamo per questo dire che G ha finalmente raggiunto la seconda epoca-mondo (ovvio che ce ne sara' una terza ed una quarta e chissa quante altre)?

    Mi piacerebbe, ma G e' si e no a meta' strada. Gli altri motori neanche all'inizio.

    Cosa manca per completare il secondo ciclo?

    Non ne siamo certi, ma ipotizziamo la predominanza assoluta di un algoritmo.

    In un sistema ibrido, potendo verificare i migliori siti tramite giudizio umano, li si puo' "marcare" manualmente.

    In caso di "marchio" positivo allora non conta piu' il valore dato da il sigma dai vari algoritmi, ma conta l'algoritmo predominante che inficia tutti gli altri.


    Ora si entra nel filosofico, nel meta.
    Su questa seconda parte si puo' discutere come discutessimo di fatti religiosi. Compito improbo per tutti noi.

    Abbiamo 2 atleti.

    Il primo migliore in corsa ma scarso nel resto, non solleva pesi, non salta in alto ecc ecc.

    Il secondo atleta bravino in tutto, mai arrivato primo, ma trai primi 10 al mondo per ogni specialita'.

    Cerco la key "migliori atleti olimpionici". Ipotizziamo che ci siano solo 2 siti, quelli dei 2 ipotetici atleti.

    Quale dei 2 dovrebbe risultare primo nelle serp?


    Ad oggi appare tra i primi solo il secondo, il primo caso sara' bannato o penalizzato in quando fuori dalle medie previste.

    Ovvio che questo esempio legato allo sport e' sciocco, banale, ma rende l'idea della differenza tra la prevalenza di un algoritmo e la somma di tutti gli algoritmi.

    Un sistema automatizzato e "disumano" deve basarsi sulla somma dei vari algoritmi, mentre un sistema ibrido puo' basarsi anche solo e/o principalmente sul valore predominante, dando-assegnando poco o nulla peso ai valori degli algoritmi che non raggiungano i primissimi posti.


    Il tutto, in concreto, si riassume apparentemente tra 3 opzioni, per i motori.

    Automatico-sommatoria (tutti meno G)
    Ibrido-sommatoria (G)
    Ibrido-prevalenza e poi a seguire sommatoria.


    Ok, prendiamo il tutto per buono, ovviamente per chi concorda con questo scenario, nessuno e' obbligato.

    A proposito, una volta mi facevo forte di questa frase: posso non essere daccordo con le tue idee ma combattero' alla morte perche' tu le possa esprimere.

    Come non si puo' essere in sintonia con questo principio???

    Poi, un mio caro amico, un nichilista convinto, mi disse: non rischierei mai la mia vita per difendere le mie idee... potrebbero essere sbagliate.

    Se mi avessero sparato nello stomaco avrei sofferto meno, capisco la differenza tra il difendere la liberta' di espressione altrui e la sciocchezza dei fondamentalisti, ma fa male lo stesso.


    Comunque, ho presentato 3 ipotetici principi dai quali i motori possono partire... pero' puo', per un seo, finire qui?

    Ovviamente no, a seconda di quale "strada" percorrano in futuro i motori noi dovremo adeguarci di conseguenza, ma attenzione.

    Se anche voi credete che la strada dei motori, prima o poi, sia quella che da Automatico-sommatoria diventi Ibrido-prevalenza allora dovrete rivedere molte delle basi che oggi fondamentano il vostro lavoro.


    Pensate ad un seo che lavora ed ottimizza oggi pensando di trovarsi di fronte ad un computer che lo valuta.

    Poi un seo che sappia che chi lo giudichera' sara' un editore, un po' come dmoz, e poi i vari automatismi.

    Poi un seo che sappia che se passa l'analisi umana dovra' confrontarsi dimostrando di essere il meglio per un dato algoritmo, non mediamente discreto per tutti i vari algoritmi.


    Infine, pensate che tutto queste analisi appartengono a seo italiani (mica tedeschi, americani o indiani) e sono cosi' vecchie che in quel tempo Page e company mangiavano prevalentemente hanburger al macdonald o alla mensa dell'universita', sbarcando il lunario.

    Ora Page e' giustamente tra gli uomini piu' ricchi del mondo, spero per lui che sappia distinguere l'Amarone dalla coca cola, ma non basta poterselo permettere, prima bisogna conoscerne l'esistenza.

    Se in grado, riuscira' parimenti a passare dalla somma statica, alla somma dinamica, alla prevalenza, e ce la puo' fare, visto prima o poi che per l'ibrido ci ha messo solo qualche anno, (noi italiani l'ibrido l'avevamo online da anni).


  • Super User

    @agoago said:

    Poi qualcosa e' cambiato, in modo furtivo G ha iniziato ad appogiarsi a persone-personale che condizionassero, in base al loro giudizio, le serp.

    Questo approccio però è usato anche da Yahoo ed MSN, sebbene in modo diverso (informazioni antropiche per Yahoo, IA per MSN).

    Loro non lo considerano ibrido affatto. Persino le informazioni provenienti da persone-personale vengono considerate solo una parte dell'algoritmo (e, sì, sommata al resto, inevitabilmente).

    Il discorso è interessantissimo e meriterebbe un thread a sé, anche perché devia un po' dal tema e dall'obiettivo che avrei voluto raggiungere: ci sono migliaia di webmaster e SEO che scambiano link in base al PR e se riusciamo con questo esercizio a raggiungere le conclusioni che spero di ottenere, riuscirò a far prendere un colpo a moltissimi "scambisti di link". 😄

    Ma per fare questo è necessario innanzitutto capire quanto PR ha la mia home page.


  • Community Manager

    @LowLevel said:

    Il discorso è interessantissimo e meriterebbe un thread a sé, anche perché devia un po' dal tema e dall'obiettivo che avrei voluto raggiungere: ci sono migliaia di webmaster e SEO che scambiano link in base al PR e se riusciamo con questo esercizio a raggiungere le conclusioni che spero di ottenere, riuscirò a far prendere un colpo a moltissimi "scambisti di link". 😄

    Merita un discorso a se, possiamo anche aprire un altro thread per non deviare questo.

    Sinceramente Low, è da un anno che non calcolo più il PageRank e le cose sono cambiate.

    Mi cimenterei volentieri nel calcolo della tua home page, ma non saprei da dove partire.

    L'unica cosa sicura è che una parte (o tutto) il PageRank è dato dai link che si ricevono. Ma come calcolare la quantità passata?

    Come si iniziano a fare i calcoli?

    Da dove si parte?

    Non è tutto scontato come sembra...


  • Super User

    @Giorgiotave said:

    L'unica cosa sicura è che una parte (o tutto) il PageRank è dato dai link che si ricevono. Ma come calcolare la quantità passata?

    Non aspiravo a calcolare il vero PageRank. Si tratterebbe di una cosa troppo complessa per quel tipo di sito.

    Miravo più a trovare delle tecniche alla portata di tutti per capire quanto fasullo sia ciò che mostra la toolbar.

    Per un attimo, prendiamo per buona l'indicazione della toolbar e decidiamo di farci volutamente infinocchiare da quello che dice. Essa sostiene che il PR della mia home sia 5.

    Un buon primo passo da fare è quello di dare un'occhiata alla struttura del sito e ad altre sue pagine oltre la home per capire se quel PR5 è "alto" o "basso". Sono certo che diversi forumisti hanno già fatto questo più volte.

    Un secondo passo è quello di fregarsene della toolbar e di dare un'occhiata all'indicatore del PageRank della directory di Google, meno preciso della toolbar ma aggiornato più frequentemente, sebbene non per tutte le categorie.

    Il mio sito ha la fortuna di essere presente in più categorie di DMOZ, ovviamente con pagine diverse. Quindi andando a guardare le pagine corrispondenti della directory di Google è possibile acquisire informazioni più precise sul valore di PageRank di più di una pagina del sito.

    Per ora mi fermo qua.

    Ovviamente a questo punto dovrebbe essere ovvio che la home page del mio sito possiede un PageRank superiore ad un PR5, più che altro perché deve pure esserci una ragione se insisto così tanto 😄 .

    Vediamo se c'è qualcuno interessato a quantificarlo meglio quel valore.

    Forza! Che la strada verso "quando A scambia un link con B, uno dei due ci perde e l'altro ci guadagna" è ancora lunga. 😉


  • Super User

  • Community Manager

    La directory di Google mostra che hai tre pagine con PageRank 6 e due con PageRank 5

    PageRank 6

    Home Page di [url=http://www.motoricerca.info]Motoricerca.info inserita in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Marketing/Registrazione_e_Posizionamento_sui_Servizi_di_Ricerca/?il=1]Registrazione e Posizionamento sui Servizi di Ricerc

    [url=http://www.motoricerca.info/news/]NewsBlog di Motoricerca.info inserito in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Marketing/Weblog/?il=1]Internet > Marketing > Weblog

    [url=http://tool.motoricerca.info/robots-checker.phtml]Robots.txt Checker inserito in [url=http://www.google.com/Top/Computers/Internet/Web_Design_and_Development/Authoring/Online_Tools/robots.txt/?il=1]Authoring > Online Tools > robots.txt

    PageRank 5

    [url=http://tool.motoricerca.info/keyword-density.phtml]Keyword Density Calculator inserito in [url=http://www.google.com/Top/Computers/Internet/Web_Design_and_Development/Authoring/Online_Tools/Keywords/?il=1]Authoring > Online Tools > Keywords

    Articolo [url=http://www.motoricerca.info/articoli/odp.phtml]Capire ODP e far valutare un sito inserito in [url=http://www.google.com/Top/World/Italiano/Computer/Internet/Ricerca/Directory/Open_Directory_Project/Rassegna_Stampa/?il=1]Open Directory Project > Rassegna Stampa

    Sicuramente hai più di quello mostrato dalla toolbar 😄


  • Super User

    Ci stiamo avvicinando. 🙂

    Voi lo chiamate "PR6", ma in realtà la directory di Google usa una scala diversa da quella della toolbar e una barretta verde che misura 27 pixel può corrispondere sia ad un PR6 che ad un PR7.

    Anzi, statisticamente un "27 pixel" è probabile che sia più un PR7 che un PR6.

    Adesso, il prossimo passo è partire dal presupposto che la home sia almeno un PR6 e stabilire se si tratta di un PR6 basso o alto. Per questo bisogna dare un'occhiata alla struttura del sito web, che in questo caso è gerarchica.

    La home sta in cima, al livello inferiore ci sono le sezioni di secondo livello, elencate nel riquadro di navigazione in alto. Se il grosso del PR arriva attraverso la home, se le sezioni di secondo livello non sono tantissime e se possiedono lo stesso PageRank della home, questo significa che il PageRank che arriva sulla home è abbastanza alto da dividersi tra le pagine di secondo livello mantenendo lo stesso valore di "PageRank visivo".

    E' il caso del mio sito. Se notate, sia la home che la pagina delle news hanno un "27 pixel" e da questo si desume che la home deve ricevere un PR6 abbastanza alto da rimanere PR6 quando viene diviso tra le pagine di secondo livello.

    Quindi dal PR5 sancito dalla toolbar siamo passati ad un PR6 abbastanza alto, potremmo dire con sufficiente certezza "non meno di un PR6 medio". Una differenza davvero grande se si tiene conto che si tratta di differenze non lineari: un PR6 medio corrisponde a diverse volte un PR5.

    Non abbiamo strumenti o altri indizi per stabilire quanto sia alto il PR6 e se per caso raggiunga un PR7 (qui subentra il buonsenso, che suggerisce che il PR7 è pura fantascienza per quel sito).

    Adesso arriva la parte più divertente: da dove proviene tutto quel PR?


  • Super User

    Visto che la barra di Google è piena e mostra 44px potremmo indicare:

    4,4px = 1
    8,8px = 2
    13,2px = 3
    17,6px = 4
    22px = 5
    26,4px = 6
    30,8px = 7
    35,2px = 8
    39,6px = 9
    44px = 10

    Seguendo questa traccia possiamo ipotizzare che "27 pixel" equivalgano a circa PR=6,13

    La home con MSN risulta avere 2,795 results containing link:www.motoricerca.info

    Ma oltre un PR6 ed alcuni PR5, gli altri sono tutti minori e non appaiono sufficienti per portare un PR6

    Evidentemente quelle pagine interne il PR6 lo ricevono da link esterni e ne passano alla home.


  • Community Manager

    @LowLevel said:

    Adesso arriva la parte più divertente: da dove proviene tutto quel PR?

    Da alcune pagine interne che passano pochi link in uscita e sono linkatisse dal resto del mondo 😄


  • Super User

    @Andre@ said:

    image

    Questi potrebbero essere alcuni aspetti della situazione grafi.

    Con che programma li hai fatti questi grafici così carini?


  • Super User

    @Andre@ said:

    Seguendo questa traccia possiamo ipotizzare che "27 pixel" equivalgano a circa PR=6,13

    Sì, ma bisogna ricordare che una lunghezza in pixel identifica non un singolo valore di PageRank ma un intervallo di valori, da un minimo ad un massimo.

    La tabella riportata in questa pagina dovrebbe dare una mano:

    http://images.google.com/images?q=pagerank motoricerca

    Evidentemente quelle pagine interne il PR6 lo ricevono da link esterni e ne passano alla home.

    Giustissimo. E la cosa diventa ancora più evidente se si usa il comando "linkdomain:" di MSN, che riporta i link che puntano ad un intero dominio:

    Se cerco col www:

    http://search.msn.com/results.aspx?q=linkdomain%3Awww.motoricerca.info

    i risultati sono solo 3mila. Però se ometto il www dal dominio:

    http://search.msn.com/results.aspx?q=linkdomain%3Amotoricerca.info

    i risultati salgono a 34mila.

    Quindi è evidente che il grosso dei backlink non punta al dominio principale ma ad un dominio di terzo livello.

    low esiste una scala di riferimento dei px verdi nella dir di gg?

    Vedi la tabella citata sopra.

    Da alcune pagine interne che passano pochi link in uscita e sono linkatisse dal resto del mondo

    Esatto. 🙂


  • Community Manager

    Penso che ora abbiamo un bel link ad un bel thread da postare a tutti quelli che arrivano sul forum a chiedere maggiorni informazioni 🙂

    Grazie Low per averci chiarito le idee su alcuni punti importanti ed averci fornito alcune informazioni molto interessanti 🙂

    :ciauz:


  • Super User

    @Giorgiotave said:

    Penso che ora abbiamo un bel link ad un bel thread da postare a tutti quelli che arrivano sul forum a chiedere maggiorni informazioni 🙂

    Vogliamo anche aggiungere che non essendo i contenuti del sito particolarmente ottimizzati (sì, me ne sono sempre fregato) i risultati in termini di buone posizioni su Google non sono poi niente di che nonostante tutto quel PR? 🙂

    Il sito manca anche di buoni anchor text nei backlink. Il vantaggio maggiore di chi fa scambio link (sempre che lo faccia bene e non a casaccio) è l'anchor text, non il PR.

    In termini di solo PR, infatti, uno scambio link comporta una perdita per uno dei due siti che partecipano allo scambio.

    E' per questo che è importante lasciare perdere la toolbar quando si scambiano link: non solo la toolbar non è affidabile ma accettare uno scambio senza sapere che effetto avrà sul PR può rivelarsi un'arma a doppio taglio.

    Bisognerebbe incentivare l'acquisizione di link attraverso metodi diversi dallo scambio, è una tecnica che darà sempre più problemi.


  • Super User

    @lukas said:

    Con che programma li hai fatti questi grafici così carini?

    è un motore di ricerca... mann ricordo il nome :arrabbiato:

    Andre@@@@@@.........

    ottimo Low :ciauz:


  • User Attivo

    @Rinzi said:

    è un motore di ricerca... mann ricordo il nome :arrabbiato:

    Andre@@@@@@.........

    ottimo Low :ciauz:

    http://www.kartoo.com/


  • Community Manager

    @Rinzi said:

    è un motore di ricerca... mann ricordo il nome :arrabbiato:

    Ma Insomma!

    http://www.giorgiotave.it/forum/viewtopic.php?t=1012 😄


  • Super User

    @Low said:

    Sì, ma bisogna ricordare che una lunghezza in pixel identifica non un singolo valore di PageRank ma un intervallo di valori, da un minimo ad un massimo.

    La tabella riportata in questa pagina dovrebbe dare una mano:

    http://images.google.com/images?q=pagerank motoricerca

    Ho trovato il link a questa discussione su un nuovo post di Giorgio e nonostante l'inizio brillante mi sono stupito nel sentire Low affermare alcune cose.

    Scusa lo scettiscismo Low, il tuo discorso fino a quanto quotato sopra filava liscio.

    E' vero che il pr non è quello mostrato dalla toolbar e probabilmente neanche quello della directory, eppure parlare di pr in termini di pixel mi sembra improbabile.

    Non ho frainteso il tuo messaggio. Dici che il secondo passo è usare la directory e il pr della directory in pixel e immagino che poi ci sia un terzo passo che prevede un'analisi approfondita del sito senza l'utilizzo di tool per il pr. Quindi so che per te il "secondo passo" non è quello definitivo.

    Ma il mio dubbio è: "chi ti ha detto che esiste una barra con 26 pixel verdi?"

    Come fai a dire che 27 pixel è + di pr 6 e 26 è poco meno?
    Il discorso filerebbe se esistessero barre con 26 pixel verdi e barre con 27 pixel verdi, ma io ho i miei dubbi. Non le trovo queste barre anomale e dunque la mia domanda è: come sei arrivato a questa conclusione e quali dimostrazioni puoi fornirmi che giustifichino la validità della tua teoria?

    Ripeto non ho frainteso il tuo discorso e immagino che nemmeno secondo te il tuo "secondo passo" è l'ultimo e definitivo.
    Il mio dubbio è solo sulla validità di questo "secondo passo".

    P.S. Io penso che 27 pixel sia un arrotondamento per eccsso del valore reale di 26,4 pixel. Quindi finto pr 6 e non più di un finto pr 6