• User Attivo

    Grazie a tutti ragazzi i vs. contributi sono molto importati per l'intera collettività.

    @Giuseppe aka elleGi
    L'idea non è male sai, l'unico dubbio che mi viene è relativo alla frequenza con la quale questo ipotetico robots.txt dovrebbe essere aggiornato.


  • Super User

    @eLLeGi said:

    Chissà se si può tentare la strada del diritto all'oblio. Pare che il garante della privacy abbia già tentato di ottenere qualcosa da google senza molti risultati, ma forse in sede processuale qualcosa in più si potrebbe fare. Il problema reale è riuscire ad inquadrare il contratto che lega il motore di ricerca ai webmaster o più in generale le norme giuridiche che regolano questo rapporto.

    Un sito internet, pubblicamente accessibile, occupa uno spazio nel grafo del web. Gli spider, che del motore sono le appendici mobili, percorrono la Rete e scaricano il contenuto dei siti e lo archiviano nel motore. I contenuti (la cache) o parte dei contenuti (le snippet) dei siti internet indicizzati saranno messi a disposizione degli utenti quando effettuano una determinata ricerca.

    L'unico impegno contrattuale (lo definisco contratto per convenzione, in realtà caratteristiche proprie di un contratto ne ha poche) che si prende il motore è rispettare il robots.txt, escludendo dall'indicizzazione le pagine o le directory (o l'intero sito) che il webmaster lista in questo file standard.

    La maggior parte dei webmaster acconsentono implicitamente al download dei propri contenuti perchè dal motore possono ottenere visibilità.

    L'aspetto più importante, ritornando in topic, è che non vi è da parte del motore alcuna garanzia che il sito indicizzato sarà visibile. Le modalità di ordinamento dei risultati, nonostante i coraggiosi tentativi dei seo, è segreta e, ufficialmente, non è possibile influenzarla in alcun modo.
    E se non la si può influenzare in positivo, non la si può influenzare in negativo.
    Inoltre, non vi è alcun impegno da parte del motore a mantenere a vita un sito nel proprio indice. In parole povere, in linea di principio, può bannare come e quando vuole.

    Riassumendo:

    1. Non c'è certezza nella visibilità che il motore offre
    2. Non c'è una regola fissa (o conosciuta) dietro l'ordinamento dei risultati
    3. Niente obbliga a tenere un sito in archivio.

    Con queste premesse è arduo andare da un giudice lamentando che un webmaster X, a causa di azioni scaltre e non dirette verso il sito, ne ha causato una penalizzazione (o il ban).

    E, rivoltando la questione, si creerebbe un precedente pericoloso.
    Se viene sancito giuridicamente che un link può penalizzarti, allora sulla base di questo precedente potrò anche fare causa ad un sito buono che, linkandomi, mi ha portato in cima alla serp per "SEX", e quindi mi ha causato un enorme esborso di denaro in banda.

    Credo che la strada più idonea che potrebbe percorrere un avvocato (ma deve essere anche un po' folle, precisiamo) potrebbe essere quella della diffamazione o danno d'immagine (un link è anche pubblicità e un concorrente che mette la mia pubblicità dove non voglio lede la mia immagine).

    Cordialmente,
    Stuart


  • Super User

    @Google Penalty -30 said:

    Ciao Stuart,

    non so se conosci la nostra situazione di penalizzazione ...

    E' stato il mio food for thought serale odierno 🙂
    Ma ti rispondo nel topic apposito, ossia questo: http://www.giorgiotave.it/forum/posizionamento-nei-motori-di-ricerca/19976-google-penalty-30-a.html

    Ti anticipo che però ho solo ipotesi (come tutti) e ben poche certezze, tranne una...

    Cordialmente,
    Stuart


  • User

    salve a tutti.

    Ribadisco il mio pensiero (già mostrato in altra discussione) che non è possibile "far crollare il page-rank o il trust-rank" che sia.

    Se per far crollare si intende danneggiare un website già ben strutturato, come nel caso di www.agendaonline.it. Se invece parliamo di un sito già debole di suo, è possibile che possa subire dei danni ma non dall'esterno. Chi danneggerebbe un sito debole? Perchè dovrebbe farlo?

    In breve:

    1. nessuna seo company sprecherebbe così tante energie per far sparire un solo website. Tanto varrebbe concentrare tutte quelle energie per far salire il website del proprio cliente. Salirebbe sicuramente di più posizioni, di quella ottenuta facendone sparire uno solo.
    2. nel caso di www.agendaonline.it, il sito www.telev.....it è primo per la kw televendite, quindi per google ad oggi non è spam. Quei links non possono danneggiarti.
    3. Dalle Google Guide-lines: "Un concorrente non può fare pressoché nulla per danneggiare la tua posizione o richiedere la rimozione del tuo sito dal nostro indice. Se sei preoccupato a causa di un altro sito che contiene un link diretto verso il tuo sito, ti suggeriamo di contattare il webmaster del sito in questione. Google aggrega e organizza le informazioni pubblicate sul Web; non controlliamo il contenuto di queste pagine."
      http://www.google.it/support/webmast...49&topic=8524]

    pressoché zero è quasi zero


  • User Attivo

    io credo che un modo per eliminare la concorrenza potrebbe essere creare molti siti cloni.. dopodiche' fare una segnalazione.. ma questa e' perversa per quanto secondo me sarebbe funzionale.. :nonono: almeno credo, o credete che gg abia un modo per classificare quale sia il reale e quali i cloni? Beh.. io non credo.. cmq ottimo 3d 😉


  • Super User

    @"someone" said:

    Ribadisco il mio pensiero (già mostrato in altra discussione) che non è possibile "far crollare il page-rank o il trust-rank" che sia.
    Se per far crollare si intende danneggiare un website già ben strutturato, come nel caso di www.agendaonline.it. Se invece parliamo di un sito già debole di suo, è possibile che possa subire dei danni ma non dall'esterno. Chi danneggerebbe un sito debole? Perchè dovrebbe farlo?
    Il tuo punto di vista è chiaro.
    Insisto però nel dire che tenere sempre a mente l'eventualità che i "link" possano NON essere una manna dal cielo, aiuta innanzitutto a non fare errori nella pianificazione della propria link popularity. Anche perchè, e potrebbe essere il caso di agendaonline.it e dei suoi *link buoni *, capita che sia il webmaster stesso a procurarsi i link peggiori.

    E' improbabile che qualcuno voglia danneggiare un sito neonato. Ma la sola, remota, possibilità, che questo sia possibile, rimette in gioco tutto.

    Dire che non è "assolutamente possibile che..." è semplicemente limitante. Può anche darsi che tu abbia ragione e io abbia bisogno di una vacanza, ma nella trattazione di una materia aleatoria e impalpabile come il ranking sui motori di ricerca, ogni forma di certezza assoluta dovrebbe essere abrogata dal proprio dizionario 🙂

    Cordialmente,
    Stuart


  • User

    @Stuart said:

    Il tuo punto di vista è chiaro.
    Insisto però nel dire che tenere sempre a mente l'eventualità che i "link" possano NON essere una manna dal cielo, aiuta innanzitutto a non fare errori nella pianificazione della propria link popularity. Anche perchè, e potrebbe essere il caso di agendaonline.it e dei suoi *link buoni *, capita che sia il webmaster stesso a procurarsi i link peggiori.

    E' improbabile che qualcuno voglia danneggiare un sito neonato. Ma la sola, remota, possibilità, che questo sia possibile, rimette in gioco tutto.

    Dire che non è "assolutamente possibile che..." è semplicemente limitante. Può anche darsi che tu abbia ragione e io abbia bisogno di una vacanza, ma nella trattazione di una materia aleatoria e impalpabile come il ranking sui motori di ricerca, ogni forma di certezza assoluta dovrebbe essere abrogata dal proprio dizionario 🙂

    Cordialmente,
    Stuart

    Buongiorno,

    vedo che più ne discutiamo e più siamo d'accordo. Il SEO è un mondo con poco certezze e molte opinioni.


  • Super User

    [LEFT]Per quanto riguarda il ban non saprei dire, ovviamente l'esperienza riportata da Stuart è molto illuminante.

    Per quello che riguarda le penalizzazioni, pensiamo anche che è già un pò che vengono fatti studi sulla trasmissione di "trust" ed "untrust" attraverso la struttura dei link.
    In generale però si reputa opportuno penalizzare chi linka verso l'area di spam e premiare chi viene linkato da aree pulite.

    [/LEFT]


  • User

    @Stuart said:

    Da un punto di vista squisitamente pratico, che il motore pensi del tuo sito "Mi fai schifo, spammer" e ti cancelli dall'indice oppure "Non mi interessi, lamer" e ti cancelli dall'indice, non fa che dimostrare che non tutti i link sono uguali, che è possibile fare le scarpe ad un sito debole/poco popolare.

    Effetti uguali, cause diverse. Siccome sitamo cercando di capire le cause partendo dagli effetti per me fa invece una bella differenza asserire che:

    • link da siti spam penalizzano
    • avere solo link da siti spam è come non esistere = avere 0 link = non essere indicizzato

    Ritengo quindi che il valore più basso attribuibile a un backlink sia 0, non un valore minore di zero. Se poi la somma dei "valori" dei backlink è 0 allora può essere che il sito venga considerato spazzatura e quindi bannato.

    Vorrei affermare che esistono link buoni e link nulli, ma non link cattivi.


  • Super User

    [LEFT]Però, ad esempio, un motore di ricerca può trarre delle conclusioni, se la percentuale relativa della spinta che riceve un sito proviene per la maggior parte da siti che spammano.

    http://infolab.stanford.edu/~zoltan/publications/gyongyi2006link.pdf
    [/LEFT]


  • User

    In merito ai link provenienti da spam engine, la cosa che mi ha più colpito l'ho scoperta l'altro giorno.

    Nella serp dello spammatore c'era un link verso una nostra pagina che non aveva più di un mese.

    Dove l'avrà pescata ?

    Ma i risultati li "tirano fuori" con i robots ?

    Non è che riusciamo ad individuarli nei file di log ?


  • Super User

    @"marcuzzer" said:

    Ritengo quindi che il valore più basso attribuibile a un backlink sia 0, non un valore minore di zero. Se poi la somma dei "valori" dei backlink è 0 allora può essere che il sito venga considerato spazzatura e quindi bannato. Ti ostini a parlare di "valore". 0, 1, -34, +78, 90... e quindi non ci troviamo.

    Il valore di un link, nel senso numerico del termine, non è mai negativo quando parliamo di Pagerank (quello della barretta verde o quello reale).

    Ma il posizionamento di un documento non dipende esclusivamente dal PR, ma anche dalle informazioni (kerouac3001 docet) che i link portano con sè: topic, lingua, trust, e chissà quante altre variabili che non sono date conoscere.

    La domanda quindi non dovrebbe essere: "un link può avere valore negativo?" ---no, non può avere valore negativo, bensì "l'Untrustness -ad esempio- è trasferibile tramite link?" 🙂

    Cordialmente,
    Stuart


  • User Attivo

    Grazie beke, il documento che hai aggiunto alla conversazione è molto interessante.

    Ciaooo:D


  • Super User

    @Stuart said:

    La domanda quindi non dovrebbe essere: "un link può avere valore negativo?" ---no, non può avere valore negativo, bensì "l'Untrustness -ad esempio- è trasferibile tramite link?"
    Si, è trasferibile, però funziona a rovescio.

    Se vieni linkato da un sito che fa parte di una white-list (il seed set nel caso specifico del trustRank) ti può venire trasferita una parte del suo trust.
    Se linki un sito che fa parte di una black-list si può pensare di addossarti una frazione di untrust.

    Dopodichè attraverso vari criteri di splitting ed attenuazione la propagazione fa il suo lavoro.

    Non ho nessuna prova specifica nè soffiate sul fatto che algoritmi di questo tipo siano già integrati in Google, nè ho fatto test specifici, ma dopo aver letto alcuni studi a riguardo ci scommetterei qualcosa.

    Ancora diverso, ma altrettanto plausibile, è il discorso della massa di spam.

    Secondo me trust ed untrust sono fattori che possono servire sia ad aggiustare gli ordinamenti, per esempio variando il damping factor del pageRank (e dando così origine ad un valore diverso da quello che è reso pubblico), sia ad alimentare liste di siti da controllare a scopo ban o penalizzazioni del tipo "minus thirty".

    Ovviamente sono solo congetture 🙂

    @Fabri: figurati, quel documento è conosciuto da oltre un anno, è stato segnalato per la prima volta si www.motoricerca.info.


  • User

    @Stuart said:

    Ti ostini a parlare di "valore". 0, 1, -34, +78, 90... e quindi non ci troviamo.

    ...

    La domanda quindi non dovrebbe essere: "un link può avere valore negativo?" ---no, non può avere valore negativo, bensì "l'Untrustness -ad esempio- è trasferibile tramite link?" 🙂

    Essendo che le macchine parlano solo con i numeri, e che qualsiasi algoritmo di ordinamento usera' degli operatori di confronto (minore, maggiore, uguale), ritengo di parlare di valore non a sproposito.
    Concordo pienamente quando dici che esistono tanti fattori che concorrono alla creazione di questo valore.

    La formula, e i pesi dell'algorimo di ordinamento non sono noti (a differenza della formula del pagerank) ma sono concorde a ritenere che possano esistere addendi negativi.

    Questo post, estremamente interessante, riguarda se volete un po' questo: puo' un link marcio penalizzare un sito? E se si, in che misura.

    Quello che sto cercando sono degli effetti, con plausibili cause, che possano dimostrare l'ipotesi qui sopra descritta. Il link postato "kerouac3001" è di imperdibile lettura e arricchisce questa discussione di modelli matematici indispensabili a mio avviso per una comprensione di ciò cha accade. Ma ancora non fornisce cause ed effetti. Sono solo teorie, piacevoli, plausibili, interessanti, ma solo teorie. Questo post vuole consentrarsi sugli esempi, sulla pratica...

    Grazie a tutti,
    *M


  • Super User

    @"marcuzzer" said:

    Essendo che le macchine parlano solo con i numeri, e che qualsiasi algoritmo di ordinamento usera' degli operatori di confronto (minore, maggiore, uguale), ritengo di parlare di valore non a sproposito. E infatti non ne parli a sproposito. Anche riconducendo tutto a valori (o vettori), possiamo tralasciare del tutto o in parte la teoria, purchè si sia d'accordo su due punti fondamentali:

    1. Un link non ha un valore singolo positivo o negativo che sia, ma diversi, perchè diverse sono le informazioni (numeri, vettori...) che porta con sè.
    2. Alcuni di questi valori sono noti (Pagerank), altri li si può dedurre dall'esperienza e dai test. Altri sono ignoti.

    La chiave del discorso, e in questo siamo d'accordo credo, è capire se esiste, tra le informazioni vettoriali contenute in un link, un'informazione che può essere "negativa", o deleteria per il sito linkato.

    @"marcuzzer" said:

    Sono solo teorie, piacevoli, plausibili, interessanti, ma solo teorie. Questo post vuole consentrarsi sugli esempi, sulla pratica... Ok, any ideas?

    Cordialmente,
    Stuart


  • User Attivo

    @Stuart said:

    Ok, any ideas?

    Yes Ai ev 😄

    Riportiamo le nostre esperienze,
    da quelle lette nei vari post e le mie, possiamo dire che:

    1 Se il tuo sito è ben posizionato e ben tematizzato, i link provenienti dagli spam engine non influsicono assolutamente sul sito.


  • User Attivo

    @Stuart said:

    Ok, any ideas?

    Yes Ai ev 😄

    Riportiamo le nostre esperienze,
    da quelle lette nei vari post e le mie, possiamo dire che:

    1 Se il tuo sito è ben posizionato e ben tematizzato, i link provenienti dagli spam engine non influsicono assolutamente sul sito.


  • User

    @Hotshot said:

    Yes Ai ev 😄
    Se il tuo sito è ben posizionato e ben tematizzato, i link provenienti dagli spam engine non influsicono assolutamente sul sito.

    Sull'assolutamente non sarei d'accordo.
    Se si inserice un valore negativo in una formula bisogna prestare attenzione che questa non ci si ritorca contro. Ossia ci deve essere un tetto, un massimo che il prodotto tra coefficiente (peso) e valore negativo possono raggiungere. Altrimenti scoperto il fattore negativo si potrebbero costruire macchine da guerra per far crollare anche la home page di Apple.

    Probabilmente c'e' anche un threshold, un livello minimo, sotto al quale questi link spammoni non vengono nemmeno considerati. Anche nel documento linkato da beke si dice che vengono considerati solo i link provenienti da siti spam con alto pagerank, perche' usare siti spam con basso pagerank introdurrebbe "falsi positivi" nei risultati dell'"algoritmo antispam" (che personalmente trovo un po' macchinoso... le cose semplici a mio avviso son quelle che funzionano).

    Per rispondere alla domanda di Stuart... no, no ideas so far...