• Super User

    @micky said:

    • Come faccio ad essere sicuro che un link è passato effettivamente e non nasconda insidie? Cioè, in altre parole, quali sono i metodi per nascondere un link ad un motore e come preservarsi dal non ricevere fregature?
      Uno è il "rel="nofollow" e poi?
    • robots.txt
    • noindex/nofollow
      Poi basta, direi.

    Verifica il sorgente HTML della pagina linkante nella cache di google.
    Poi se vuoi puoi controllare anche gli status code, ma è paranoia.


  • Super User

    Attenzione ArkaneFactors. La mia è una finezza 🙂 che non ti espone a spiacevoli scottature... Unica accortezza, fare attenzione ai 6 mesi...


  • Super User

    @ArkaneFactors said:

    ...mi fido di più quando porti qualche esempio convincente, o qualche argomentazione elegante OK ). Perciò mi fiderò quasi-ciecamente se mi dici che la cosiddetta quadrangolazione (A->B->C->D->A, per intenderci) è altrettanto facilmente smascherata da Big G....
    Grazie per la fiducia 🙂
    Ma è una questione innanzitutto di buon senso, Google ha implementato gli algoritmi in modo da svalutare lo scambio link, prevedendo (lecito pensarlo) anche i modi più immediati di aggirare il problema.

    In un post, Matt Cutts (che sono il primo a voler evitare di citare a tutti i costi, ma a volte è necessario), ha dichiarato che i membri dell'antispam hanno in dotazione tool che riescono a sgamare pure chi compra i link:
    cfr: http://www.mattcutts.com/blog/my-name-is-inigo/

    ah no scusa ho sbagliato... 😄
    http://www.mattcutts.com/blog/tell-me-about-your-backlinks/

    Ma le argomentazioni più autorevoli a riguardo provengono dall'italia, e guarda caso dal sito di LowLevel, sulla cui autorevolezza credo siamo abbastanza d'accordo no?

    @Motoricerca.info - Intervista a Sebastiano Vigna said:

    Enrico Altavilla: Tra i webmaster è uso scambiarsi link per far apparire i propri siti web più "popolari" agli occhi degli algoritmi dei motori di ricerca. Avendo a disposizione un grafo del Web, esiste attualmente la tecnologia per individuare link reciproci tra i siti o addirittura pattern di link circolari (A > B > C > A)?

    Sebastiano Vigna: Sì, questo è relativamente banale. Può non essere banale farlo per una distanza significativa, perché l'individuazione dei cicli che passano per A richiede una visita, che è lineare nel numero di link del grafo. Se però ci interessano, diciamo, i cicli più corti di cinque link, la faccenda è decisamente più semplice, grazie al fatto che il web ha un grado positivo medio (il numero di link verso altre pagine) piuttosto basso. [...]

    http://www.motoricerca.info/news/news-245.html
    Pagina che tra l'altro hai citato anche te in un thread sul Pagerank qui su GT.

    Rilevare algoritmicamente scambi di link con uno schema leggermente più complesso del A->B->A pare non sia particolarmente arduo.

    @ArkaneFactors said:

    Quindi, in sostanza, programmi come questo e questo sono praticamente nati morti? Beh, mi fa piacere, toh.
    Non conoscevo quei programmi fino a quando non li hai linkati, e sai che non parlo di cose che non conosco (più o meno) a fondo.
    ps: il secondo sito, tra quelli da te proposti ha uno strano PR=0 (ma non è bannato)
    L'idea di fondo non è malaccio, tu hai usato questi servizi?

    Cordialmente,
    Stuart


  • Super User

    @Serp said:

    Attenzione ArkaneFactors. La mia è una finezza 🙂 che non ti espone a spiacevoli scottature...
    E da quando in qua una custom 404 page è un problema??
    Unica accortezza, fare attenzione ai 6 mesi...
    ...Infatti, il tuo amico se l'è dimenticato. :lol:


  • Super User

    @ArkaneFactors said:

    ...Infatti, il tuo amico se l'è dimenticato. :lol:

    Scusa?


  • Super User

    Puoi sempre spiegarmi meglio il la tua proposta del 401..


  • Super User

    @Serp said:

    Scusa?

    @Serp said:

    Il punto è che la persona si è dimenticata di porre in atto i necessari accorgimenti correttivi allo scadere del tempo.


  • Super User

    Si ho capito che ti diverte, vorrei capire però in dettaglio la tua controproposta...


  • Super User

    @Serp said:

    Puoi sempre spiegarmi meglio il la tua proposta del 401..

    404 (Not Found), non 401. 🙂

    Penso sia il secondo modo migliore dopo robots.txt per impedire l'indicizzazione di una pagina. Anzi no, è il primo. 🙂


  • Super User

    @ArkaneFactors said:

    404 (Not Found), non 401. 🙂

    Penso sia il secondo modo migliore dopo robots.txt per impedire l'indicizzazione di una pagina. Anzi no, è il primo. 🙂

    Non ho dubbi in merito. Vorrei però comprendere come tu creda di inserire i link necessari per lo scambio (ricordi il problema in apertura del tread?) e renderli disponibili ai visitatori...


  • Super User

    @Serp said:

    Non ho dubbi in merito. Vorrei però comprendere come tu creda di inserire i link necessari per lo scambio (ricordi il problema in apertura del tread?) e renderli disponibili ai visitatori...
    La vedi [url=http://fattori-arcani.awardspace.com/ciao.php]questa pagina? Bene, quella pagina restituisce HTTP status code 404 (Not Found), e non verrà mai indicizzata dai motori di ricerca.

    Sorgente:

    <?php header&#40;"HTTP/1.1 404 Not Found"&#41;; ?> 
    <html><head><title>Ciao Serp!</title></head><body><h1>Ciao Serp! :-&#41;</h1></body></html>
    

    Output:

    HTTP/1.1 404
    Date&#58; Thu, 13 Apr 2006 22&#58;32&#58;09 GMT
    Server&#58; Apache
    Connection&#58; close
    Transfer-Encoding&#58; chunked
    Content-Type&#58; text/html
    
    5a
     
    <html><head><title>Ciao Serp!</title></head><body><h1>Ciao Serp! &#58;-&#41;</h1></body></html>
    
    0
    
    

  • Super User

    Infatti, è un trucco molto pericoloso da usare contro Google.


  • Super User

    My opinion...
    ormai il rel=nofollow lo guardano tutti... il robots.txt un po' meno...
    Io farei una directory 'partners', 'amici' o quello che è, e la dedicherei agli scambi link, poi proteggerei la directory dagli occhi indiscreti degli spider con un bel robots.txt...

    Certo, non potrò fare scambio link indiscriminato home-home (ma non lo farei comunque) e non posso farmi linkare quella directory, ma qualche link in più lo posso raccattare.

    Se poi l'altro webmaster mi becca..."Ooops!"
    E metto in atto la tecnica "Serp" di rimozione dell'Url da Google per 6 mesi

    ps: @arkane: le motivazioni autorevoli sulla quadrilaterazione di scambio link sono in pagina precedente 😄

    Ooops,
    Stuart


  • Super User

    @Serp said:

    Infatti, è un trucco molto pericoloso da usare contro Google.
    Ne dubito. Una pagina del genere per qualsiasi motore di ricerca è indistinguibile da una custom 404 error page. Anzi, è, di fatto, una custom 404 error page. 🙂 Se così non è secondo te, dicci perché.

    PS: non è un trucco. 🙂


  • Super User

    @Stuart said:

    ps: @arkane: le motivazioni autorevoli sulla quadrilaterazione di scambio link sono in pagina precedente 😄
    La mia domanda era come fa Google, secondo te, a capire al volo che una quadrangolazione è uno scambio link. E' una domanda banale?


  • Super User

    @ArkaneFactors said:

    PS: non è un trucco. 🙂
    Ah no?...
    Se non esistesse Google (o un qualsiasi motore di ricerca) che utilizzo pratico avrebbe?

    ps: non è male però!...;)

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    Ah no?...
    Se non esistesse Google (o un qualsiasi motore di ricerca) che utilizzo pratico avrebbe?
    Una custom 404 error page. Presente? 🙂

    ps: non è male però!...;)
    Oh, grazie.


  • Super User

    @Stuart said:

    ps: @arkane: le motivazioni autorevoli sulla quadrilaterazione di scambio link sono in pagina precedente 😄
    'azzo, non avevo visto il tuo post. Scusa.


  • Super User

    @ArkaneFactors said:

    ...Se così non è secondo te, dicci perché.
    PS: non è un trucco. 🙂

    Di sicuro fa questo:

    • Controlla che il titolo della pagina contenga "404" e l'intestazione HTTP abbia status 404. (test falso=allarme)
    • Richiede dal tuo server un file nominato in maniera random (Esempio: 1f5d1s1s4145fd5.htm)
      Così ottiene molte informazioni necessarie per certificare a se, la bonta o disonestà della pagina di errore.

  • Super User

    @Stuart said:

    http://www.motoricerca.info/news/news-245.html
    Pagina che tra l'altro hai citato anche te in un thread sul Pagerank qui su GT.

    Rilevare algoritmicamente scambi di link con uno schema leggermente più complesso del A->B->A pare non sia particolarmente arduo.
    Sì, sono d'accordo con questa interpretazione. Avevo letto l'intervista a Vigna (ovviamente), ma quel passaggio dev'essermi sfuggito. Ti ringrazio per avermelo segnalato, era esattamente la risposta che cercavo. 🙂

    @Stuart said:

    Non conoscevo quei programmi fino a quando non li hai linkati, e sai che non parlo di cose che non conosco (più o meno) a fondo.
    ps: il secondo sito, tra quelli da te proposti ha uno strano PR=0 (ma non è bannato)
    L'idea di fondo non è malaccio, tu hai usato questi servizi?
    Sì, li uso tutti i giorni. Scherzo. 😄
    Nemmeno io li conoscevo finché non sono capitato per caso sul primo dei due (il secondo l'ho trovato cercando "non reciprocal link exchange" -- una specie di ossimoro-- su Google). L'ho provato per sfizio su un sito a perdere (più che altro per vedere come funzionava essendo in PHP) ma l'ho rimosso quasi subito perché veniva fuori solo Phentermine Phentermine Viagra Viagra. 🙂
    Secondo me avran vita breve (lo pensavo prima, e lo penso ancora di più dopo dopo aver letto la risposta di Vigna). Strano in effetti quel PR0 sulla home di nxlinks, l'ho notato anch'io. Eppure la pagina è nella cache, e le altre hanno PR. Boh. Ho sonno.