• User

    non devono essere letti dall'utente


  • Super User

    Ciao Francesco Ricci e benvenuto sul forum. 🙂

    (non c'è nulla di estremamente porno in quella pagina, quindi non cancellate plz o potreste non capirmi).

    Il nostro regolamento è molto preciso a riguardo e devo purtroppo chiederti di editare il tuo post e rendere almeno inattivo quel link :bho:


  • Super User

    @Francesco Ricci said:

    non devono essere letti dall'utente

    Allora esistono diversi modi per creare in maniera automatica 50.000 testi diversi.

    Non so indicarti script pronti all'uso perché personalmente non ne uso, ma un qualsiasi programmatore dovrebbe essere in grado di progettare un piccolo algoritmo per la creazione automatica dei testi, partendo da un testo di esempio abbastanza lungo (una serie di articoli o un libro sull'argomento da spingere) e creare frasi digeribili dai motori di ricerca applicando le Markov chain e un po' di sostituzione di keyword.

    Sono certo che esistono script già pronti.

    Per chi fosse interessato alla tecnica, ecco [url=http://www.eblong.com/zarf/markov/]un approfondimento, con tanto di programma di esempio e di esempi dei risultati ottenibili.


  • User

    è una buona idea, ma le mie idee sopra le scarti? non sono buoni?

    Cmq il codice dell'approfondimento neanche mi si compila!


  • User

    Mi sono fatto uno scriptino php che genera testo random + o - leggibile
    Quanti caratteri mi consigliate di generare per pagina?


  • Super User

    @Francesco Ricci said:

    è una buona idea, ma le mie idee sopra le scarti? non sono buoni?

    Non c'è paragone tra le soluzioni 1, 2, e 3 con del testo generato come ti dicevo.

    Anche il testo random non andrà bene. Prima o poi potrebbe beccartelo, mentre il testo generato con una Markov chain è quasi del tutto a prova di antispam.

    Fai conto che per programmare un algoritmo che distingue un testo random da un testo "realistico" ci vogliono dieci minuti. Perché rischiare? Vai di Markon chain e dormi tranquillo.


  • User

    guarda non sono riuscito a compilare il marcov, ma il mio script funziona così:
    Prende pezzi di testo partendo da uno iniziale e li unisce così da creare dei testi che se non fosse per qualche errore sintassico è perfetto.
    Non credo che google arrivi a capire se un testo è grammaticalmente corretto.


  • Super User

    @Francesco Ricci said:

    Prende pezzi di testo partendo da uno iniziale e li unisce così da creare dei testi che se non fosse per qualche errore sintassico è perfetto.

    Beh, allora non è proprio random, se copia pezzi di testi già esistenti. Occhio comunque ai filtri anti duplicazione. I pezzi copiati dovrebbero essere piuttosto brevi.


  • User

    ho pensato a 6 spezzoni da 50 caratteri così da avere 300 caratteri di testi. in 50k pagine sicuramente però qualche frase si verrà a ripetere, ma il testo nel complesso no.


  • Super User

    No no, "nel complesso" non è sufficiente. Contano anche gli spezzoni.

    Un algoritmo furbo funziona in modo da calcolare la lunghezza media degli stralci di testo in comune con altre pagine. Più questo valore è alto, e più le pagine possono essere considerate duplicate (o generate dalla stessa matrice). Dare in pasto al motore 50.000 pagine, è come offrirgli su un piatto d'argento il valore "50", pure bello tondo.

    O accorci di più gli spezzoni, o usi le Markov chain.


  • User

    Ma essendo queste pagine su 33 domini differenti credo che i motori di ricerca non le troveranno mai, ok per i controlli di duplicati sullo stesso sito, ma su siti differenti mi sembra assurdo


  • Super User

    Non c'è bisogno di comparare il testo di una pagina con tutti gli altri miliardi di pagine in archivio, per sapere se e quanto contiene testi duplicati.

    Il filtro antiduplicazione di Google (quello che si disattiva aggiungendo "&filter=0" nell'URL di una ricerca) ed anche quello di Yahoo! agiscono su tutti i siti in archivio, non limitatamente ad un solo sito web.

    E comunque 50.000/33 fa sempre 1.515 pagine per dominio, che è ancora un pacco di informazioni piuttosto corposo.

    Non vorrei essere frainteso: non dico che ti beccheranno, dico che usando il metodo che hai scelto aumenti di molto le loro probabilità che ci riescano, perché rendi l'intento molto più evidente.

    Poi magari ha comunque un senso provarci, anche per vedere quanto sofisticati sono diventati nell'individuare le pagine duplicate.


  • User

    non avendo altre soluzioni seguirò questa strada e ci vediamo presto nel laboratorio seo


  • User Attivo

    Vorrei segnalare a tutti che vari laboratori amici mi stanno dicendo che in tutta fretta stanno sistematicamente togliendo tutte le door che hanno. Pare che Google abbia molto migliorato i suoi algoritmi ed anche il javascript è correttamente interpretato e valutato. C'è una marea di gente che sta lavorando...
    ... a buon intenditore...


  • Super User

    stanno sistematicamente togliendo tutte le door che hanno.

    Per quanto io sia il primo a sostenere che nella maggior parte dei casi le doorway non sono necessarie, trovo incompatibile con la filosofia stessa del posizionamento che al primo cambio di algoritmo alcuni SEO decidano di non sfruttare l'occasione per individuare nuove soluzioni tecniche.

    ...che peraltro potrebbero essere anche banali.


  • Super User

    @LowLevel said:

    @Francesco Ricci said:
    non devono essere letti dall'utente

    Allora esistono diversi modi per creare in maniera automatica 50.000 testi diversi.

    Non so indicarti script pronti all'uso perché personalmente non ne uso, ma un qualsiasi programmatore dovrebbe essere in grado di progettare un piccolo algoritmo per la creazione automatica dei testi, partendo da un testo di esempio abbastanza lungo (una serie di articoli o un libro sull'argomento da spingere) e creare frasi digeribili dai motori di ricerca applicando le Markov chain e un po' di sostituzione di keyword.

    Sono certo che esistono script già pronti.

    Per chi fosse interessato alla tecnica, ecco [url=http://www.eblong.com/zarf/markov/]un approfondimento, con tanto di programma di esempio e di esempi dei risultati ottenibili.

    Se qualcuno mi traduce l'articolo dall'inglese e mi spiega cosa fa quel programma lo rifaccio in php e ve lo regalo 😄

    Personalmente ho a volte usato il testo random e non sono mai stato scoperto, ma questo perchè avevo molto materiale su cui lavorare (un database di 18 mb di testi tematizzati)

    Se invece mi spiegate cosa sono le Markov chain vi do una mano 🙂


  • User Attivo

    @LowLevel said:

    stanno sistematicamente togliendo tutte le door che hanno.

    Per quanto io sia il primo a sostenere che nella maggior parte dei casi le doorway non sono necessarie, trovo incompatibile con la filosofia stessa del posizionamento che al primo cambio di algoritmo alcuni SEO decidano di non sfruttare l'occasione per individuare nuove soluzioni tecniche.

    ...che peraltro potrebbero essere anche banali.

    Giusto LOW, infatti per "togliendo" non intendevo fisicamente 😄
    Il veloce cambiamento è motivato dal fatto che vi sono prove certe di decine di siti che Google sta bannando o penalizzando in modo sistematico e quasi in ordine cronologico. Non mi chiedete di più... ho vincoli di riservatezza 🙂


  • User

    dai cerchiamo di collaborare insieme, anche io sono un discreto programmatore php


  • Super User

    grazie della soffiata Fradefra 🙂


  • User

    io direi fradefra ti tenerci informati su cosa sta facendo google, poi i tuoi amici si sa che stanno trovando un modo per fare un redirect senza che google li scopra 😄