-
Io credo che il punto della questione sia questo: il mercato è ampio, basta una piccola fetta per fare miracoli. Ovvio che l'ai content non si adegua a settori come l'hosting o come il seo, dove spopolano i blog e simili. Ma ci sono tanti settori in cui i blog non esistono, ma solo siti di poche pagine vetrina per le aziende di quel settore, qui il discorso cambia..
"Creare l'AI conten è facile"
Beh insomma
" ma la vera sfida sarà creare l'AI Webmaster."
Completamente d'accordo, quoto in pieno.
-
Giorgio scrive:
"Per l'AI content invece, agoago la vede troppo da ottimista secondo me"
No Giorgio, per carita', lungi da me il credere che sia facile, anzi!
Semplicemente, da anni ormai, ho posto la teoria sopra-innanzi a tutto, pratica compresa.
Ed analizzando (da lato teorico) il mondo motori seo web ne ho dedotto che:
"Un' intelligenza artificiale non potra' mai esser certa di riconoscere se un testo e' stato creato da un'altra intelligenza artificiale."
Con questa affermazione (discutibilissima, come sempre) desidero porre un punto preciso di partenza per future congetture, analisi.
Che poi un perfetto "ai content" sia nella pratica di facile o improbabile realizzazione... poco o nulla importa.
Ma se l'assioma e' corretto, se e' teoricamente inattacabile, allora fra un giorno, fra un anno o fra 100 i motori di ricerca tutti dovranno confrontarsi con una nuova realta' che per loro sara' ingestibile, se non in modo manuale con costi folli.
Tutto qui.
-
@agoago said:
"Un' intelligenza artificiale non potra' mai esser certa di riconoscere se un testo e' stato creato da un'altra intelligenza artificiale."
@agoago said:
Ma se l'assioma e' corretto, se e' teoricamente inattacabile, allora fra un giorno, fra un anno o fra 100 i motori di ricerca tutti dovranno confrontarsi con una nuova realta' che per loro sara' ingestibile, se non in modo manuale con costi folli.
L'assioma è corretto preso a parte. Ma Mettendolo con le conclusioni:
Un' intelligenza artificiale non potra' mai esser certa di riconoscere se un testo e' stato creato da un'altra intelligenza artificiale...QUINDI *gli "ai contents" potrebbero alla lunga saturare il web, tanto da annullare (nelle serp) ogni altro contenuto che non provenga da siti semi o "istituzionali".
In pratica (e non solo piu' in teoria) ci sono altissime probabilita' che tutti i motori di ricerca entro pochi anni, non siano piu' in grado di dare risultati accettabili per query con key formate da 3 parole od oltre. (By agoago)
*
E' questo che rende quell'assioma non corretto e attaccabilissimo.Perchè Google ci ha insegnato che l'ordinamento delle sue serp è influenzato da tantissimi fattori che nel tempo lui ha manipolato, aumentando/diminuendo/azzerando la loro potenza relativamente alla forza globale.
Oggi ad esempio, è molto influente non avvicinare un sito a risorse di spam ed in tutto questo giocano una grande forza i link.
Ma domani non sappiamo come l'algoritmo di Google sarà influenzato.
Per ipotesi potrebbe benissimo sfruttare i dati Analytics/Toolbar/Search History/Adsense/Feedburner/Blogger/Hosting per incanalare informazioni relative al comportamento degli utenti nel sito, ed a questo punto estrarre dati sulla permanenza, sulla navigazione, sull'iscrizione ai feed e via dicendo.
Oggi i link...domani gli utenti?
Tuttavia, anche se dovesse restare così l'algoritmo (ma è Google stesso che ci ha insegnato altro), e l'AI Content riuscisse a superare gli algoritmi testuali, cioè quelli che analizzano il testo (dato che Google si basa poi su quello che c'è oggi nel web come testo...è anche più facile), non sarebbe che un piccolo risultato. Grande per l'AI Content, piccolo per il SEO/Utente che cerca di aggirare il motore.
Quante persone ci sono in grado di fare AI Content?
Ammettiamo di riuscire a creare un sito con 10.000.000 di pagine tutte generate in automatico (oppure se vuoi X siti con 1000 o vedi te). Google non riesce a riconoscerle e le passa. La struttura del sito è buona.
Alcune domande:
-
Quanto ci mettono queste pagine a farsi risucchiare in automatico dall'algoritmo del BadRank ed influenzare tutto il network?
-
Quanto Google stesso ci mette a chiudere la valvola dei contenuti e struttura ed aumentare quella del TrustRank / BadRank?
-
Quanto Google alzerà la valvola dell'esperienza degli utenti nelle pagine web.
-
Quanti algoritmi usa Google che gli AI Content non conoscono e che non sono legati al testo? E quanti Algo ha in serbo?
-
Quali innovazioni tecnologie ed informatiche oggi non vengono seguite ed applicate oggi nei Laboratori di Google o Università alle quali è collegato?
-
Quanto ci metteranno gli Ai Content a segarsi le gambe da soli?
Google è così avanti sia in Hardware che in Software che è impossibile stabilire quanto è avanti
Se questo è corretto, inattaccabile, allora oggi è impossibile dire che un nuovo sistema metterà in ginocchio le serp
Ma questo non significa però che tutti i siti di Ai Content verranno bloccati in automatico, ma neanche che Google faticherà con questi siti.
Secondo me saranno ben pochi e per poco tempo gli AI Content a fare accessi da Google, ma a rischio del proprio Network costato anni di fatica a costruirlo.
E questo non perchè sono "solo" AI Content
-
-
@agoago said:
"Un' intelligenza artificiale non potra' mai esser certa di riconoscere se un testo e' stato creato da un'altra intelligenza artificiale."
Mi ricorda il test di Turing...
-
Quoto in pieno Giorgio e aggiungo che google avrà di sicuro chissà quali algoritmi pronti all'utilizzo, da tirar fuori non appena necessario..
-
Innanzitutto credo che alcuni siti / documenti AI possono essere utili per gli utenti, che quindi saliranno giustamente nel motore di ricerca. Per quanto riguarda i documenti spam, si vede già la chiara tendenza di non analizzare il documento stesso però l'ambiente dove viene inserito e la sua percezione dalla community d'internet. Siccome l'algoritmo che analizza il valore semantico di documento nella grossa maniera si basa sull'insieme di documenti che il motore ha nei datacenters per cambiare veramente il ragionamento di motore di ricerca ci vogliono milioni di documenti AI creati nei IP diversi, tutti preferibilmente linkati oltre che tra loro, anche dai siti “naturali” è considerati affidabili. Oltre questo processo di introduzione dei tale documenti dovrebbe essere rallentato nel tempo, cosi per non fregare i filtri temporanei di Google (un documento di alberghi a milano AI e creato da un uomo puo anche essere considerato semanticamente lo stesso, però se uno viene pubblicato insieme alla stessa data con milione dei altri documenti Google dovrebbe riuscire a beccarlo).
Quindi oltre che l'analisi semantica, dove i discorsi di AI sono sicuramente molto utili, abbiamo da fare con il numero sempre crescente di fattori che sono independenti dalla base di algoritmo. Tanto a livello teorico si può fare tutto, Google deve agire solamente con lo scopo di fare il lavoro di “criminali virtuali” più difficile possibile. Fin quando sarà più facilmente salire usando le tecniche white-grey-hat che creando una rete di siti AI, direi che possiamo dormire tranquillo.
-
Giorgio scrive:
"E' questo che rende quell'assioma non corretto e attaccabilissimo.
Perchè Google ci ha insegnato che l'ordinamento delle sue serp è influenzato da tantissimi fattori che nel tempo lui ha manipolato, aumentando/diminuendo/azzerando la loro potenza relativamente alla forza globale."
Giorgio, siamo entrambi d'accordo che un buon sistema di AI superera' sempre un discreto sistema di AI.
E G e' un ottimo sistema.
Perche' come ricordi tu, non e' limitato a pochi algoritmi semantici, ma ha 1000 cartucce a disposizione, link spontanei, scelte degli utenti, etc etc
Il motore deve sempre e comunque dare un premio iniziale ad ogni nuovo sito o documento che dir si voglia.
I motori sono eccezionali nel ordinare siti storici, ma sanno anche che gli utenti sono sempre in cerca di cose nuove.Non potendo (per ovvie ragioni) stravolgere le serp delle key maggiori danno allora l'opportunita' ad ogni wm di avere quel minimo di visibilita' per key minori.
Qualsiasi seo eo wm sa che dopo aver messo on line il suo sitino nuovo di pacca che parla magari della sua famiglia (cani e furetti compresi) appena passa lo spider dopo un po' arriveranno anche i primi accessi.Scoprira' allora che gli utenti lo trovano per key assurde, tipo micia maria concetta e cose del genere....
Ma solo dando un po' di visibilita' agli ultimi arrivati il motore potra' offrire a quei siti l'opportunita' di poter essere lincati spontaneamente, la voglia di continuare ad aggiornare il loro sito e via dicendo.La regola non vale per tutti i motori e se vale non vale in egual misura.
Per esempio Yahoo quando si trova innanzi un sito nuovo che ritiene da "sfigati" fa una cosa molto semplice.
Lo spiderizza di continuo ma le pagine non le inserisce in serp se non dopo molti mesi, moltissimi, anche oltre un anno.La home subito, ma il resto diventi vecchio.
Se nel frattempo il sito acquisice visibilita, link ecc ecc ecco che i mesi diventano settimane o giorni.E' un sistema semplice quanto efficace.
Lo "spammer" si rompe le balle perche' non vede mai risultati, e quando li vede ha magari gia' chiuso i domini non rinnovandoli.Di contro chi lo sa poi vive di rendita.
Comunque, tornando al discorso, ho troppa stima dei motori per pensare che (nel breve) non possano fronteggiare l'ai content con la stessa efficacia adottata per doorway, spamengine ecc ecc.
Tuttavia sono convinto (e come al solito poi si scoprira' che toppavo!) fortemente convinto che la lotta all'ai content porra' alcuni motori di ricerca davanti ad una scelta che non avrebbero mai voluto prendere.
E cioe' in che modo e se dover penalizzare maggiormente il nuovo a favore dello storico.
Comunque vada...
-
@Micgaw said:
Innanzitutto credo che alcuni siti / documenti AI possono essere utili per gli utenti, che quindi saliranno giustamente nel motore di ricerca. Per quanto riguarda i documenti spam, si vede già la chiara tendenza di non analizzare il documento stesso però l'ambiente dove viene inserito e la sua percezione dalla community d'internet. Siccome l'algoritmo che analizza il valore semantico di documento nella grossa maniera si basa sull'insieme di documenti che il motore ha nei datacenters per cambiare veramente il ragionamento di motore di ricerca ci vogliono milioni di documenti AI creati nei IP diversi, tutti preferibilmente linkati oltre che tra loro, anche dai siti ?naturali? è considerati affidabili. Oltre questo processo di introduzione dei tale documenti dovrebbe essere rallentato nel tempo, cosi per non fregare i filtri temporanei di Google (un documento di alberghi a milano AI e creato da un uomo puo anche essere considerato semanticamente lo stesso, però se uno viene pubblicato insieme alla stessa data con milione dei altri documenti Google dovrebbe riuscire a beccarlo).
Quindi oltre che l'analisi semantica, dove i discorsi di AI sono sicuramente molto utili, abbiamo da fare con il numero sempre crescente di fattori che sono independenti dalla base di algoritmo. Tanto a livello teorico si può fare tutto, Google deve agire solamente con lo scopo di fare il lavoro di ?criminali virtuali? più difficile possibile. Fin quando sarà più facilmente salire usando le tecniche white-grey-hat che creando una rete di siti AI, direi che possiamo dormire tranquillo.
Concordo al 100%.
-
Si potrebbe sempre creare una soluzione ibrida spam (mediante ai content o quello che vi pare) & minisito bello e navigabile (via cloaking) che riceverebbe pure link spontanei... ogni riferimento è puramente casuale :D! Tempi di permanenza e fattore linking andrebbero a farsi benedire... Del resto è pure spaventosamente più facile essere lincati se i contenuti in gioco sono consistenti...
Ora, è vero che Google è Giove e gli spammer atomi di materia, ma è altrettanto vero che il compito che ha Google, o un qualsiasi altro motore, è un compito spaventosamente difficile, un problema di ottimizzazione vincolata con vincoli potenziali in ogni testa di un potenziale spammer del pianeta...
-
lo spam se dev'essere fatto va fatto bene, nel senso che basta un passo falso e gli algoritmi capiscono di trovarsi di fronte ad un sito che bara....
il cloaking è ottimo per chi sponsorizza contenuti affiliati, tanto alla fin fine perdi un dominio che t'è costato si e no 2 settimane di lavoro
è importante però che il sistema di cloaking sia molto robusto, altrimenti ti acchiappano in 2 minuti....molti sistemi beahvioural o basati su IP/Useragent non svolgono il loro compito in maniera ottimale....
ci sono degli accorgimenti che possono allungare la vita di un sito che fa uso di cloaking in maniera notevole....
ad ogni modo è importante capire qual'è il target....un esempio lampante è questo forum....se non avesse contenuti validi nessuno lo guarderebbe, tutti andrebbero altrove.....le tecniche blackhat sono applicabili con successo ai settori commerciali, per esempio il turismo....alla fin fine l'utente cerca solo una camera d'albergo o un viaggio lowcost, non ha bisogno di un articolo di 10 pagine che gli spiega i pro e i contro dei voli low cost o che gli parlo dei 2 anni di ritardo dell'A380