• User Attivo

    LowLevel ci capiamo. Non avevo dubbi.

    Su una cosa pero' non prendi posizione:

    Dopo una partita contro il Maestro Book, Alekhine si lamentava di non aver potuto eseguire una meravigliosa combinazione, poiche' il suo avversario non aveva giocato nella maniera migliore!

    Se teorizzo una cosa del tutto logica, ma il motore poi non segue questa mia logica, a mio avviso il motore sbaglia... ma chi segue il motore avra' apparentemente ragione, gli altri no, io no. Se mi confronto con un wm che segue pedissequamente cosa fa un motore, come ragiona un motore, ovvio che l'avra' vinta lui. Sara' sopra di me nelle serp.

    Ma questo non significa nulla.

    Dici:

    "La differenza, ripeto, è concettuale, non pratica. Perché a prescindere dalla ragione sta di fatto che le pagine non si posizionano nemmeno immergendo il server a Lourdes."

    Ma porca la pupattola, un conto e' affermare cio che e', un conto cio che dovrebbe essere. Se oggi il cielo e' blu nessuno puo' negare che sia blu, ma io dico, oggi il cielo dovrebbe o potrebbe essere azzurro.

    Per me la teoria vale piu' della realta'. E su questo aspetto che si diverge. Tu dici oggi A e' A, io A dovrebbe o potrebbe essere B.

    Riassumendo, hai ragione da vendere, perche' sei come uno storico, osservi e descrivi la realta'.

    Io ne prendo atto ma dico, non conta cio' che e' ma cio' che dovrebbe essere.


  • User Attivo

    Ok. Sono ot, chiedo scusa, davvero. Ma non resisto. Portate pazienza. Rileggevo questo passo:

    "Alekhine si lamentava di non aver potuto eseguire una meravigliosa combinazione, poiche' il suo avversario non aveva giocato nella maniera migliore"

    Lasciamo stare i motori, i seo, le teorie e la pratica. Sono ot, l'ho detto.

    Kotov scrive, ci riporta che Alekhine si lamentava: "di non aver potuto eseguire una meravigliosa combinazione",

    Ora, chi non conoscesse Alekhine si immagini un uomo al di fuori del normale. Un genio assoluto.

    Ci sono stati pochi geni, riconosciuti come tali, nella storia dell'umanita'.

    Allora l'informatica non esisteva ma informatica e scacchi sono figli della stessa scuola di pensiero.

    Chi mi conosce tramite forum sa della smisurata ammirazione che provo per Phillip Katz. Leggete la sua bibliografia. Come e' vissuto, cosa ha fatto, come e' morto. Ne prendo esempio, e indefferentemente da chi sono-siamo mi sento piccolo piccolo al confronto.

    Poi documentatevi su Alexander Alekhine, nato credo un 50 anni prima. Un genio tale che Kotov, il Kotov, gli dedica parte del suo tempo.

    Documentatevi su cosa ha fatto, come pensava, come e' morto.

    Non credo nelle coincidenze, ma questi casi mi danno da pensare.


    A mio avviso il gioco degli scacchi e' stato l'anticamera del pensiero informatico. Non ho dubbi in merito.

    Troppe similitudini, troppe coincidenze.
    Perdeteci un'oretta, non ve ne pentirete.


  • User Attivo

    Ot per ot mi lancio, al diavolo le conseguenze.

    Avete letto "Ricambi" di Marshall Smith Michael? Meraviglioso.
    Con i motori c'entra poco ma lui scrive come pochi, una goduria nel leggerlo.

    Chi non ha letto Ricambi si e' perso qualcosa di bello.

    Roba da "masturbazione". Cosa c'entra Ricambi con i motori?? Assimilatene la parte della versonalita' e poi godete del resto.

    Fighissimo. Se qualcuno di voi lo trova "inutile" che mi insulti pure senza pieta'.

    La teoria dei 20 gradi per la suddivisione della torta vale di per se un campiello.

    Bello, bello e poi ancora bello. Per me, Marshall Smith, con questo libro, rappresenta la dimostrazione vivente che si puo' andare oltre. I motori per quanto geniali hanno ancora qualcosa da cui prendere spunto.

    Perdonatemi l'ot, ma so quel che scrivo.


    Qualcuno ha paragonato Marshall a Dick.

    Paragonare qualcuno a Dick e' pura follia, non e' concepibile. Non e' considerabile, non deve essere pensabile.

    Ho letto tutti gli scritti pubblici di Dick, li leggi e ti senti una merda, come si suol dire ti senti inutile. Li leggi e capisci la differenza tra chi lasciera' un qualcosa e chi non vale nulla, sono un nulla io che li leggo. Capisci che non siamo tutti uguali, c'e' il genio e c'e' la normalita', la massa.

    Leggendolo capisci che non fai parte del genio. Lui e'-era Dick, io, tu siamo poveri tapini che non lasceranno traccia, al massimo un paio di figli, roba da tutti i giorni.

    Allora vai a fondo, ti informi come sono morti e vissuti Dick, Kotov, Katz e molti altri geni.

    La candela che fa il doppio della luce si consuma nella meta' del tempo.


    Amici, colleghi, lettori casuali, ecc ecc, che senso ci fa, capire, accettare che non siamo nulla? Che non valiamo nulla? Inutili tra gli inutili.

    Neanche la soddisfazione di creare il ponte sul fiume Kway.


  • Super User

    ...com'e' che si scrive...ah;.. chapeau, per entrambi! :mani:

    Neanche la soddisfazione di creare il ponte sul fiume Kway.
    Non e' proprio sul fiume Kway, ma un ponticello qui lo stiamo creando, finite le pizze potresti darci una mano 😄

    :ciaosai:


  • Super User

    su webmasterworld c'era un thread sui "segnali di qualita'". dopo un po' ho trovato il link: [url=http://www.webmasterworld.com/forum30/30813.htm]eccolo.

    il thread inizia con una serie di indici di qualita' tecnici (velocita' del server, ip unico, host fidato etc etc)

    c'e' pero', nel thread, un post che considero ancora piu' interessante, in cui si fa un elenco di elementi che un sito commerciale dovrebbe avere.

    mi piace chiamare questa lista "segnali di affidabilita'".
    vediamo quali potrebbero essere questi segnali:

    • email / contact us
    • numero di telefono
    • about us
    • partita iva
    • dove siamo
    • informativa sulla privacy
    • il © con la data
    • un marchio registrato
    • condizioni d'uso

    etc etc etc.

    Low ha detto

    sono convinto che il sito di un'azienda dovrebbe permettere ai propri visitatori di contattare la ditta in qualche modo (e-mail o form) e dovrebbe fornire anche l'indirizzo postale, un indirizzo e-mail per i reclami, l'indicazione di eventuali appartenenze ad associazioni di categoria, e così via.

    E' possibile che un motore di ricerca valuti il sito più di altri in cui quelle informazioni non appaiono ed è altrettanto possibile che questa valutazione venga fatto solo su alcuni tipi di siti, ad esempio quelli commerciali, ma non su altri.

    mi sembra proprio che ci siamo.

    mi pare che la maggior parte dei SEO faccia questo errore (hey, lo chiamo io errore, non significa che lo e' per forza): guardare al sito da un punto di vista tecnico, con l'occhio di uno spider. si, ok, bisogna seguire i tanti buoni consigli su come creare le pagine e il sito intero (BL, sitemap, <h1> blablabla). ma poi basta. ci si ferma a questo, e casomai si cercano altri metodi tecnici per migliorare il proprio ranking.
    io credo invece che ad un certo punto, dopo aver fatto un'ottimizzazione di base nella struttura, si debba guardare al sito con l'occhio umano, invece che con quello di uno spider.

    e allora, se io devo andare a comprare un libro online, cosa guardo? che domande mi pongo?

    io queste:
    chi e' il venditore?
    posso contattarlo?
    dove si trova?
    tutela la mia privacy?
    ci sono le condizioni d'uso?
    come posso pagare?
    il login e' su SSL?
    la reputazione del sito e' positiva?

    se le risposte sono positive, il sito puo' essere considerato affidabile. l'utente puo' quindi premiarlo. i motori pure.

    p.s. mi rendo conto che mi sono limitato ad una categoria di siti web (leggi: commerciali), ma mi pare che ci sia tanta di quella carne al fuoco in questo thread che possiamo cucinarla tutta, un po' per volta.


  • User Attivo

    I miei complimenti ad entrambi, raramente (forse mai) ho letto un 3d così entusiasmante!

    Complimenti ragazzi! Continuate così, siete fantastici.

    Mi piace molto il pensiero di Agoago, lui non si limita ad osservare e valutare, lui cerca di andare oltre, di prevedere, di immaginare come sarebbe e come sarà.

    Sono daccordo anche con tutto quello che ha detto Low tranne quando dice:

    " A livello pratico la differenza tra i due approcci non è grande, perché è evidente che se tra i siti A, B e C solo quest'ultimo viene premiato, ciò che si otterrebbe corrisponderebbe più o meno alla svalutazione di A e B. "

    La penalizzazione esiste comunque, a volte cercando un sito per esempio scrivendo "giorgiotave.it " su google il sito non compare o lo fa nelle ultime pagine, qui che vogliate o no non si parla di premiazione degli altri siti, bensì di penalizzazione di giorgiotave.it.


  • Super User

    Premesso che sono stanco come una bestia e che le mie capacità di comprensione sono al momento limitate, rispondo ad agoago circa la differenza tra ciò che è e ciò che dovrebbe essere, che dal mio punto di vista è relativa o addirittura irrilevante.

    Alekhine non aveva nulla da lamentarsi. Nella sua testa, il gioco che avrebbe potuto fare se l'avversario avesse giocato meglio non era meno reale di ciò che è effettivamente successo. Alekhine è comunque arrivato a pensare quella mirabile soluzione, e nel regno del pensiero questo dovrebbe bastare per dimostrare a sé stessi le proprie capacità. Che tali capacità non siano state dimostrate ad altri, io lo trovo insignificante. Nella foresta mentale di Alekhine è caduto un albero ed il rumore è stato udito solo da Alekhine stesso. E' sufficiente per considerare l'albero caduto, anche se non lo saprà mai nessun altro.

    La dimostrazione agli altri sarebbe servita solo ad alimentare il proprio ego e non avrebbe reso il gioco potenzialmente attuabile più reale di quello che realmente è stato.

    Questa considerazione ha a che fare (anche) col posizionamento, perché il mio approccio con i motori di ricerca tende a sminuire le differenze tra teoria e pratica.

    Molte delle cose che io penso ed ipotizzo non le divulgo nemmeno. Sono così tante che la loro quantità rischierebbe di ingolfare i forum e sviare gli utenti da obiettivi più concreti. Molti webmaster frequentano i forum SEO non solo per imparare, ma anche per occuparsi principalmente di quegli elementi che producono benefici di ranking per i propri siti web. Il resto, dal loro punto di vista, sono solo discussioni che lasciano il tempo che trovano.

    Un paio di mesi fa, ad esempio, ho voluto mettere alla prova una delle mie teorie.

    Io sono convinto che i motori di ricerca avrebbero un vantaggio a monitorare l'azione "aggiungi ai bookmark", che in teoria dovrebbe corrispondere all'individuazione di una risorsa di utilità.

    Questa teoria è coerente con ciò che i motori desiderano: ottenere informazioni significative su ciò che gli utenti preferiscono, e l'azione "aggiungi ai bookmark" possiede una valenza altissima, in questo contesto.

    Di contro, la pratica mi ha spinto ad usare un packet sniffer per vedere se la toolbar di Google spediva pacchetti al server del motore quando aggiungevo un sito ai bookmark: non ho osservato alcuna spedizione di pacchetti verso Google.

    Adesso, il punto è che la teoria rimane coerente con quello che i motori vorrebbero e non viene sminuita affatto dalla pratica.

    La volontà di provare la teoria è solo un retaggio della mia mentalità analitica, ma non avrei affatto bisogno di provarla o di confutarla per comprendere se si basa su elementi logici o se è completamente campata in aria.

    Può darsi che Google non abbia ancora trovato il modo di monitorare le azioni "aggiungi ai bookmark", può darsi che lui non voglia farlo ma che altri motori invece lo fanno [chi prova con la toolbar di Yahoo?], può darsi che io non abbia monitorato i pacchetti con sufficiente attenzione.

    Beh, tutto ciò è irrilevante, perché vi è comunque un enorme vantaggio a ritenere reale questo presunto monitoraggio a prescindere da quanto venga realmente attuato dai motori e tale vantaggio consiste nel fatto di essere indotto a realizzare i siti web in modo che gli utenti si sentano spinti ad inserirli nei propri bookmark. E non per un ipotetico vantaggio nelle posizioni, ma perché un bookmark equivale ad un utente che torna e ad un'attestazione di interesse nei confronti del sito web.

    Si può andare anche oltre affermando che non desidero che l'utente inserisca il mio sito tra i propri bookmark incentivato da un esplicito link "Aggiungi ai preferiti", ma voglio che lo faccia di propria spontanea iniziativa. Se gli utenti inseriscono il mio sito nei bookmark senza alcun incentivo, allora quell'inserimento vale, dal mio punto di vista, di più.

    Questo ha influenza sulle posizioni nei motori di ricerca? Non so, ma il punto è che non importa. Io faccio il massimo per me stesso, per il mio sito e per i miei utenti. Se poi i motori di ricerca hanno modo e volontà di analizzare anche il fattore bookmark, tanto meglio.

    Quando ho iniziato ad occuparmi di posizionamento vedevo tutto sotto l'ottica dell'informatico. Facevo un mucchio di test e di reverse engineering per individuare quali elementi venivano premiati di più dai motori. Ma il tempo passa, i motori cambiano, e sono cambiato anche io.

    Ho scoperto che sta diventando sempre meno rilevante individuare con precisione gli elementi premiati o penalizzati, e che i risultati migliori li ottengo realizzando i siti come se i motori fossero in grado di analizzare tutto. Questo vale per tutti i tipi di siti: da quello della ditta di autotrasporti a quello che vende gruppi elettrogeni, a quello della bottega rionale.

    Quando leggo sui forum "ma cosa ci vuoi mettere in un sito del genere se non le 4 pagine canoniche? O vai di doorway o non riesci a posizionarlo", mi viene da piangere/ridere, a seconda del momento.


  • User Attivo

    E per fortuna che eri stanco... 🙂

    Condivido il tuo pensiero, dici, come wm faccio al meglio i siti, come seo parto dal presupposto che ogni cosa giusta e logica vada applicata sul sito, sia che i motori la analizzino o meno. Prendi atto di cio' che "e'", discuti su quello, cercando di non influenzare i colleghi su aspetti teorici che potrebbero essere poco utili o peggio dannosi.

    Infatti, ripeto, e' un mio errore, tu hai ragione, e non perche' la ragione si da ai fessi, ma perche' hai ragione e basta.

    Per quanto riguarda invece Alekhine, hai centrato il problema. Scrivi:

    "Nella foresta mentale di Alekhine è caduto un albero ed il rumore è stato udito solo da Alekhine stesso. E' sufficiente per considerare l'albero caduto, anche se non lo saprà mai nessun altro."

    Proprio su questo aspetto sposo una teoria diversa, riconoscendo che quanto sopra' e' logico e giusto. Questa mia filosofia e' distorta, e crea delle distorsioni logiche. Non sono in grado di spiegarla, ma se qualcuno avesse il piacere di leggersi "Ricambi" di Marshall troverebbe verso il fondo del libro una parte dedicata a questa balzana idea. L'albero caduto, della e nella foresta mentale crea una foresta di orrori e distorsioni, il Gap, cosi' come lo definisce Marshall. Certo, e' per gente che con la testa non ci sta del tutto, ma se prima ci si fa un paio di birette...


  • User Attivo

    Parto al contrario:
    prima con una mia opinione su quel detto finora poi ritorno all'idea di partenza di agoago.

    "Se un sito possiede caratteristiche utili agli utenti, viene valutato di più."

    Grazie al ****o!
    Hai ragione però questo non è SEO se permetti. Ci sono persone che ho conosciuto di persona che hanno un mega-sito ultra bello per gli utenti, con migliaia di visitatori ecc ecc.
    Poi aggiungono una pagina, si posizionano primi e credono di essere dei SEO professionisti senza capirci una mazza di motori.

    Cosa voglio dire con questo ?
    Che il tuo discorso fila, è giustissimo, però c'è chi si spinge oltre e capisce il perchè e il percome.

    Hai presente i cracker ? Quelli che fanno i crack.
    Fanno reverse engineering per capire un algoritmo, per fare un generatore di seriali e poi lo distribuiscono e gli utenti aprono il programmino scaricato e hanno i loro amati softwarini-crackati-gratuiti.

    Ecco è paraganobile ai SEO e i WM.
    I seo studiano come funziona un motore, per diletto principalmente, i WM si adeguano alla moda e mettono il title in un certo modo a seconda di come tira al momento ecc ecc.

    "Quindi" tu starai pensando ?
    Il tuo discorso fila da WM, non da SEO a mio parere e te la cavi in maniera troppo facile.
    agoago invece è l'incarnazione del SEO vero e proprio che non dorme la notte per capire il perchè e il percome delle cose (non sto dicendo che tu non lo faccia, analizzo solo la tua frase).

    "A livello concettuale invece la cosa è estremamente importante, perché l'intera visione penalty-centrica .. bla bla bla .. anomalo. "

    Continuando il discorso mio di sopra:
    Allora i seo da cosa sono nati ? Secondo me dalla volontà di non dover fare le cose per me ma di copiare e incollare una key 10 volte per vedersi primi, per trovare una scorciatoia e così via (probabilmente il primo seo in assoluto è un italiano).
    Allora una visione penalty-centrica mi sembra naturale, per lo meno dal punto di vista di un motore di ricerca e forse è proprio quello che ti manda oltre i limiti di un test e ti aiuta a capire come funziona un motore di ricerca ?
    Forse è proprio quando succede qualcosa di anomalo che pensi "cazzarola forse han messo un nuovo algoritmo" ?
    Guarda mi è capitato di pormi domande fuorvianti, passare giorni e giorni a pensarci, non trovare la risposta, passare ad un'altro problema e dopo 3 mesi dire "pupazzona ladra ecco cos'era" e scoprire che dal punto di vista teorico avevo ragione.

    Quindi fare i SEO come detto sopra ha senso, anche se ti porti in casa un sacco di problemi. Fare i WM ha senso, fino a quando G premierà per i siti di qualità per gli utenti, ma poi quando premierà gli spam engine ?

    Ok non so cosa ho scritto ma l'ho scritto, spero si sia capito qualcosa.
    Mi è venuta la febbre, proseguo domani.


  • Super User

    Che il tuo discorso fila, è giustissimo, però c'è chi si spinge oltre e capisce il perchè e il percome.

    Questo è stato il mio percorso:

    1. Reverse engineering per identificare gli elementi premiati dai motori

    2. Ottimizzazione del sito in tutti i suoi aspetti, cosa che influisce anche nei risultati delle ricerche.

    Quindi, per quello che riguarda me, lo studio delle tecniche di reverse engineering non sono "l'oltre" ma sono state l'ABC, poi ho acquisito una concezione del problema più ampia di quella che deriva dal solo reverse engineering.

    Non avrebbe senso fare un passo che per me sarebbe involutivo, e tornare a basarmi solo sul reverse engineering. Il R.E. non è stato abbandonato, ma non mi è bastato più, ho sentito il bisogno di aggiungere altro al mio approccio con i motori.

    Questa ovviamente è solo l'esperienza del sottoscritto, che partendo da un approccio esclusivamente informatico è riuscito ad ampliare le proprie conoscenze sui motori solo osservando la problematica da altri punti di vista. E' ovvio che chi parte con altri approcci possa vedere nel reverse engineering e nei test tecnici la sua evoluzione come SEO.

    Individuare un approccio universale e valevole per chiunque, sostenendo che solo quello sia SEO e che non contempla espansioni che non riguardino elementi meramente tecnici, è una procedura che mi sta stretta, mi limita e mi induce a sottolineare che la morte come bruco che tu decreti per il mio attuale approccio al SEO gli altri potrebbero pure chiamarla [url=http://www.internetbookshop.it/ser/serdsp.asp?shop=1&c=NMWQRKA21IBNI]farfalla.


  • User Attivo

    E' scesa la febbre continuo.

    "La maggior parte dei webmaster e dei SEO percepisce il SandBox .. immergendo il server a Lourdes."

    Io una cosa su cui mi sono sempre trovato in disaccordo con tutti quelli che leggo è il sandbox.
    Poniamo l'ipotesi che G abbia 10 algoritmi che fanno funzionare il ranking di una pagina\sito.

    Mettiamo che almeno 3 di questi algoritmi riguardino i "fattori esterni", tipo anzianità, link spontanei e tempi di navigazione degli utenti sul dato sito.
    A me sembra ovvio che un sito non si debba posizionare entro poco tempo, a meno che non trovi il modo per fregare G ovviamente.

    Magari il sito in questione ha su 7 filtri un punteggio positivo tipo:
    Contenuti: +100
    Struttura: +20
    Codice: +35
    Bababa: +45

    Magari però ha:
    Anzianità: -100000

    e quindi sta fermo qualche mese.

    Ho ragione ? Ho torto ? Bho, forse, nessuno può saperlo.
    Però il discorso funziona: l'insieme di algoritmi non mi dà abbastanza punti per salire in 2 settimane, ci vogliono x mesi.

    Ok questa sul sandbox non c'entrava niente.


    "Però, SandBox a parte, è importante capire se l'ennesimo stravolgimento nelle SERP è frutto di un filtro o di un normale fattore di ranking. Perché se si tratta di un malus bisogna chiedersi "cosa ho fatto per beccarmelo?" mentre se si tratta di un bonus bisogna chiedersi "cosa hanno fatto gli altri siti per meritarselo?".

    Ricollegandomi al discorso di prima:
    io sono un WM, faccio il sito perfetto e G mi premia. Poi mi penalizza e mi butta giù ovunque, anche se il sito è stato studiato alla perfezione per gli utenti.
    Allora che faccio ? Penso "era meglio fare il SEO" ?

    Per il resto quoto in pieno il concetto, sono d'accordissimo con te.

    "Io ne prendo atto ma dico, non conta cio' che e' ma cio' che dovrebbe essere."

    Allora sarai sempre come Alekhine, insoddisfatto di non poter buttar fuori il meglio di te stesso.
    Perchè dico questo ?
    Semplice, perchè così ragionando sarai sempre un passo avanti ai motori di ricerca (dal punto di vista teorico).

    Poi che al momento G non usi del tutto la logica rispetto al pensiero che hai sviluppato è normale, ci arriva piano piano, perchè tu lo anticipi.
    Quando metterà il filtro per vedere se c'è un indirizzo per i contatti tu già t e lo aspettavi e sarai a pensare al prossimo filtro che illogicamente G non ha ancora implementato.

    Prendi di esempio il redirect: perchè ancora non sega in tronco le pagine con redirect ? E' illogico, giustamente.
    Allora tu dici A dovrebbe essere B per logica, ma al momento A è A anche se A dovrebbe essere B.

    Bhe dai, come ci arrivi tu ci arriva anche il team di G, quando reputerà il momento giusto per segare i redirect A diventerà B, tu lo sapevi, ti eri attrezzato e ne vivrai di rendita, soddisfatto di aver previsto e anticipato G, insoddisfatto perchè G è illogico.

    Morale più o meno alla fine succederà questo:
    "Alekhine è comunque arrivato a pensare quella mirabile soluzione, e nel regno del pensiero questo dovrebbe bastare per dimostrare a sé stessi le proprie capacità. Che tali capacità non siano state dimostrate ad altri, io lo trovo insignificante."

    Unica differenza è che forse nel tuo caso a pochi fortunati avrai dimostrato le tue capacità, ma chissenefrega ai fini del thread ?

    "cercando di non influenzare i colleghi su aspetti teorici che potrebbero essere poco utili o peggio dannosi. "

    E questo chi l'ha detto ? Poco utili oggi, ma fra 6-8-12 mesi ?


    Ritorniamo al discorso di base va..

    "Ho pensato all'indirizzo email, riportato possibilmente in home, o al link ad un form per scrivere al wm. Se un sito non riporta al suo interno un indirizzo email che sia di riferimento per gli utenti che vogliono scrivere al wm del sito, o non linca un form che permette di comunicare con il wm per lamentele, suggerimenti e quanto altro... quanto puo' essere considerato serio quel sito da un motore?? "

    Dunque andiamo per gradi: il tuo discorso funziona e non funziona a mio parere da un punto di vista teorico.

    Se fossi in G ragionerei così:

    • catalogo varie tipologie di siti e vedo se statisticamente hanno o meno un modulo per i contatti o un indirizzo e-mail
    • catalogo il tuo sito per vedere a che tipologia appartiene
    • verifico se il tuo sito deve o meno avere un modulo contatti o simili
    • agisco di conseguenza

    Questo discorso si può estendere a qualsiasi cosa, qualsiasi cosa che noi ignoriamo completamente.
    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    Per esempio se da domani tutti i siti di news mettessero un redirect cosa succederebbe ? Tutti bannati ? Oppure diventerebbe uno standard che tutti i siti di news dovrebbero avere il redirect ?


  • User Attivo

    "Non avrebbe senso fare un passo che per me sarebbe involutivo, e tornare a basarmi solo sul reverse engineering. Il R.E. non è stato abbandonato, ma non mi è bastato più, ho sentito il bisogno di aggiungere altro al mio approccio con i motori. "

    Appunto, cerchi di spingerti oltre giusto ?
    Ma se il tuo lavoro si fosse fermato a fare un sito per i tuoi utenti, navigabile\usabile\gradevole\veloce bla bla non saresti mai diventato un SEO, anche se probabilmente avresti avuto dei risultati miracolosi nel posizionamento !


  • Super User

    @uMoR said:

    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    nel thread che ho linkato sopra, si parla di filtri bayesiani (o almeno, mi pare fosse quello il thread :sbonk: ). beh, io che non sono seo, non sono wm, ma vendo salami, ritengo sia abbastanza prevedibile che abbia anche filtri bayesiani.

    e quindi si, dovrebbe auto-imparare.

    ma questo solo secondo la mia personalissima logica 🙂


  • User Attivo

    Must, non se se sono filtri bayesani. Il fatto che si usi, per decidere che scelta fare un determinato sistema di valutazione-analisi, non comporta che poi il tutto debba prendere il nome del sistema di valutazione.

    E' un abuso, una forzatura. Conta come si ragiona a posteriori, non come si ottengano ipotetici dati per effetture quella valutazione.

    Se uso il teorema A che e' cannato, ed in base a questo faccio delle scelte ovviamente toppo. Se uso il teorema B, che funziona ad hoc, ed in base a questo faccio delle scelte ovviamente l'azzecco. Ma cosa conta e' la scelta a posteriori. Infatti se la mia scelta e' sbagliata, cha a priori ragioni sui dati dati da A o da B, poco conta.

    Inoltre un conto e' dire che questo tipo di sistemi basati su bayes si auto-adattino, si auto varino, un conto che auto imparino.

    Non imparano un tubo di nulla, a meno che non usino sistemi di intelligenza artificiale. In questo caso conta il sistema di ai e non i teoremi che l'ai usa per prendere le decisioni.

    Sono piccolezze, ma sono importanti. Per noi bot, spider, tutto lo stesso. Tanto sappiamo che chi legge capisce.

    Ma uno spider e' uno stupido programmino che passa ed archivia informazioni. Un bot e' un robot che usa parte del suo software (lo spider) per raccogliere informazioni e poi grazie alla sua parte di ai decide cosa fare di quelle informazioni. C'e' un abisso.

    Per non creare confusione parlerei generalmente di filtri dinamici. Filtri dinamici e spesso evoluti.


    Ma a parte tutta questa fuffa, per me, quanto si domanda uMor e quanto tu ipotizzi dicendo che e' prevedibile, e' giusto.

    I motori usano filtri dinamici, cosi' come li stanno implementando alcuni wm.


    uMoR scrive:

    "A me sembra ovvio che un sito non si debba posizionare entro poco tempo, a meno che non trovi il modo per fregare G ovviamente."

    Aggiungo, o che in futuro abbia i soldi per pagarsi la pubblicita'.

    "Perché se si tratta di un malus bisogna chiedersi "cosa ho fatto per beccarmelo?" mentre se si tratta di un bonus bisogna chiedersi "cosa hanno fatto gli altri siti per meritarselo?". "

    Parole sante.

    "Per esempio se da domani tutti i siti di news mettessero un redirect cosa succederebbe ? Tutti bannati ? Oppure diventerebbe uno standard che tutti i siti di news dovrebbero avere il redirect ?"

    Chiedilo al sistema di ai del motore che dovra' decidere in merito, certamente non a bayes.


  • Super User

    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    Questo approccio è stato confermato da un ingegnere di Google, riferendosi ad alcune tecniche anti spam.

    Ma è ragionevole pensare che il metodo sia generalizzabile.

    Ma se il tuo lavoro si fosse fermato a fare un sito per i tuoi utenti, navigabile\usabile\gradevole\veloce bla bla non saresti mai diventato un SEO, anche se probabilmente avresti avuto dei risultati miracolosi nel posizionamento !

    Io dicevo il contrario: se mi fossi fermato a fare reverse engineering, test, analisi e se avessi continuato a analizzare tutto dal lato di chi i motori di ricerca li programma, infondendo nei siti le caratteristiche individuate con le mie analisi, sarei potuto diventare solo un SEO "tecnico" senza comprendere le potenzialità del "posizionamento indiretto", che si basa sulla capacità del sito di interessare gli utenti.

    Tenuto conto che la stragrande maggioranza dei siti realizzati dai SEO da me osservati non risparmia tecniche e trucchi ma non accenna minimamente a sfruttare il "posizionamento indiretto" ottimizzando le caratteristiche del sito che possono condurre a posizioni migliori sui motori, ne deduco che la mia frase "Se un sito possiede caratteristiche utili agli utenti, viene valutato di più." non deve essere tanto banale e scontata come tu ritieni, altrimenti i SEO si darebbero da fare anche per ottimizzare questo elemento finora sottovalutato o addirittura ignorato e che a mio parere rientra pienamente tra i fattori che il SEO dovrebbe prendere in considerazione.


  • User Attivo

    LowLevel credo di aver capito il senso.

    Tu dici, un seo normalmente cerca di capire cosa predilige un motore e in base a quanto sa ottimizza un sito di conseguenza.

    Tuttavia il seo difficilmente capisce, prende atto, sa, che un sito ben sviluppato lato utente aiuta anche nel posizionamento sui motori, pertanto quel seo lavora solo lato motore e tralascia le ottimizzazioni lato utente, credendo (illudendosi) che quelle ottimizzazioni lato utente invece non siano utlissime anche lato motore (anche se apparentemente potrebbero sembrare 2 cose distinte).

    Cavolo, questa tua analisi apre nuove prosettive, non solo, nuove opportunita' di lavoro.

    Come dire, prima c'era un seo generico che conosceva i motori ed adattava i siti in base agli algoritmi base dei motori.

    Ma oggi gli algoritmi dei motori si sono evoluti e questo non basta piu'.

    Ci vuole un seo che migliori un sito in base alle classiche teorie di posizionamento.

    Ci vuole un "seo" che si occupi di marketing, in modo che aiutando l'utente si salga anche nei motori di riflesso.

    Ci vuole un "seo" che si occupi di grafica, in modo che gratificando l'utente si salga anche nei motori di riflesso.

    Ci vuole un "seo" che si occupi di banda, server, tempi di visualizzazione, in modo che svelocizzando il tutto all'utente si salga anche nei motori di riflesso.


    Questo ragionamento e' troppo importante per liquidarlo in 2 parole.

    Potrei discutere su cosa normalmente si intende per seo, ma non avrebbe motivo perche' per me il senso di cosa affermi ha troppa valenza rispetto banali disquisizioni lessicali.


  • Super User

    agoago, hai capito correttamente.

    Ovviamente non sostengo che un SEO debba fare anche il grafico, ma solo che debba interessarsi di più aspetti possibili di un sito web ed essere in grado, se necessario, di consigliare anche il grafico su alcuni elementi che possono influire sul posizionamento.

    Andiamo sul pratico con un esempio che calza a pennello: la gara di immagini organizzata su questo forum.

    Il formato JPEG può includere meta-informazioni. Queste meta informazioni sono utili agli utenti perché diversi software per la visualizzazione, catalogazione o indicizzazione delle immagini tengono conto di tali informazioni nei file JPEG e le sfruttano per facilitare le ricerche o le catalogazioni dell'utente.

    Adesso, io desidero rendere la vita dell'utente più facile e ritengo che includere le meta informazioni in alcune immagini dei siti che produco sia anche una dimostrazione di qualità del servizio chew offro. La maggior parte degli utenti non si renderà mai conto dell'esistenza di quelle informazioni, ma altri ne potranno beneficiare, magari indirettamente.

    Nota ora questi due diversi punti di vista:

    • Il SEO "allargato" compie questa azione perché è convinto di aumentare la qualità del proprio servizio nei confronti dell'utente.

    • Il SEO "tecnico" compie questa azione perché ha fatto dei test ed ha scoperto che i motori di ricerca usano le meta informazioni nei file JPEG per capire meglio il tema dell'immagine e persino quello della pagina sulla quale l'immagine è pubblicata.

    Chi ha ragione? Tutti e due. Non importa il motivo per il quale lo si fa, ma è il caso di farlo. E se lo si fa grazie ad una doppia consapevolezza, tanto meglio.

    Ma ecco il bello: come avrebbe potuto il primo SEO migliorare la qualità o il secondo SEO tematizzare meglio immagini e pagina, se nessuno dei due avesse saputo che i file JPEG possono contenere meta informazioni?

    E come si fa ad apprendere che i file JPEG possono contenere meta informazioni se ci si limita a fare i SEO con quelle quattro putt***** di keyword e link e non si amplia il proprio raggio di interesse ed intervento?

    Sai quante delle immagini JPEG che stanno partecipando al concorso hanno al loro interno meta informazioni? Nessuna di quelle che ho osservato.

    E questo è solo un esempio, ma è indubbio che considero parte lavoro del SEO anche il web writing e occuparsi di alcuni aspetti sulla corretta configurazione dei server.


  • User Attivo

    Ok, tu come definiresti-chiameresti questa nuova figura di "super-seo"?

    Perche' se si capisce veramente il senso di cosa spieghi allora diventa difficile concigliare questa figura di "nuovo seo" con il classico concetto che ci siamo fatti-dati nel definere il buon vecchio ottimizzatore esperto di motori.

    Credo sia importante, per non fare confusione nelle future discussioni, per rendere chiara l'idea, il concetto, sintetizzando il tutto con un termine che lo definisca in modo inequivocabile.

    Viceversa ci sara' sempre qualcuno che giocando sul vecchio acronimo di seo suddividera' questa nuova figura_completa in tante sottocategorie, negando la stessa della sua globalita'.


  • Super User

    @agoago said:

    Ok, tu come definiresti-chiameresti questa nuova figura di "super-seo"?

    agoago, non so cosa rispondere perché dal mio punto di vista questa non è una nuova figura, tantomeno qualcosa di "super" o di "oltre". Io ho sempre fatto SEO occupandomi di tutti gli aspetti che potevano influenzare più o meno direttamente la visibilità di un sito nei risultati dei motori e credo che questo sia il SEO.

    Molti SEO si occupano della staticizzazione degli URL contenenti parametri usando il mod rewrite di Apache, ma questo non li rende dei sistemisti né delle figure che superano le competenze di un SEO. Semplicemente, fa parte del SEO anche quello.

    Tra le cose che ho sperimentato, c'è stato un modo per acquisire quantità smodate di link grazie ad alcuni contenuti originali e qualche e-mail, ma questo non fa di me un esperto in pubbliche relazioni o uno psicologo.

    Lo stesso vale per le immagini, per il web writing, per il link building, per la capacità di attrarre il click sulle SERP o di far aggiungere il sito ai bookmark del browser.


  • Super User

    Inoltre un conto e' dire che questo tipo di sistemi basati su bayes si auto-adattino, si auto varino, un conto che auto imparino.

    Non imparano un tubo di nulla, a meno che non usino sistemi di intelligenza artificiale. In questo caso conta il sistema di ai e non i teoremi che l'ai usa per prendere le decisioni.

    giusta correzione.

    dunque, per quanto riguarda quel discorso credo usino filtri bayesiani.
    l'AI se la tengono per analisi semantiche, secondo me.