• User Attivo

    LowLevel scrive:

    "Io non ho mai sposato la "cultura della penalizzazione" che i SEO attribuiscono a Google."

    Concordo, nel mio caso e' una piacevole lotta che mi vede il piu' delle volte perdente, ma riconosco che e' una mania tutta mia, ma nasce tutto dal fatto che non sono un seo e non ho mai ottimizzato nulla, non saprei dove partire, e' giusto ricordare a chi fa il seo quanto dici sopra.

    "Ad esclusione delle penalizzazioni antispam, i criteri utilizzati per il ranking si basano (e vale anche per gli altri motori) più su una "cultura della premiazione". Se un sito possiede caratteristiche utili agli utenti, viene valutato di più."

    Concordo, cio' che non uccide ingrassa!

    "A livello pratico la differenza tra i due approcci non è grande, perché è evidente che se tra i siti A, B e C solo quest'ultimo viene premiato, ciò che si otterrebbe corrisponderebbe più o meno alla svalutazione di A e B."

    Vero, su questo aspetto si potrebbe discutere a lungo, per esempio tra teoria e pratica, sul fatto che svalutando A e B non necessariamente si premia C, ma se dovessi riassumere il concetto base in 3 righe ti quoterei in pieno.

    "A livello concettuale invece la cosa è estremamente importante, perché l'intera visione penalty-centrica nasce principalmente dal rapporto di soggezione dei SEO nei confronti di Google."

    Si, con un'aggiunta. Nasce principalmente dal rapporto di soggezione dei SEO nei confronti di Google ma poi a volte prosegue per altre strade, casi rarissimi, vero, ma significativi. Ci si distacca dalla realta' del quotidiano per concentrarsi sull'ipotetico. Chi vi si addentra, ragiona in termini di metaweb, di versonalita'.

    "Questo è normale e naturale, vista la natura stessa del mestiere dei SEO, tuttavia andrebbe evitato, non solo perché le cose possono essere fatte in modo che non ci sia nulla da temere, ma sopratutto perché sviluppare una visione penalty-centrica induce il SEO a porsi le domande fuorvianti quando succede qualcosa di anomalo."

    Come direbbe il buon vecchio Tex, parole sante. Mi rendo conto di confondere e danneggiare molti seo con certi post, ma non so dove scrivere, non lo dico tanto per dire, so che hai straragione, mi faccio delle paranoie pubbliche sugli algoritmi del ban fregandomene se queste possano condizionare chi legge spingendoli verso la visione penalty-centrica. Dico fregandomene perche' so che e' come dici, l'ho sempre saputo, ma la paranoia porta a certi egoismi che neanche ti immagini. Per me distrarre 100 seo dalle cose importanti per indurli a discutere di un ipotetico e banale algoritmo di ban e' diventato cosi' ossessivo che "non mi pongo il problema" se poi quei 100 wm si incasinano la vita per seguire certe manie. Devo avere un loro giudizio sul quale ragionare, un qualcosa che mi dia un nuovo spunto, cosi' da alimentare le mie ossesioni. Per questo ogni volta che posso cerco di essere di aiuto, non e' gentilezza, e' rimorso di coscienza.

    "Premesso tutto ciò, sono convinto che il sito di un'azienda dovrebbe permettere ai propri visitatori di contattare la ditta in qualche modo (e-mail o form) e dovrebbe fornire anche l'indirizzo postale, un indirizzo e-mail per i reclami, l'indicazione di eventuali appartenenze ad associazioni di categoria, e così via."

    Anche tu pizza ai peperoni? Scherzo, mi confermi che l'email o simili potrebbe avere un senso per i motori...

    "E' possibile che un motore di ricerca valuti il sito più di altri in cui quelle informazioni non appaiono ed è altrettanto possibile che questa valutazione venga fatto solo su alcuni tipi di siti, ad esempio quelli commerciali, ma non su altri."

    Si, sono convinto che intendevi scrivere che forse un motore valuta di piu' quei siti che riportano certe informazioni utili, e non chi le nasconde. Parto da questo comune presupposto per portare la discussione su una aspetto ben piu' importante.

    Quando un aspetto, un fattore, di un sito deve essere interpretato da un motore al fine di premiare, e quando al fine di penalizzare?

    Il caso in discussione e' un ottimo esempio. Se un sito non permette ad un utente di contattare facilmente il wm di quel sito, dovro' valutare quella situazione dal lato ban o dal lato miglioria?

    Cosa c'e' di piu' prioritario per un seo se non capire innanzitutto il concetto base, teorico, che regola cio' che puo' premiare rispetto cosa puo' penalizzare?

    Pensateci, ogni volta che un motore deve implementare un nuovo algoritmo si chiede: lo usero' per penalizzare o per premiare??

    Ha 3 scelte, penalizza, premia, ibrido... per dire, in questo ultimo caso, un range che andra' da -100 a +100 o -10 +50 o -80 +10... ecc

    Chiedete ad uno scacchista qualsiasi 3 nomi che secondo lui, abbiano rappresentato nella sua lunga storia, questo splendido gioco. Vedrete che spesso sentirete citare Kotov. Il Kotov.

    Kotov non fu un genio assoluto sulla scacchiera, ma scrisse 3 volumi, passati alla storia.

    In questi suoi 3 famosi tomi non scrisse niente di trascendentale, ma e' l'idea stessa alla base che fece la differenza. Non c'e' maestro che non li abbia studuati. Un percorso obbligato.

    Si chiamano pensa, gioca, allenati come un grande maestro.

    Certo, la realta' spesso poco ha a che vedere con la teoria, ma Kotov anticipa tutti e scriveva nel suo libro dedicato a Alekhine:

    **Dopo una partita contro il Maestro Book, Alekhine si lamentava di non aver potuto eseguire una meravigliosa combinazione, poiche' il suo avversario non aveva giocato nella maniera migliore! **


  • Super User

    @agoago said:

    Anche tu pizza ai peperoni?

    Sì, ed anche molta.

    La teoria non sempre ha un'applicazione nella realtà, ma permette di costruire una forma mentis molto tecnica, indispensabile per analizzare varie situazioni.

    Questa forma mentis è ciò che, di fronte all'ennesimo stravolgimento delle SERP di Google, consente di escludere "analisi" del tipo "l'ha fatto per vendere più AdWords", che rimane una buona risposta di stomaco ma non di intelletto.

    Una volta che si riesce ad entrare nella logica degli ingegneri di un motore di ricerca, cosa che noto anche tu riesci a fare molto bene, la strada è un po' meno in salita. Non solo si riesce a trovare una spiegazione a ciò che succede ma è possibile anche prevedere la strada che i motori prenderanno in futuro.

    Per fare un esempio, non basare la propria link popularity esclusivamente sui link scambiati è un consiglio che il sottoscritto dà da anni, nonostante solo recentemente siano nati dubbi su possibili penalizzazioni. Ma era evidente sin da allora che il carosello dello scambio link non fornisce ai motori una indicazione veritiera sulla reale popolarità dei siti web.

    Quando un aspetto, un fattore, di un sito deve essere interpretato da un motore al fine di premiare, e quando al fine di penalizzare?

    Dal punto di vista tecnico, a volte la differenza tra queste due cose non esiste e a volte è invece consistente.

    Non esiste nel caso in cui si parla di un parametro che assume un valore più alto o più basso a seconda della presenza di certi elementi. Se l'intervallo di tale valore è tra zero ed 1, le pagine a cui verrà attribuito zero non sono penalizzate, ma possiedono semplicemente lo zero percento di quella caratteristica. Le pagine che mostrano un valore 0,2 sono messe meglio (a parità di altri elementi) rispetto a quelle che mostrano il valore 0,1 e peggio di quelle che mostrano 0,3. Ma non si può parlare di penalizzazione, nonostante sia evidente che le pagine a cui sono stati assegnati valori più alti hanno un vantaggio rispetto alle pagine alle quali è stato assegnato un valore più basso.

    E' consistente nel caso in cui l'algoritmo sia stato progettato per funzionare esplicitamente come un filtro: colpire pagine che mostrano caratteristiche specifiche e ignorare tutte le altre. Qui non siamo in presenza di un valore più o meno alto che viene attribuito ad ogni pagina bensì di fronte ad una selezione mirata.

    Si noti come persino un fenomeno come il SandBox può appartenere all'una o all'altra categoria. Ovvero potrebbe trattarsi del normale effetto di un parametro di ranking calcolato su certe caratteristiche delle pagine oppure di un filtro per penalizzare caratteristiche specifiche.

    La maggior parte dei webmaster e dei SEO percepisce il SandBox come un filtro o comunque come una penalizzazione, ma dal punto di vista informatico non è detto che lo sia.

    La differenza, ripeto, è concettuale, non pratica. Perché a prescindere dalla ragione sta di fatto che le pagine non si posizionano nemmeno immergendo il server a Lourdes.

    Però, SandBox a parte, è importante capire se l'ennesimo stravolgimento nelle SERP è frutto di un filtro o di un normale fattore di ranking. Perché se si tratta di un malus bisogna chiedersi "cosa ho fatto per beccarmelo?" mentre se si tratta di un bonus bisogna chiedersi "cosa hanno fatto gli altri siti per meritarselo?".

    Se un sito non permette ad un utente di contattare facilmente il wm di quel sito, dovro' valutare quella situazione dal lato ban o dal lato miglioria?

    Questo è uno di quei casi in cui sarebbe più logico utilizzare il metodo del bonus, non del malus.

    Stanotte non si dorme perché tra qualche ora consegno un sito intranet per la P.A. (hanno indetto pure una conferenza stampa) e voglio che tutti i bit e i pixel siano al loro posto. Dopo intasco i soldi, aggiorno per un po' di giorni il newsblog (che ultimamente ho dovuto mettere da parte) e decido dove andare in vacanza. :yuppi:


  • User Attivo

    LowLevel ci capiamo. Non avevo dubbi.

    Su una cosa pero' non prendi posizione:

    Dopo una partita contro il Maestro Book, Alekhine si lamentava di non aver potuto eseguire una meravigliosa combinazione, poiche' il suo avversario non aveva giocato nella maniera migliore!

    Se teorizzo una cosa del tutto logica, ma il motore poi non segue questa mia logica, a mio avviso il motore sbaglia... ma chi segue il motore avra' apparentemente ragione, gli altri no, io no. Se mi confronto con un wm che segue pedissequamente cosa fa un motore, come ragiona un motore, ovvio che l'avra' vinta lui. Sara' sopra di me nelle serp.

    Ma questo non significa nulla.

    Dici:

    "La differenza, ripeto, è concettuale, non pratica. Perché a prescindere dalla ragione sta di fatto che le pagine non si posizionano nemmeno immergendo il server a Lourdes."

    Ma porca la pupattola, un conto e' affermare cio che e', un conto cio che dovrebbe essere. Se oggi il cielo e' blu nessuno puo' negare che sia blu, ma io dico, oggi il cielo dovrebbe o potrebbe essere azzurro.

    Per me la teoria vale piu' della realta'. E su questo aspetto che si diverge. Tu dici oggi A e' A, io A dovrebbe o potrebbe essere B.

    Riassumendo, hai ragione da vendere, perche' sei come uno storico, osservi e descrivi la realta'.

    Io ne prendo atto ma dico, non conta cio' che e' ma cio' che dovrebbe essere.


  • User Attivo

    Ok. Sono ot, chiedo scusa, davvero. Ma non resisto. Portate pazienza. Rileggevo questo passo:

    "Alekhine si lamentava di non aver potuto eseguire una meravigliosa combinazione, poiche' il suo avversario non aveva giocato nella maniera migliore"

    Lasciamo stare i motori, i seo, le teorie e la pratica. Sono ot, l'ho detto.

    Kotov scrive, ci riporta che Alekhine si lamentava: "di non aver potuto eseguire una meravigliosa combinazione",

    Ora, chi non conoscesse Alekhine si immagini un uomo al di fuori del normale. Un genio assoluto.

    Ci sono stati pochi geni, riconosciuti come tali, nella storia dell'umanita'.

    Allora l'informatica non esisteva ma informatica e scacchi sono figli della stessa scuola di pensiero.

    Chi mi conosce tramite forum sa della smisurata ammirazione che provo per Phillip Katz. Leggete la sua bibliografia. Come e' vissuto, cosa ha fatto, come e' morto. Ne prendo esempio, e indefferentemente da chi sono-siamo mi sento piccolo piccolo al confronto.

    Poi documentatevi su Alexander Alekhine, nato credo un 50 anni prima. Un genio tale che Kotov, il Kotov, gli dedica parte del suo tempo.

    Documentatevi su cosa ha fatto, come pensava, come e' morto.

    Non credo nelle coincidenze, ma questi casi mi danno da pensare.


    A mio avviso il gioco degli scacchi e' stato l'anticamera del pensiero informatico. Non ho dubbi in merito.

    Troppe similitudini, troppe coincidenze.
    Perdeteci un'oretta, non ve ne pentirete.


  • User Attivo

    Ot per ot mi lancio, al diavolo le conseguenze.

    Avete letto "Ricambi" di Marshall Smith Michael? Meraviglioso.
    Con i motori c'entra poco ma lui scrive come pochi, una goduria nel leggerlo.

    Chi non ha letto Ricambi si e' perso qualcosa di bello.

    Roba da "masturbazione". Cosa c'entra Ricambi con i motori?? Assimilatene la parte della versonalita' e poi godete del resto.

    Fighissimo. Se qualcuno di voi lo trova "inutile" che mi insulti pure senza pieta'.

    La teoria dei 20 gradi per la suddivisione della torta vale di per se un campiello.

    Bello, bello e poi ancora bello. Per me, Marshall Smith, con questo libro, rappresenta la dimostrazione vivente che si puo' andare oltre. I motori per quanto geniali hanno ancora qualcosa da cui prendere spunto.

    Perdonatemi l'ot, ma so quel che scrivo.


    Qualcuno ha paragonato Marshall a Dick.

    Paragonare qualcuno a Dick e' pura follia, non e' concepibile. Non e' considerabile, non deve essere pensabile.

    Ho letto tutti gli scritti pubblici di Dick, li leggi e ti senti una merda, come si suol dire ti senti inutile. Li leggi e capisci la differenza tra chi lasciera' un qualcosa e chi non vale nulla, sono un nulla io che li leggo. Capisci che non siamo tutti uguali, c'e' il genio e c'e' la normalita', la massa.

    Leggendolo capisci che non fai parte del genio. Lui e'-era Dick, io, tu siamo poveri tapini che non lasceranno traccia, al massimo un paio di figli, roba da tutti i giorni.

    Allora vai a fondo, ti informi come sono morti e vissuti Dick, Kotov, Katz e molti altri geni.

    La candela che fa il doppio della luce si consuma nella meta' del tempo.


    Amici, colleghi, lettori casuali, ecc ecc, che senso ci fa, capire, accettare che non siamo nulla? Che non valiamo nulla? Inutili tra gli inutili.

    Neanche la soddisfazione di creare il ponte sul fiume Kway.


  • Super User

    ...com'e' che si scrive...ah;.. chapeau, per entrambi! :mani:

    Neanche la soddisfazione di creare il ponte sul fiume Kway.
    Non e' proprio sul fiume Kway, ma un ponticello qui lo stiamo creando, finite le pizze potresti darci una mano 😄

    :ciaosai:


  • Super User

    su webmasterworld c'era un thread sui "segnali di qualita'". dopo un po' ho trovato il link: [url=http://www.webmasterworld.com/forum30/30813.htm]eccolo.

    il thread inizia con una serie di indici di qualita' tecnici (velocita' del server, ip unico, host fidato etc etc)

    c'e' pero', nel thread, un post che considero ancora piu' interessante, in cui si fa un elenco di elementi che un sito commerciale dovrebbe avere.

    mi piace chiamare questa lista "segnali di affidabilita'".
    vediamo quali potrebbero essere questi segnali:

    • email / contact us
    • numero di telefono
    • about us
    • partita iva
    • dove siamo
    • informativa sulla privacy
    • il © con la data
    • un marchio registrato
    • condizioni d'uso

    etc etc etc.

    Low ha detto

    sono convinto che il sito di un'azienda dovrebbe permettere ai propri visitatori di contattare la ditta in qualche modo (e-mail o form) e dovrebbe fornire anche l'indirizzo postale, un indirizzo e-mail per i reclami, l'indicazione di eventuali appartenenze ad associazioni di categoria, e così via.

    E' possibile che un motore di ricerca valuti il sito più di altri in cui quelle informazioni non appaiono ed è altrettanto possibile che questa valutazione venga fatto solo su alcuni tipi di siti, ad esempio quelli commerciali, ma non su altri.

    mi sembra proprio che ci siamo.

    mi pare che la maggior parte dei SEO faccia questo errore (hey, lo chiamo io errore, non significa che lo e' per forza): guardare al sito da un punto di vista tecnico, con l'occhio di uno spider. si, ok, bisogna seguire i tanti buoni consigli su come creare le pagine e il sito intero (BL, sitemap, <h1> blablabla). ma poi basta. ci si ferma a questo, e casomai si cercano altri metodi tecnici per migliorare il proprio ranking.
    io credo invece che ad un certo punto, dopo aver fatto un'ottimizzazione di base nella struttura, si debba guardare al sito con l'occhio umano, invece che con quello di uno spider.

    e allora, se io devo andare a comprare un libro online, cosa guardo? che domande mi pongo?

    io queste:
    chi e' il venditore?
    posso contattarlo?
    dove si trova?
    tutela la mia privacy?
    ci sono le condizioni d'uso?
    come posso pagare?
    il login e' su SSL?
    la reputazione del sito e' positiva?

    se le risposte sono positive, il sito puo' essere considerato affidabile. l'utente puo' quindi premiarlo. i motori pure.

    p.s. mi rendo conto che mi sono limitato ad una categoria di siti web (leggi: commerciali), ma mi pare che ci sia tanta di quella carne al fuoco in questo thread che possiamo cucinarla tutta, un po' per volta.


  • User Attivo

    I miei complimenti ad entrambi, raramente (forse mai) ho letto un 3d così entusiasmante!

    Complimenti ragazzi! Continuate così, siete fantastici.

    Mi piace molto il pensiero di Agoago, lui non si limita ad osservare e valutare, lui cerca di andare oltre, di prevedere, di immaginare come sarebbe e come sarà.

    Sono daccordo anche con tutto quello che ha detto Low tranne quando dice:

    " A livello pratico la differenza tra i due approcci non è grande, perché è evidente che se tra i siti A, B e C solo quest'ultimo viene premiato, ciò che si otterrebbe corrisponderebbe più o meno alla svalutazione di A e B. "

    La penalizzazione esiste comunque, a volte cercando un sito per esempio scrivendo "giorgiotave.it " su google il sito non compare o lo fa nelle ultime pagine, qui che vogliate o no non si parla di premiazione degli altri siti, bensì di penalizzazione di giorgiotave.it.


  • Super User

    Premesso che sono stanco come una bestia e che le mie capacità di comprensione sono al momento limitate, rispondo ad agoago circa la differenza tra ciò che è e ciò che dovrebbe essere, che dal mio punto di vista è relativa o addirittura irrilevante.

    Alekhine non aveva nulla da lamentarsi. Nella sua testa, il gioco che avrebbe potuto fare se l'avversario avesse giocato meglio non era meno reale di ciò che è effettivamente successo. Alekhine è comunque arrivato a pensare quella mirabile soluzione, e nel regno del pensiero questo dovrebbe bastare per dimostrare a sé stessi le proprie capacità. Che tali capacità non siano state dimostrate ad altri, io lo trovo insignificante. Nella foresta mentale di Alekhine è caduto un albero ed il rumore è stato udito solo da Alekhine stesso. E' sufficiente per considerare l'albero caduto, anche se non lo saprà mai nessun altro.

    La dimostrazione agli altri sarebbe servita solo ad alimentare il proprio ego e non avrebbe reso il gioco potenzialmente attuabile più reale di quello che realmente è stato.

    Questa considerazione ha a che fare (anche) col posizionamento, perché il mio approccio con i motori di ricerca tende a sminuire le differenze tra teoria e pratica.

    Molte delle cose che io penso ed ipotizzo non le divulgo nemmeno. Sono così tante che la loro quantità rischierebbe di ingolfare i forum e sviare gli utenti da obiettivi più concreti. Molti webmaster frequentano i forum SEO non solo per imparare, ma anche per occuparsi principalmente di quegli elementi che producono benefici di ranking per i propri siti web. Il resto, dal loro punto di vista, sono solo discussioni che lasciano il tempo che trovano.

    Un paio di mesi fa, ad esempio, ho voluto mettere alla prova una delle mie teorie.

    Io sono convinto che i motori di ricerca avrebbero un vantaggio a monitorare l'azione "aggiungi ai bookmark", che in teoria dovrebbe corrispondere all'individuazione di una risorsa di utilità.

    Questa teoria è coerente con ciò che i motori desiderano: ottenere informazioni significative su ciò che gli utenti preferiscono, e l'azione "aggiungi ai bookmark" possiede una valenza altissima, in questo contesto.

    Di contro, la pratica mi ha spinto ad usare un packet sniffer per vedere se la toolbar di Google spediva pacchetti al server del motore quando aggiungevo un sito ai bookmark: non ho osservato alcuna spedizione di pacchetti verso Google.

    Adesso, il punto è che la teoria rimane coerente con quello che i motori vorrebbero e non viene sminuita affatto dalla pratica.

    La volontà di provare la teoria è solo un retaggio della mia mentalità analitica, ma non avrei affatto bisogno di provarla o di confutarla per comprendere se si basa su elementi logici o se è completamente campata in aria.

    Può darsi che Google non abbia ancora trovato il modo di monitorare le azioni "aggiungi ai bookmark", può darsi che lui non voglia farlo ma che altri motori invece lo fanno [chi prova con la toolbar di Yahoo?], può darsi che io non abbia monitorato i pacchetti con sufficiente attenzione.

    Beh, tutto ciò è irrilevante, perché vi è comunque un enorme vantaggio a ritenere reale questo presunto monitoraggio a prescindere da quanto venga realmente attuato dai motori e tale vantaggio consiste nel fatto di essere indotto a realizzare i siti web in modo che gli utenti si sentano spinti ad inserirli nei propri bookmark. E non per un ipotetico vantaggio nelle posizioni, ma perché un bookmark equivale ad un utente che torna e ad un'attestazione di interesse nei confronti del sito web.

    Si può andare anche oltre affermando che non desidero che l'utente inserisca il mio sito tra i propri bookmark incentivato da un esplicito link "Aggiungi ai preferiti", ma voglio che lo faccia di propria spontanea iniziativa. Se gli utenti inseriscono il mio sito nei bookmark senza alcun incentivo, allora quell'inserimento vale, dal mio punto di vista, di più.

    Questo ha influenza sulle posizioni nei motori di ricerca? Non so, ma il punto è che non importa. Io faccio il massimo per me stesso, per il mio sito e per i miei utenti. Se poi i motori di ricerca hanno modo e volontà di analizzare anche il fattore bookmark, tanto meglio.

    Quando ho iniziato ad occuparmi di posizionamento vedevo tutto sotto l'ottica dell'informatico. Facevo un mucchio di test e di reverse engineering per individuare quali elementi venivano premiati di più dai motori. Ma il tempo passa, i motori cambiano, e sono cambiato anche io.

    Ho scoperto che sta diventando sempre meno rilevante individuare con precisione gli elementi premiati o penalizzati, e che i risultati migliori li ottengo realizzando i siti come se i motori fossero in grado di analizzare tutto. Questo vale per tutti i tipi di siti: da quello della ditta di autotrasporti a quello che vende gruppi elettrogeni, a quello della bottega rionale.

    Quando leggo sui forum "ma cosa ci vuoi mettere in un sito del genere se non le 4 pagine canoniche? O vai di doorway o non riesci a posizionarlo", mi viene da piangere/ridere, a seconda del momento.


  • User Attivo

    E per fortuna che eri stanco... 🙂

    Condivido il tuo pensiero, dici, come wm faccio al meglio i siti, come seo parto dal presupposto che ogni cosa giusta e logica vada applicata sul sito, sia che i motori la analizzino o meno. Prendi atto di cio' che "e'", discuti su quello, cercando di non influenzare i colleghi su aspetti teorici che potrebbero essere poco utili o peggio dannosi.

    Infatti, ripeto, e' un mio errore, tu hai ragione, e non perche' la ragione si da ai fessi, ma perche' hai ragione e basta.

    Per quanto riguarda invece Alekhine, hai centrato il problema. Scrivi:

    "Nella foresta mentale di Alekhine è caduto un albero ed il rumore è stato udito solo da Alekhine stesso. E' sufficiente per considerare l'albero caduto, anche se non lo saprà mai nessun altro."

    Proprio su questo aspetto sposo una teoria diversa, riconoscendo che quanto sopra' e' logico e giusto. Questa mia filosofia e' distorta, e crea delle distorsioni logiche. Non sono in grado di spiegarla, ma se qualcuno avesse il piacere di leggersi "Ricambi" di Marshall troverebbe verso il fondo del libro una parte dedicata a questa balzana idea. L'albero caduto, della e nella foresta mentale crea una foresta di orrori e distorsioni, il Gap, cosi' come lo definisce Marshall. Certo, e' per gente che con la testa non ci sta del tutto, ma se prima ci si fa un paio di birette...


  • User Attivo

    Parto al contrario:
    prima con una mia opinione su quel detto finora poi ritorno all'idea di partenza di agoago.

    "Se un sito possiede caratteristiche utili agli utenti, viene valutato di più."

    Grazie al ****o!
    Hai ragione però questo non è SEO se permetti. Ci sono persone che ho conosciuto di persona che hanno un mega-sito ultra bello per gli utenti, con migliaia di visitatori ecc ecc.
    Poi aggiungono una pagina, si posizionano primi e credono di essere dei SEO professionisti senza capirci una mazza di motori.

    Cosa voglio dire con questo ?
    Che il tuo discorso fila, è giustissimo, però c'è chi si spinge oltre e capisce il perchè e il percome.

    Hai presente i cracker ? Quelli che fanno i crack.
    Fanno reverse engineering per capire un algoritmo, per fare un generatore di seriali e poi lo distribuiscono e gli utenti aprono il programmino scaricato e hanno i loro amati softwarini-crackati-gratuiti.

    Ecco è paraganobile ai SEO e i WM.
    I seo studiano come funziona un motore, per diletto principalmente, i WM si adeguano alla moda e mettono il title in un certo modo a seconda di come tira al momento ecc ecc.

    "Quindi" tu starai pensando ?
    Il tuo discorso fila da WM, non da SEO a mio parere e te la cavi in maniera troppo facile.
    agoago invece è l'incarnazione del SEO vero e proprio che non dorme la notte per capire il perchè e il percome delle cose (non sto dicendo che tu non lo faccia, analizzo solo la tua frase).

    "A livello concettuale invece la cosa è estremamente importante, perché l'intera visione penalty-centrica .. bla bla bla .. anomalo. "

    Continuando il discorso mio di sopra:
    Allora i seo da cosa sono nati ? Secondo me dalla volontà di non dover fare le cose per me ma di copiare e incollare una key 10 volte per vedersi primi, per trovare una scorciatoia e così via (probabilmente il primo seo in assoluto è un italiano).
    Allora una visione penalty-centrica mi sembra naturale, per lo meno dal punto di vista di un motore di ricerca e forse è proprio quello che ti manda oltre i limiti di un test e ti aiuta a capire come funziona un motore di ricerca ?
    Forse è proprio quando succede qualcosa di anomalo che pensi "cazzarola forse han messo un nuovo algoritmo" ?
    Guarda mi è capitato di pormi domande fuorvianti, passare giorni e giorni a pensarci, non trovare la risposta, passare ad un'altro problema e dopo 3 mesi dire "pupazzona ladra ecco cos'era" e scoprire che dal punto di vista teorico avevo ragione.

    Quindi fare i SEO come detto sopra ha senso, anche se ti porti in casa un sacco di problemi. Fare i WM ha senso, fino a quando G premierà per i siti di qualità per gli utenti, ma poi quando premierà gli spam engine ?

    Ok non so cosa ho scritto ma l'ho scritto, spero si sia capito qualcosa.
    Mi è venuta la febbre, proseguo domani.


  • Super User

    Che il tuo discorso fila, è giustissimo, però c'è chi si spinge oltre e capisce il perchè e il percome.

    Questo è stato il mio percorso:

    1. Reverse engineering per identificare gli elementi premiati dai motori

    2. Ottimizzazione del sito in tutti i suoi aspetti, cosa che influisce anche nei risultati delle ricerche.

    Quindi, per quello che riguarda me, lo studio delle tecniche di reverse engineering non sono "l'oltre" ma sono state l'ABC, poi ho acquisito una concezione del problema più ampia di quella che deriva dal solo reverse engineering.

    Non avrebbe senso fare un passo che per me sarebbe involutivo, e tornare a basarmi solo sul reverse engineering. Il R.E. non è stato abbandonato, ma non mi è bastato più, ho sentito il bisogno di aggiungere altro al mio approccio con i motori.

    Questa ovviamente è solo l'esperienza del sottoscritto, che partendo da un approccio esclusivamente informatico è riuscito ad ampliare le proprie conoscenze sui motori solo osservando la problematica da altri punti di vista. E' ovvio che chi parte con altri approcci possa vedere nel reverse engineering e nei test tecnici la sua evoluzione come SEO.

    Individuare un approccio universale e valevole per chiunque, sostenendo che solo quello sia SEO e che non contempla espansioni che non riguardino elementi meramente tecnici, è una procedura che mi sta stretta, mi limita e mi induce a sottolineare che la morte come bruco che tu decreti per il mio attuale approccio al SEO gli altri potrebbero pure chiamarla [url=http://www.internetbookshop.it/ser/serdsp.asp?shop=1&c=NMWQRKA21IBNI]farfalla.


  • User Attivo

    E' scesa la febbre continuo.

    "La maggior parte dei webmaster e dei SEO percepisce il SandBox .. immergendo il server a Lourdes."

    Io una cosa su cui mi sono sempre trovato in disaccordo con tutti quelli che leggo è il sandbox.
    Poniamo l'ipotesi che G abbia 10 algoritmi che fanno funzionare il ranking di una pagina\sito.

    Mettiamo che almeno 3 di questi algoritmi riguardino i "fattori esterni", tipo anzianità, link spontanei e tempi di navigazione degli utenti sul dato sito.
    A me sembra ovvio che un sito non si debba posizionare entro poco tempo, a meno che non trovi il modo per fregare G ovviamente.

    Magari il sito in questione ha su 7 filtri un punteggio positivo tipo:
    Contenuti: +100
    Struttura: +20
    Codice: +35
    Bababa: +45

    Magari però ha:
    Anzianità: -100000

    e quindi sta fermo qualche mese.

    Ho ragione ? Ho torto ? Bho, forse, nessuno può saperlo.
    Però il discorso funziona: l'insieme di algoritmi non mi dà abbastanza punti per salire in 2 settimane, ci vogliono x mesi.

    Ok questa sul sandbox non c'entrava niente.


    "Però, SandBox a parte, è importante capire se l'ennesimo stravolgimento nelle SERP è frutto di un filtro o di un normale fattore di ranking. Perché se si tratta di un malus bisogna chiedersi "cosa ho fatto per beccarmelo?" mentre se si tratta di un bonus bisogna chiedersi "cosa hanno fatto gli altri siti per meritarselo?".

    Ricollegandomi al discorso di prima:
    io sono un WM, faccio il sito perfetto e G mi premia. Poi mi penalizza e mi butta giù ovunque, anche se il sito è stato studiato alla perfezione per gli utenti.
    Allora che faccio ? Penso "era meglio fare il SEO" ?

    Per il resto quoto in pieno il concetto, sono d'accordissimo con te.

    "Io ne prendo atto ma dico, non conta cio' che e' ma cio' che dovrebbe essere."

    Allora sarai sempre come Alekhine, insoddisfatto di non poter buttar fuori il meglio di te stesso.
    Perchè dico questo ?
    Semplice, perchè così ragionando sarai sempre un passo avanti ai motori di ricerca (dal punto di vista teorico).

    Poi che al momento G non usi del tutto la logica rispetto al pensiero che hai sviluppato è normale, ci arriva piano piano, perchè tu lo anticipi.
    Quando metterà il filtro per vedere se c'è un indirizzo per i contatti tu già t e lo aspettavi e sarai a pensare al prossimo filtro che illogicamente G non ha ancora implementato.

    Prendi di esempio il redirect: perchè ancora non sega in tronco le pagine con redirect ? E' illogico, giustamente.
    Allora tu dici A dovrebbe essere B per logica, ma al momento A è A anche se A dovrebbe essere B.

    Bhe dai, come ci arrivi tu ci arriva anche il team di G, quando reputerà il momento giusto per segare i redirect A diventerà B, tu lo sapevi, ti eri attrezzato e ne vivrai di rendita, soddisfatto di aver previsto e anticipato G, insoddisfatto perchè G è illogico.

    Morale più o meno alla fine succederà questo:
    "Alekhine è comunque arrivato a pensare quella mirabile soluzione, e nel regno del pensiero questo dovrebbe bastare per dimostrare a sé stessi le proprie capacità. Che tali capacità non siano state dimostrate ad altri, io lo trovo insignificante."

    Unica differenza è che forse nel tuo caso a pochi fortunati avrai dimostrato le tue capacità, ma chissenefrega ai fini del thread ?

    "cercando di non influenzare i colleghi su aspetti teorici che potrebbero essere poco utili o peggio dannosi. "

    E questo chi l'ha detto ? Poco utili oggi, ma fra 6-8-12 mesi ?


    Ritorniamo al discorso di base va..

    "Ho pensato all'indirizzo email, riportato possibilmente in home, o al link ad un form per scrivere al wm. Se un sito non riporta al suo interno un indirizzo email che sia di riferimento per gli utenti che vogliono scrivere al wm del sito, o non linca un form che permette di comunicare con il wm per lamentele, suggerimenti e quanto altro... quanto puo' essere considerato serio quel sito da un motore?? "

    Dunque andiamo per gradi: il tuo discorso funziona e non funziona a mio parere da un punto di vista teorico.

    Se fossi in G ragionerei così:

    • catalogo varie tipologie di siti e vedo se statisticamente hanno o meno un modulo per i contatti o un indirizzo e-mail
    • catalogo il tuo sito per vedere a che tipologia appartiene
    • verifico se il tuo sito deve o meno avere un modulo contatti o simili
    • agisco di conseguenza

    Questo discorso si può estendere a qualsiasi cosa, qualsiasi cosa che noi ignoriamo completamente.
    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    Per esempio se da domani tutti i siti di news mettessero un redirect cosa succederebbe ? Tutti bannati ? Oppure diventerebbe uno standard che tutti i siti di news dovrebbero avere il redirect ?


  • User Attivo

    "Non avrebbe senso fare un passo che per me sarebbe involutivo, e tornare a basarmi solo sul reverse engineering. Il R.E. non è stato abbandonato, ma non mi è bastato più, ho sentito il bisogno di aggiungere altro al mio approccio con i motori. "

    Appunto, cerchi di spingerti oltre giusto ?
    Ma se il tuo lavoro si fosse fermato a fare un sito per i tuoi utenti, navigabile\usabile\gradevole\veloce bla bla non saresti mai diventato un SEO, anche se probabilmente avresti avuto dei risultati miracolosi nel posizionamento !


  • Super User

    @uMoR said:

    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    nel thread che ho linkato sopra, si parla di filtri bayesiani (o almeno, mi pare fosse quello il thread :sbonk: ). beh, io che non sono seo, non sono wm, ma vendo salami, ritengo sia abbastanza prevedibile che abbia anche filtri bayesiani.

    e quindi si, dovrebbe auto-imparare.

    ma questo solo secondo la mia personalissima logica 🙂


  • User Attivo

    Must, non se se sono filtri bayesani. Il fatto che si usi, per decidere che scelta fare un determinato sistema di valutazione-analisi, non comporta che poi il tutto debba prendere il nome del sistema di valutazione.

    E' un abuso, una forzatura. Conta come si ragiona a posteriori, non come si ottengano ipotetici dati per effetture quella valutazione.

    Se uso il teorema A che e' cannato, ed in base a questo faccio delle scelte ovviamente toppo. Se uso il teorema B, che funziona ad hoc, ed in base a questo faccio delle scelte ovviamente l'azzecco. Ma cosa conta e' la scelta a posteriori. Infatti se la mia scelta e' sbagliata, cha a priori ragioni sui dati dati da A o da B, poco conta.

    Inoltre un conto e' dire che questo tipo di sistemi basati su bayes si auto-adattino, si auto varino, un conto che auto imparino.

    Non imparano un tubo di nulla, a meno che non usino sistemi di intelligenza artificiale. In questo caso conta il sistema di ai e non i teoremi che l'ai usa per prendere le decisioni.

    Sono piccolezze, ma sono importanti. Per noi bot, spider, tutto lo stesso. Tanto sappiamo che chi legge capisce.

    Ma uno spider e' uno stupido programmino che passa ed archivia informazioni. Un bot e' un robot che usa parte del suo software (lo spider) per raccogliere informazioni e poi grazie alla sua parte di ai decide cosa fare di quelle informazioni. C'e' un abisso.

    Per non creare confusione parlerei generalmente di filtri dinamici. Filtri dinamici e spesso evoluti.


    Ma a parte tutta questa fuffa, per me, quanto si domanda uMor e quanto tu ipotizzi dicendo che e' prevedibile, e' giusto.

    I motori usano filtri dinamici, cosi' come li stanno implementando alcuni wm.


    uMoR scrive:

    "A me sembra ovvio che un sito non si debba posizionare entro poco tempo, a meno che non trovi il modo per fregare G ovviamente."

    Aggiungo, o che in futuro abbia i soldi per pagarsi la pubblicita'.

    "Perché se si tratta di un malus bisogna chiedersi "cosa ho fatto per beccarmelo?" mentre se si tratta di un bonus bisogna chiedersi "cosa hanno fatto gli altri siti per meritarselo?". "

    Parole sante.

    "Per esempio se da domani tutti i siti di news mettessero un redirect cosa succederebbe ? Tutti bannati ? Oppure diventerebbe uno standard che tutti i siti di news dovrebbero avere il redirect ?"

    Chiedilo al sistema di ai del motore che dovra' decidere in merito, certamente non a bayes.


  • Super User

    E se G avesse un algoritmo che auto-impara in base statistica cosa in base ad una tipologia di sito deve o meno esserci ?

    Questo approccio è stato confermato da un ingegnere di Google, riferendosi ad alcune tecniche anti spam.

    Ma è ragionevole pensare che il metodo sia generalizzabile.

    Ma se il tuo lavoro si fosse fermato a fare un sito per i tuoi utenti, navigabile\usabile\gradevole\veloce bla bla non saresti mai diventato un SEO, anche se probabilmente avresti avuto dei risultati miracolosi nel posizionamento !

    Io dicevo il contrario: se mi fossi fermato a fare reverse engineering, test, analisi e se avessi continuato a analizzare tutto dal lato di chi i motori di ricerca li programma, infondendo nei siti le caratteristiche individuate con le mie analisi, sarei potuto diventare solo un SEO "tecnico" senza comprendere le potenzialità del "posizionamento indiretto", che si basa sulla capacità del sito di interessare gli utenti.

    Tenuto conto che la stragrande maggioranza dei siti realizzati dai SEO da me osservati non risparmia tecniche e trucchi ma non accenna minimamente a sfruttare il "posizionamento indiretto" ottimizzando le caratteristiche del sito che possono condurre a posizioni migliori sui motori, ne deduco che la mia frase "Se un sito possiede caratteristiche utili agli utenti, viene valutato di più." non deve essere tanto banale e scontata come tu ritieni, altrimenti i SEO si darebbero da fare anche per ottimizzare questo elemento finora sottovalutato o addirittura ignorato e che a mio parere rientra pienamente tra i fattori che il SEO dovrebbe prendere in considerazione.


  • User Attivo

    LowLevel credo di aver capito il senso.

    Tu dici, un seo normalmente cerca di capire cosa predilige un motore e in base a quanto sa ottimizza un sito di conseguenza.

    Tuttavia il seo difficilmente capisce, prende atto, sa, che un sito ben sviluppato lato utente aiuta anche nel posizionamento sui motori, pertanto quel seo lavora solo lato motore e tralascia le ottimizzazioni lato utente, credendo (illudendosi) che quelle ottimizzazioni lato utente invece non siano utlissime anche lato motore (anche se apparentemente potrebbero sembrare 2 cose distinte).

    Cavolo, questa tua analisi apre nuove prosettive, non solo, nuove opportunita' di lavoro.

    Come dire, prima c'era un seo generico che conosceva i motori ed adattava i siti in base agli algoritmi base dei motori.

    Ma oggi gli algoritmi dei motori si sono evoluti e questo non basta piu'.

    Ci vuole un seo che migliori un sito in base alle classiche teorie di posizionamento.

    Ci vuole un "seo" che si occupi di marketing, in modo che aiutando l'utente si salga anche nei motori di riflesso.

    Ci vuole un "seo" che si occupi di grafica, in modo che gratificando l'utente si salga anche nei motori di riflesso.

    Ci vuole un "seo" che si occupi di banda, server, tempi di visualizzazione, in modo che svelocizzando il tutto all'utente si salga anche nei motori di riflesso.


    Questo ragionamento e' troppo importante per liquidarlo in 2 parole.

    Potrei discutere su cosa normalmente si intende per seo, ma non avrebbe motivo perche' per me il senso di cosa affermi ha troppa valenza rispetto banali disquisizioni lessicali.


  • Super User

    agoago, hai capito correttamente.

    Ovviamente non sostengo che un SEO debba fare anche il grafico, ma solo che debba interessarsi di più aspetti possibili di un sito web ed essere in grado, se necessario, di consigliare anche il grafico su alcuni elementi che possono influire sul posizionamento.

    Andiamo sul pratico con un esempio che calza a pennello: la gara di immagini organizzata su questo forum.

    Il formato JPEG può includere meta-informazioni. Queste meta informazioni sono utili agli utenti perché diversi software per la visualizzazione, catalogazione o indicizzazione delle immagini tengono conto di tali informazioni nei file JPEG e le sfruttano per facilitare le ricerche o le catalogazioni dell'utente.

    Adesso, io desidero rendere la vita dell'utente più facile e ritengo che includere le meta informazioni in alcune immagini dei siti che produco sia anche una dimostrazione di qualità del servizio chew offro. La maggior parte degli utenti non si renderà mai conto dell'esistenza di quelle informazioni, ma altri ne potranno beneficiare, magari indirettamente.

    Nota ora questi due diversi punti di vista:

    • Il SEO "allargato" compie questa azione perché è convinto di aumentare la qualità del proprio servizio nei confronti dell'utente.

    • Il SEO "tecnico" compie questa azione perché ha fatto dei test ed ha scoperto che i motori di ricerca usano le meta informazioni nei file JPEG per capire meglio il tema dell'immagine e persino quello della pagina sulla quale l'immagine è pubblicata.

    Chi ha ragione? Tutti e due. Non importa il motivo per il quale lo si fa, ma è il caso di farlo. E se lo si fa grazie ad una doppia consapevolezza, tanto meglio.

    Ma ecco il bello: come avrebbe potuto il primo SEO migliorare la qualità o il secondo SEO tematizzare meglio immagini e pagina, se nessuno dei due avesse saputo che i file JPEG possono contenere meta informazioni?

    E come si fa ad apprendere che i file JPEG possono contenere meta informazioni se ci si limita a fare i SEO con quelle quattro putt***** di keyword e link e non si amplia il proprio raggio di interesse ed intervento?

    Sai quante delle immagini JPEG che stanno partecipando al concorso hanno al loro interno meta informazioni? Nessuna di quelle che ho osservato.

    E questo è solo un esempio, ma è indubbio che considero parte lavoro del SEO anche il web writing e occuparsi di alcuni aspetti sulla corretta configurazione dei server.


  • User Attivo

    Ok, tu come definiresti-chiameresti questa nuova figura di "super-seo"?

    Perche' se si capisce veramente il senso di cosa spieghi allora diventa difficile concigliare questa figura di "nuovo seo" con il classico concetto che ci siamo fatti-dati nel definere il buon vecchio ottimizzatore esperto di motori.

    Credo sia importante, per non fare confusione nelle future discussioni, per rendere chiara l'idea, il concetto, sintetizzando il tutto con un termine che lo definisca in modo inequivocabile.

    Viceversa ci sara' sempre qualcuno che giocando sul vecchio acronimo di seo suddividera' questa nuova figura_completa in tante sottocategorie, negando la stessa della sua globalita'.