• User Attivo

    Facciamo un esempio pratico, prendiamo jobrapido e mettiamo i 2 siti a confronto.

    Jobrapido ha una grafica più carina e curata, in home la ricerca è al centro, offre un filtro che è la distanza ed offre l'iscrizione alla newsletter. Inoltre aggrega più fonti e manda l'utente li.
    Il tuo sito ha una grafica più spartana, la ricerca non è al centro di tutto, non ha il filtro sulla distanza, non ha una newsletter. Il contenuto è copiato e non cita la fonte.

    Fra i due secondo me offre più servizi l'altro.

    Di discriminante nel posizionamento c'è ben poco, sono moltissimi fattori messi assieme, se si ragiona in questo modo dicendo "ma tanto conta poco" non si va da nessuna parte perché praticamente tutto conta poco, ma goccia dopo goccia il vaso si riempie.

    Di soggettivo c'è ben poco, la grafica può essere soggettiva ma i servizi o ci sono o no. Google ormai è in grado di analizzare al meglio un sito web, non ne legge solo il contenuto ma lo valuta completamente. Siamo arrivati al punto che Google è in grado di predire cosa cercheremo, oppure è in grado di correlare la parola "puma" all'animale o alla marca.

    Sempre parlando di jobrapido ha le città più cercate e il filtro per la distanza è molto utile.

    Se guardi i siti da un utente inesperto che cerca un lavoro e approda gli altri offrono un qualcosa in più che è essenziale, anche se non è discriminante è utilissimo.

    Anche infojobs, kijiji o subito offrono qualcosa in più, fidelizzare l'utente e proporgli qualcosa di diverso e utile è la chiave vincente.

    Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.


  • User Attivo

    @morettolss said:

    Il contenuto è copiato e non cita la fonte.

    Ci tengo molto a precisare solo questo punto. Sul mio sito il contenuto non è copiato, gli annunci sono inseriti da aziende che si devono registrare, quindi se l'annuncio risulta copiato, può dipendere da soli 2 fattori:

    • l'azienda ha pubblicato lo stesso annuncio su più siti: e quindi chi ha ragione? Quale sito copia un altro?
    • altri siti prendono gli rss dal mio e quindi il contenuto viene duplicato

    Sul sito che hai preso in esame, scusami ma tutte le parti "soggettive" come la grafica più carina, non fanno posizionamento, ma in più ti posso aggiungere che quel sito si che copia il contenuto altrui, perchè gli annunci sono tutti di altri portali.


  • User Attivo

    @morettolss said:

    Anche infojobs,
    Hai preso in esame un sito che era in top 3, perchè non prendi gli altri due? Uno in particolare vedrai che, grafica a parte (è soggettiva), non ha assolutamente nulla, eppure è nella top 3.

    @morettolss said:

    Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.
    Si ma non ci siamo, io non voglio fidelizzare un utente, io ho solo aperto la discussione sul fatto che con la serp "cerca lavoro" il mio sito è sceso dalla prima alla seconda pagina, punto. Se ci sono situazioni tangibili per cui questo è accaduto (errori nel codice?) allora ok, ma in altro modo, scusa ma grafica o servizi correlati c'entrano poco, soprattutto quando uno dei siti presenti è identico e anzi con meno funzioni/qualità/ecc...


  • User Attivo

    Una grafica carina e facilmente navigabile può avere dei vantaggi incredibili. Primo fra tutti l'utente naviga facilmente nel sito e trova quello che cerca, poi potrebbe ottenere link da siti di design. Non possiamo limitarci a vedere il posizionamento in un modo ferreo, ciò che rende il sito migliore aiuta in un modo o nell'altro il posizionamento.

    Per i contenuti duplicati parlo vedendo le cose dalla parte di Google, se in una classe ho 2 compiti uguali, uno dei due studenti è sempre andato bene e l'altro no per me ha copiato il secondo, stesso ragionamento che fa Google (anche se sbaglia parecchio). Per cui non pongo il problema dal punto di vista dell'utente o di chi ha copiato realmente chi ma pongo il problema da parte di un esaminatore che ha altri parametri per valutare.

    Grafica, usabilità e funzioni centravano poco qualche anno fa, oggi sono un elemento da prendere in seria considerazione. Altrimenti ci basiamo solo e solamente sui link e la facciamo finita li. Il web si evolve così come l'utente e i motori di ricerca, il motivo di un calo può non essere dato da una penalizzazione ma dal fatto che ci siano siti migliori.

    Non è detto che se un sito cala è per colpa di un errore, ma può semplicemente essere inadatto per chi cerca quelle cose. Se continuiamo a guardare le cose solo dal punto di vista del codice e senza pensare all'utente non è possibile uscirne.


  • User Attivo

    Quindi in sostanza mi dici che un codice pulito e snello passa in secondo piano se c'è una navigazione buona ed una grafica gradevole. Parafrasando vuol dire che dei metri di valutazione oggettivi (codice) valgono meno dei metri di valutazione soggettivi (grafica o navigazione)?

    A me sembra strano, ed una delle conseguenze sarebbe quindi la sparizione delle landing page, magari fatte ad hoc per un singolo termine o frase.

    Io comunque non capisco, se il mio dilemma è il posizionamento su Google con una certa parola/frase, perchè tu punti su fattori che invece puntano alla fidelizzazione utente? Non credo che siano cose correlate.

    Sulla questione dei duplicati invece lascio perdere perchè credo che sia uno dei peggiori problemi di google, cioè non capire mai quale sia la vera fonte, anche se, algoritmo per algoritmo, permettimi di pensare che se un sito (diciamo aggregatore), ha 1000 risultati e tutti e 1000 sono duplicati presenti in altri 50 siti (quelli da cui pesca), allora non ci vuole Chuck Norris per capire che quel sito sta copiando i contenuti.

    Tanto più che gli aggregatori sono MATEMATICAMENTE riconoscibili poichè alla fine hanno un link per ogni contenuto copiato, mentre il sito di origine non avrà mai un link all'aggregatore. O sbaglio?


  • User Attivo

    Un codice pulito è essenziale, ma anche una buona grafica fa la sua parte, serve tutto.

    Posizionamento non è solo avere un codice pulito, ma è l'insieme di tantissimi fattori, fra cui alcuni soggettivi. L'utente ha scelta, devi portarlo da te perché sei il migliore. E questo significa che devi avere un buon sito.

    Ti faccio un esempio: se hai due supermercati, uno bello e ordinato, l'altro disordinato e brutto dove vai? I siti web sono la stessa cosa e Google sta acquisendo sempre più la capacità di scegliere il supermercato migliore, esattamente come sceglierebbe un essere umano. Il motore di ricerca non vuole offrirti il sito tecnicamente migliore ma quello che l'utente sceglierebbe (se io mi trovo meglio su un supermercato mica vado nell'altro perché ha 5 prodotti in più).

    Il contenuto copiato non è il male più assoluto, aggregatori che funzionano bene sono utili, perché Google che cerca di premiare le cose utili dovrebbe penalizzarli. E' come dire: il supermercato che al suo interno ha 100 negozi non è buono, perché questi 100 negozi sono come i 100 che trovo all'esterno. Ma nel supermercato li ho suddivisi per zona e faccio un confronto più rapido. Vai al supermercato o in ognuno di questi 100 negozi? Personalmente scelgo il secondo.

    Google non è la maestra che punisce i cattivi o premia i buoni, Google si occupa di consigliarti il sito migliore per quello che stai cercando e se quel sito è tecnicamente ineccepibile ma c'è ne un altro che offre qualcosa in più ed è più utile, di più rispetto al primo, nonostante abbia qualche errore, Google ti mostra quest'ultimo.

    Non stiamo parlando della matematica che fa 1+1, ma di una matematica che è in grado di identificare che parma è una città, una squadra di calcio e un'università. Possiamo parlare di intelligenza artificiale (passatemi il paragone, ci siamo distantissimi ma è per rendere l'idea).

    Se tutto si basasse secondo il tuo ragionamento basterebbero qualche link a tema, un sito tecnicamente ben realizzato e anche se non offre nulla quel sito può trovarsi in prima posizione. Non mi sembra funzioni così (per fortuna), sarebbe troppo semplice.

    Google vuole un sito di qualità che offra un valore, non basta che il sito sia tecnicamente perfetto.


  • User Attivo

    Boh, io non penso che google arrivi a tanto. Potrei dimostrarti dati alla mano che ci sono migliaia di serp fatte con titoli di articoli ed il primo risultato è un aggregatore (scadente tra l'altro), mentre il sito fonte è a fondo della prima serp oppure al primo posto della seconda pagina. Questo mi fa capire che google è fallace, molto fallace. E non parlo di aggregatori con pr o trust alto ma di aggregatori scadentissimi, con pr che se è tanto arrivano a 2 e che non hanno la benchè minima logica di esistere.

    Però evidentemente copiare in alcuni casi paga.

    EDITO: questo per dire che sono dell'idea che google non sia in grado di prendere delle decisioni come una persona, che fallace quanto vuoi, almeno sarebbe senziente e sarebbe in grado di determinare se un sito è veramente più meritevole di un'altro

    Comunque non hai risposto alla mia domanda 😉
    Uno dei tre siti della mia serp è un "gemello" meno prestante, perchè secondo te lui è ancora li in posizione di top 3?


  • User Attivo

    Che Google sbagli non lo metto in dubbio, ma se noti le cose stanno migliorando un pochino alla volta. Se non si cambia mentalità pensando per ora è così la soluzione è semplice, ma di breve durata.

    Quel sito ha qualcosa in più ed sarà sicuramente più noto in rete rispetto al tuo. Non ho mai detto che sono gli unici fattori, ma che sono cose che vanno considerate.


  • User Attivo

    @morettolss said:

    Quel sito ha qualcosa in più
    Io questo qualcosa, se c'è, non lo trovo, sinceramente, cosa avrebbe in più?


  • User Attivo

    Uppo solamente perchè mi piacerebbe avere una risposta sulla mia ultima domanda, sarebbe molto utile per riuscire a capire il problema, se motettolss può ovviamente.

    Grazie


  • User Attivo

    Credo di aver elencato i punti di vantaggio degli altri siti parecchie volte, non ritengo sia utile continuare a puntualizzare delle piccole caratteristiche che rendono, secondo me, il sito migliore e più intuitivo. Non credo sia nemmeno utile focalizzarsi su un sito che sembra leggermente meno meritevole di altri, perché ce ne sono altri 9 in prima pagina.

    Possiamo discutere all'infinito su questo punto senza ricavare una discussione utile.

    Io penso che l'eccezione o qualcosa che non quadra ci possa essere e ci sarà sempre, non credo sia utile andare a commentare all'infinito una situazione del genere.


  • User Attivo

    Ok, io riprendevo solo il fatto che dicevi che "quel sito" aveva qualcosa in più, e siccome "quel sito" è nella top 3 insieme a due colossi (uno di annunci vari ed uno come aggregatore sul lavoro), pensavo che veramente quel sito avesse "qualcosa in più" e quindi il tuo aiuto mi avrebbe consentito di capire come agire.


  • User Attivo

    Bene mi sono risposto da solo, a volte basta fare quello che tanti dicono di saper fare per trovare delle risposte (e comunque ringrazio chi mi ha dato questa dritta, anche se non è arrivata da un forum zeppo di seo...). Spero che questa spiegazione possa servire a chi si è trovato come me con una penalizzazione (seppur minima nel mio caso) dovuta al fatto di avere un dominio uguale alla key di ricerca.
    www . seounique. com/blog/ google-exact-match-domain-emd-penalty-first-look/

    In sostanza google manda con l'extact domain match (EDM) penalty, declassa i siti che hanno un dominio che contiene l'esatta parola chiave con la quale si vuole indicizzare il sito, potremmo definirlo una nuova frontiera della "sovra ottimizzazione".

    Nel mio caso "pago" il fatto di essere un .com, poichè da quanto ho capito in Italia per ora la mannaia è arrivata sui domini non .it, ma ho saputo esserci nuove ed entusiasmanti novità all'orizzonte, e la vedo male (non per me, per fortuna).


  • User Attivo

    Mi sa che stai sbagliando in pieno:

    1. con in Italia non si intende l'estensione del dominio, ma il motore di ricerca, cioè l'aggiornamento non è attivo su google.it (cioèse ho un dominio .com in italiano o un .it non cambia nulla, se è in inglese è soggetto all'EMD)
    2. penalizza i siti di bassa qualità e non declassa tutti i siti con la key nel nome

  • User Attivo

    se penalizzasse i siti di bassa qualità avremmo risultati diversi


  • Super User

    @fabiogentile said:

    Ma qual è l'assioma tra fidelizzazione utente ed indicizzazione su google?
    Morettolss propone degli interventi volti a fidelizzare gli utenti, e questa è un'azione che potremmo definire commerciale o marketing.

    Morettolss ha proposto giusto, ma non vederla nell'ottica di una pratica commerciale o di marketing perchè è perfettamente inquadrata in una logica SEO che, a mio avviso, è stata ampiamente rivoluzionata.
    Mi spiego con qualche esempio banale.
    Il punto cruciale per avere un buon traffico, sia di qualità che di quantità, è un buon posizionamento nella serp, e qui non dico nulla di nuovo.
    Ma mentre prima, ad esempio, uno dei fattori di posizionamento era avere backlink in quantità, trascurando spesso la qualità al punto che sono sorte numerose linkfarm che con vari stratagemmi procuravano migliaia di link, e di questo Google ne teneva conto, oggi invece sembra ( il sembra è d'obbligo ) che uno dei parametri per un buon posizionamento è la quantità di utenti che ritornano e la profondità della navigazione.
    Per ottenere questo non si può "barare" come accadeva per l'acquisto di backlink o spammando forum e blog con commenti : o effettivamente il tuo sito attira gli utenti al punto di farli tornare spesso e volentieri, oppure ...imbarchi acqua in serp.
    Come ottenere i "ritorni" e la "profondità" questo varia dal settore del sito, e qui lascio libera l'immaginazione.

    @fabiogentile said:

    Io invece punto solo su un'azione tecnica (e magari semantica) volta a far si che se uno cerca la stringa che contiene il mio nome, sulla prima serp esca il mio nome, fino al 16 novembre era così, dal 17 ha iniziato a scendere.

    Ormai abbiamo capito che il posizionamento ricercato solo contando sulle parole chiavi funziona molto meno di prima.

    @fabiogentile said:

    Ora, quello che noto è che sicuramente google viene influenzato dalla frequenza di aggiornamento, ne deduco che se un sito di questo tipo viene aggiornato tutti i giorni, costantemente, acquisisce più valore agli occhi del motore.

    Credo che tu abbia perfettamente ragione e condivido pienamente, almeno la mia esperienza va in quel senso.

    @fabiogentile said:

    Questo però non va in sintonia con la questione contenuti duplicati.

    Se un utente si accorge che nel dato sito X ci sono gli stessi identici contenuti dei siti Y e Z probabilmente tende a non visitare più il sito X.

    @fabiogentile said:

    ... quello che non mi è chiaro è il motivo per cui Google sia andato a punire gli aggregatori di notizie (giustamente direi, almeno in alcuni casi), ma gli aggregatori di annunci invece non abbiano subito la stessa sorte, anzi.

    Credo che gli aggregatori non siano stati "puniti" ma che le intenzioni di Google siano state solo quelle di dare "luce ed imporatnza" alle fonti originali piuttosto che a chi pubblicava un abstract , magari cercando di fagogitare traffico.
    Molti aggregatori, spesso anche artiginali, non sono altro che siti MFA .
    Per quelli degli annunci non so dirti perchè non ne ho esperienza diretta : ma non dimenticare che gli aggiornamenti di Panda e Penguin non si esauriscono certo con il numero 21 del 17 Novembre.


  • User Attivo

    Bluewebmaster ti ringrazio per le risposte, da ieri ho notato che in seguito a piccoli accorgimenti (ma proprio piccoli) che avevo fatto nei giorni scorsi, il sito ha ricominciato a salire e nel GWT vedo un incremento (click e query) del 50%, bene, purtroppo non capisco la dinamica che lasci in top 3 un sito che ieri ho anche notato non permettere la navigazione tra le pagina, cioè, tu avanzi nelle pagine ma gli annunci sono sempre i medesimi...sai... poi si parla di google che valuta la qualità del sito e rimani basito però.

    Sono d'accordo poi su molti punti anche se quello che però mi rende scettico è la valutazione che fai del bounce rate. Negli ultimi anni google dovrebbe aver diminuito l'importanza di quel dato poichè le ricerche, essendo diventate sempre più specifiche, portano spesso l'utente a trovare e consumare solo quello che sta cercando, uscendo dal sito subito dopo.

    Non parlo di utenti fidelizzati, che entrano sul sito e ci restano, ma parlo di utenti che trovano quello che cercano tramite un motore di ricerca e poi, "consumato il risultato", escono o vanno altrove.
    Io da parte mia non mi lamento, e se fosse questo un metro di valutazione sarei ancora più scettico dal momento che nel mio caso la frequenza di rimbalzo è rasente il 30%.