• ModSenior

    Ciao Fabio, io sono d'accordo con morettolss, il problema più grosso del sito sono i contenuti duplicati e la mancanza di servizi originali che tengono il pubblico incollato al tuo sito e che generano segnali genuini (backlinks naturali e segnali social).
    Non capisco il discorso sul laboratorio: proprio perché per te è un test, una palestra, dovresti trovare il tuo modo di sviluppare un'offerta informativa e originale che poi potrai replicare in altri siti.

    Il posizionamento di un sito oggi non è determinato affatto da un codice html misterioso che ci tramandiamo in seofestini riservati solo agli adepti, bensì da una ben studiata strategia di content marketing.
    Dopo ovviamente è anche importante l'ottimizzazione del codice, ma senza i contenuti potrai ottimizzare quanto vuoi il codice ma non otterrai mai risultati.

    Valerio Notarfrancesco


  • User Attivo

    Forse mi sono spiegato male, io sto facendo delle prove, voglio capire alcune dinamiche e l'obiettivo era solo ed esclusivamente quello di posizionare il sito in cima (o comunque nella top 10), per le ricerche "cercalavoro" e "cerca lavoro", perchè essendo il nome stesso di sito e dominio, ritenevo fosse piuttosto semplice.

    Infatti, (adesso sfruttando anche ahrefs!!!), ho conferma che fino ai primi di novembre il sito era posizionato in 2° con "cercalavoro" ed in 4° con "cerca lavoro". da metà novembre ad oggi è "caduto" in 4° e 14°.

    Non credo che google basi il suo posizionamento sui servizi che offre il sito, quelli sono più user-oriented. No?

    Comunque, azzeriamo, secondo voi con quelle ricerche quindi i primi (diciamo 3) risultati escono perchè hanno servizi innovativi e/o perchè hanno fatto campagne marketing?


  • User Attivo

    @vnotarfrancesco said:

    Non capisco il discorso sul laboratorio: proprio perché per te è un test, una palestra, dovresti trovare il tuo modo di sviluppare un'offerta informativa e originale che poi potrai replicare in altri siti.

    No Valerio, non dobbiamo vendere nulla, è un laboratorio a livello di struttura html, di efficacia del codice, di codice validato e corretto, e, internamente, anche di test delle funzionalità dei db e delle nostre applicazioni.


  • ModSenior

    Ah oh allora è diverso.
    Però in questo caso metti in secondo piano il discorso posizionamento, fai solo test sul codice, sulle prestazioni delle pagine, i tempi di caricamento, la visualizzazione su mobile, ecc. ecc

    Valerio Notarfrancesco


  • User Attivo

    Mhm... si e no, insomma, diciamo nel nel tutto, il fatto di essere in prima pagina di google non mi offendesse, semmai mi ha offeso esserne uscito 🙂


  • ModSenior

    Se vuoi posizionarti non c'è allora altra strada se non quella già suggerita da morettolss.

    Valerio Notarfrancesco


  • User Attivo

    Ma qual è l'assioma tra fidelizzazione utente ed indicizzazione su google?
    Morettolss propone degli interventi volti a fidelizzare gli utenti, e questa è un'azione che potremmo definire commerciale o marketing.
    Io invece punto solo su un'azione tecnica (e magari semantica) volta a far si che se uno cerca la stringa che contiene il mio nome, sulla prima serp esca il mio nome, fino al 16 novembre era così, dal 17 ha iniziato a scendere.
    Ora, quello che noto è che sicuramente google viene influenzato dalla frequenza di aggiornamento, ne deduco che se un sito di questo tipo viene aggiornato tutti i giorni, costantemente, acquisisce più valore agli occhi del motore.
    Questo però non va in sintonia con la questione contenuti duplicati. Uno dei primi tre siti della serp è un notissimo aggregatore, ecco, quello che non mi è chiaro è il motivo per cui Google sia andato a punire gli aggregatori di notizie (giustamente direi, almeno in alcuni casi), ma gli aggregatori di annunci invece non abbiano subito la stessa sorte, anzi.


  • User Attivo

    Google ha punito gli aggregatori di notizie di bassa qualità, cioè quelli che ripubblicavano diverse fonti senza una logica. Quei siti che invece catalogavano le news, le gestivano e le proponevano con un valore aggiunto non sono stati penalizzati.

    Dobbiamo sempre ricordarci che lo scopo di Google non è punire nessuno, ma è offrire dei risultati migliori e più pertinenti.

    Prendiamo un portale turistico, la maggioranza di questi copiano le descrizioni dai vari siti di hotel, eppure sono molto spesso in cima. Questo perché se io cerco un hotel preferisco trovarmi di fronte ad una lista ben fatta che dovermi visionare 100 siti di hotel uno per uno.

    Quindi nel caso di un portale turistico io cerco un sito con dei filtri, con le informazioni complete, che magari mi aggiorni sulle offerte.

    Ed ecco che io mi trovo bene con questo sito, quindi quando un mio amico mi chiederà un consiglio per soggiornare nella stessa località dove sono andato io gli linkerò quel sito. Magari ho anche un blog personale e parlo del sito anche li, citandolo durante il post relativo alla mia vacanza. Poi ricevo sempre la newsletter con le offerte, ogni tanto ci clicco e visito direttamente quel sito.

    Come vedi un sito di qualità non solo piace a Google ma piace all'utente che creerà link naturali di qualità. In questo modo torna tutto quanto e si tratta di una strategia a lungo termine. Essere nei primi posti su Google non significa più creare solamente qualche link, magari funziona, ma funziona sempre per meno tempo. L'utente è sempre più social ed esigente e bisogna offrirgli quello che cerca.


  • User Attivo

    Stiamo andando fuori tema, un sito turistico per mettere gli hotel chiede soldi, non li pesca dagli rss. E anche se lo facesse gratis, andrebbe comunque fatto un gran lavoro di ricerca e popolamento di un database con i dati di ogni hotel.
    Un aggregatore di notizie o annunci invece non fa altro che prendere gli rss e ripubblicarli sul web, lo trovo un sistema parassitario in quanto popola il proprio sito con i contenuti altrui.

    Unico tipo di aggregatore che potrebbe essere sensato è quello che magari parla di un argomento specifico, che so, il riciclo della plastica, e sul suo sito pubblica estratti di articoli presi da qualsiasi fonte, ma che trattino esattamente di quell'argomento, ed in questo caso se voglio avere informazioni su questo tema ci trovo tutto quello che dovrei trovare, ma questo è l'unico caso.

    Comunque siamo andati oltre, avevo aperto la discussione solo per capire se il mio sito aveva qualcosa di anomalo nella pagina principale dal momento che, a mio avviso inspiegabilmente, dal 17 novembre è progressivamente sceso dalla 4° alla 14° posizione della serp "cerca lavoro" (e il sito si chiama www .cercalavoro.com).

    AGGIUNGO: anche perchè non vedo nelle prime posizioni alcun sito che abbia delle caratteristiche tali da doversi posizionare prima del mio (stante il dominio). Non spaziamo nel campo della fidelizzazione utente, perchè anche li, in quella serp i primi risultati non hanno alcun sistema che fidelizzi l'utente e che possa essere messo in relazione con il posizionamento di quella serp.


  • User Attivo

    Esistono portali turistici che fanno tutto gratis o fanno pagare solo i banner o guadagnano con le affiliazioni delle OTA, il business model non è solo uno. Inoltre il mio voleva essere solo un esempio.

    Google News è un'aggregatore parassitario, secondo la tua definizione, eppure è di Google. Infatti Google News inserisci le news in categorie e ne premia la qualità. Questo può essere un'altro caso di un aggregatore di qualità.

    Se cerchie nel forum dal 17 novembre sono calati in molti, senza che ci sia stata una penalizzazione precisa o una aggiornamento. Non c'è nulla che violi il regolamento (almeno ad una prima analisi), se non il contenuto non unico.

    Gli altri siti hanno qualcosa in più. Come l'autocompletamento delle località o del mestiere, più settori, l'iscrizione alla newsletter, canali social, una grafica più accattivante, una navigazione più intuitiva, la ricerca è una cosa primaria, da te nella sidebar sembra una cosa secondaria... Sono piccole cose che fanno la netta differenza. Personalmente mi affiderei ad uno degli altri siti rispetto al tuo.


  • User Attivo

    @morettolss said:

    Se cerchie nel forum dal 17 novembre sono calati in molti, senza che ci sia stata una penalizzazione precisa o una aggiornamento. Non c'è nulla che violi il regolamento (almeno ad una prima analisi), se non il contenuto non unico.
    Ecco questa è già una risposta più interessante, almeno mi conferma l'elemento aleatorio di alcune dinamiche nell'algoritmo.

    @morettolss said:

    Gli altri siti hanno qualcosa in più. Come l'autocompletamento delle località o del mestiere
    Ma non credo sia discriminante per il posizionamento
    @morettolss said:
    più settori
    i primi tre nella serp non hanno settori, solo un campo di ricerca libera, io ho entrambi
    @morettolss said:
    l'iscrizione alla newsletter, canali social, una grafica più accattivante, una navigazione più intuitiva
    Anche questi credo siano criteri soggettivi e non determinanti per google (comunque il social c'è)
    @morettolss said:
    la ricerca è una cosa primaria, da te nella sidebar sembra una cosa secondaria
    Scusa ma anche qui non sono d'accordo, io offro una ricerca combinata di tre fattori (settore, area geo, campo libero) che possono essere usati tutti o nessuno o solo alcuni, poi offro una panoramica con le città, le provincie, le regioni ed i settori con il numero di annunci presenti in ognuna di queste categorie, ribadisco, i primi tre siti della serp non hanno nulla di tutto questo, tu metti la mansione che ricerchi e l'area geografica, basta, anzi, uno di questi non ti da nemmeno la possibilità di scegliere l'area geografica
    @morettolss said:
    Sono piccole cose che fanno la netta differenza. Personalmente mi affiderei ad uno degli altri siti rispetto al tuo.
    Di quello che hai detto, permettimi, la differenza l'avrei dovuta fare a mio favore, e l'unica discriminante che posso dare per buona è la QUANTITA' di annunci, però sai, se cerco webdesigner e mi esce come primo articolo uno di gennaio 2011 (il secondo di dicembre 2010)....allora mi chiedo quanto valga in sito di annunci che mi da dei risultati vecchi di 1 o 2 anni, eppure è nella top 3.

    Non voglio essere pignolo eh, però mi piace essere preciso, e secondo me o non avevi visto i siti (parlo solo dei primi 3 senza farla lunga) o forse hai sbagliato le valutazioni, no?


  • User Attivo

    Facciamo un esempio pratico, prendiamo jobrapido e mettiamo i 2 siti a confronto.

    Jobrapido ha una grafica più carina e curata, in home la ricerca è al centro, offre un filtro che è la distanza ed offre l'iscrizione alla newsletter. Inoltre aggrega più fonti e manda l'utente li.
    Il tuo sito ha una grafica più spartana, la ricerca non è al centro di tutto, non ha il filtro sulla distanza, non ha una newsletter. Il contenuto è copiato e non cita la fonte.

    Fra i due secondo me offre più servizi l'altro.

    Di discriminante nel posizionamento c'è ben poco, sono moltissimi fattori messi assieme, se si ragiona in questo modo dicendo "ma tanto conta poco" non si va da nessuna parte perché praticamente tutto conta poco, ma goccia dopo goccia il vaso si riempie.

    Di soggettivo c'è ben poco, la grafica può essere soggettiva ma i servizi o ci sono o no. Google ormai è in grado di analizzare al meglio un sito web, non ne legge solo il contenuto ma lo valuta completamente. Siamo arrivati al punto che Google è in grado di predire cosa cercheremo, oppure è in grado di correlare la parola "puma" all'animale o alla marca.

    Sempre parlando di jobrapido ha le città più cercate e il filtro per la distanza è molto utile.

    Se guardi i siti da un utente inesperto che cerca un lavoro e approda gli altri offrono un qualcosa in più che è essenziale, anche se non è discriminante è utilissimo.

    Anche infojobs, kijiji o subito offrono qualcosa in più, fidelizzare l'utente e proporgli qualcosa di diverso e utile è la chiave vincente.

    Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.


  • User Attivo

    @morettolss said:

    Il contenuto è copiato e non cita la fonte.

    Ci tengo molto a precisare solo questo punto. Sul mio sito il contenuto non è copiato, gli annunci sono inseriti da aziende che si devono registrare, quindi se l'annuncio risulta copiato, può dipendere da soli 2 fattori:

    • l'azienda ha pubblicato lo stesso annuncio su più siti: e quindi chi ha ragione? Quale sito copia un altro?
    • altri siti prendono gli rss dal mio e quindi il contenuto viene duplicato

    Sul sito che hai preso in esame, scusami ma tutte le parti "soggettive" come la grafica più carina, non fanno posizionamento, ma in più ti posso aggiungere che quel sito si che copia il contenuto altrui, perchè gli annunci sono tutti di altri portali.


  • User Attivo

    @morettolss said:

    Anche infojobs,
    Hai preso in esame un sito che era in top 3, perchè non prendi gli altri due? Uno in particolare vedrai che, grafica a parte (è soggettiva), non ha assolutamente nulla, eppure è nella top 3.

    @morettolss said:

    Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.
    Si ma non ci siamo, io non voglio fidelizzare un utente, io ho solo aperto la discussione sul fatto che con la serp "cerca lavoro" il mio sito è sceso dalla prima alla seconda pagina, punto. Se ci sono situazioni tangibili per cui questo è accaduto (errori nel codice?) allora ok, ma in altro modo, scusa ma grafica o servizi correlati c'entrano poco, soprattutto quando uno dei siti presenti è identico e anzi con meno funzioni/qualità/ecc...


  • User Attivo

    Una grafica carina e facilmente navigabile può avere dei vantaggi incredibili. Primo fra tutti l'utente naviga facilmente nel sito e trova quello che cerca, poi potrebbe ottenere link da siti di design. Non possiamo limitarci a vedere il posizionamento in un modo ferreo, ciò che rende il sito migliore aiuta in un modo o nell'altro il posizionamento.

    Per i contenuti duplicati parlo vedendo le cose dalla parte di Google, se in una classe ho 2 compiti uguali, uno dei due studenti è sempre andato bene e l'altro no per me ha copiato il secondo, stesso ragionamento che fa Google (anche se sbaglia parecchio). Per cui non pongo il problema dal punto di vista dell'utente o di chi ha copiato realmente chi ma pongo il problema da parte di un esaminatore che ha altri parametri per valutare.

    Grafica, usabilità e funzioni centravano poco qualche anno fa, oggi sono un elemento da prendere in seria considerazione. Altrimenti ci basiamo solo e solamente sui link e la facciamo finita li. Il web si evolve così come l'utente e i motori di ricerca, il motivo di un calo può non essere dato da una penalizzazione ma dal fatto che ci siano siti migliori.

    Non è detto che se un sito cala è per colpa di un errore, ma può semplicemente essere inadatto per chi cerca quelle cose. Se continuiamo a guardare le cose solo dal punto di vista del codice e senza pensare all'utente non è possibile uscirne.


  • User Attivo

    Quindi in sostanza mi dici che un codice pulito e snello passa in secondo piano se c'è una navigazione buona ed una grafica gradevole. Parafrasando vuol dire che dei metri di valutazione oggettivi (codice) valgono meno dei metri di valutazione soggettivi (grafica o navigazione)?

    A me sembra strano, ed una delle conseguenze sarebbe quindi la sparizione delle landing page, magari fatte ad hoc per un singolo termine o frase.

    Io comunque non capisco, se il mio dilemma è il posizionamento su Google con una certa parola/frase, perchè tu punti su fattori che invece puntano alla fidelizzazione utente? Non credo che siano cose correlate.

    Sulla questione dei duplicati invece lascio perdere perchè credo che sia uno dei peggiori problemi di google, cioè non capire mai quale sia la vera fonte, anche se, algoritmo per algoritmo, permettimi di pensare che se un sito (diciamo aggregatore), ha 1000 risultati e tutti e 1000 sono duplicati presenti in altri 50 siti (quelli da cui pesca), allora non ci vuole Chuck Norris per capire che quel sito sta copiando i contenuti.

    Tanto più che gli aggregatori sono MATEMATICAMENTE riconoscibili poichè alla fine hanno un link per ogni contenuto copiato, mentre il sito di origine non avrà mai un link all'aggregatore. O sbaglio?


  • User Attivo

    Un codice pulito è essenziale, ma anche una buona grafica fa la sua parte, serve tutto.

    Posizionamento non è solo avere un codice pulito, ma è l'insieme di tantissimi fattori, fra cui alcuni soggettivi. L'utente ha scelta, devi portarlo da te perché sei il migliore. E questo significa che devi avere un buon sito.

    Ti faccio un esempio: se hai due supermercati, uno bello e ordinato, l'altro disordinato e brutto dove vai? I siti web sono la stessa cosa e Google sta acquisendo sempre più la capacità di scegliere il supermercato migliore, esattamente come sceglierebbe un essere umano. Il motore di ricerca non vuole offrirti il sito tecnicamente migliore ma quello che l'utente sceglierebbe (se io mi trovo meglio su un supermercato mica vado nell'altro perché ha 5 prodotti in più).

    Il contenuto copiato non è il male più assoluto, aggregatori che funzionano bene sono utili, perché Google che cerca di premiare le cose utili dovrebbe penalizzarli. E' come dire: il supermercato che al suo interno ha 100 negozi non è buono, perché questi 100 negozi sono come i 100 che trovo all'esterno. Ma nel supermercato li ho suddivisi per zona e faccio un confronto più rapido. Vai al supermercato o in ognuno di questi 100 negozi? Personalmente scelgo il secondo.

    Google non è la maestra che punisce i cattivi o premia i buoni, Google si occupa di consigliarti il sito migliore per quello che stai cercando e se quel sito è tecnicamente ineccepibile ma c'è ne un altro che offre qualcosa in più ed è più utile, di più rispetto al primo, nonostante abbia qualche errore, Google ti mostra quest'ultimo.

    Non stiamo parlando della matematica che fa 1+1, ma di una matematica che è in grado di identificare che parma è una città, una squadra di calcio e un'università. Possiamo parlare di intelligenza artificiale (passatemi il paragone, ci siamo distantissimi ma è per rendere l'idea).

    Se tutto si basasse secondo il tuo ragionamento basterebbero qualche link a tema, un sito tecnicamente ben realizzato e anche se non offre nulla quel sito può trovarsi in prima posizione. Non mi sembra funzioni così (per fortuna), sarebbe troppo semplice.

    Google vuole un sito di qualità che offra un valore, non basta che il sito sia tecnicamente perfetto.


  • User Attivo

    Boh, io non penso che google arrivi a tanto. Potrei dimostrarti dati alla mano che ci sono migliaia di serp fatte con titoli di articoli ed il primo risultato è un aggregatore (scadente tra l'altro), mentre il sito fonte è a fondo della prima serp oppure al primo posto della seconda pagina. Questo mi fa capire che google è fallace, molto fallace. E non parlo di aggregatori con pr o trust alto ma di aggregatori scadentissimi, con pr che se è tanto arrivano a 2 e che non hanno la benchè minima logica di esistere.

    Però evidentemente copiare in alcuni casi paga.

    EDITO: questo per dire che sono dell'idea che google non sia in grado di prendere delle decisioni come una persona, che fallace quanto vuoi, almeno sarebbe senziente e sarebbe in grado di determinare se un sito è veramente più meritevole di un'altro

    Comunque non hai risposto alla mia domanda 😉
    Uno dei tre siti della mia serp è un "gemello" meno prestante, perchè secondo te lui è ancora li in posizione di top 3?


  • User Attivo

    Che Google sbagli non lo metto in dubbio, ma se noti le cose stanno migliorando un pochino alla volta. Se non si cambia mentalità pensando per ora è così la soluzione è semplice, ma di breve durata.

    Quel sito ha qualcosa in più ed sarà sicuramente più noto in rete rispetto al tuo. Non ho mai detto che sono gli unici fattori, ma che sono cose che vanno considerate.


  • User Attivo

    @morettolss said:

    Quel sito ha qualcosa in più
    Io questo qualcosa, se c'è, non lo trovo, sinceramente, cosa avrebbe in più?