- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Crollo inspiegabile senza aver fatto alcuna modifica
-
Scusa, il sito per noi è una sorta di laboratorio, non c'è intenzione di sviluppare alcunchè, altrimenti poi dovrebbe diventare un sito commerciale, e non è nelle intenzioni.
Quello che dici tu è giusto, se dovessimo fare del business su un sito simile, ma come giustamente dici, c'è troppa concorrenza, non vale la pena (in Italia poi...).
Quello che non capisco è il calo in serp, perchè se fai una ricerca ti renderai conto che con la key che ho inserito in scheda escono siti simili, ed uno molto simile in particolare, che però analizzandolo non vedo cosa lo possa far preferire a google.Se il nostro ha qualcosa nel codice che non funziona ok, faccio ammenda, ma così com'è non capisco perchè con quella ricerca sia così distante dalla vetta. E' solo un problema di links? Allora solo la link popularity è importante per Google?
-
Non è solo una questione di link, gli altri siti hanno un qualcosa in più, anche se poco e già questo fa un'enorme differenza (vedi i link spontanei che possono nascere).
Il calo probabilmente è qualcosa di fisiologico, un buon sito prima o poi supererà sempre un sito di bassa qualità.
-
Morettolss, ribadisco, concordo con tanto di quello che dici ma non con l'ultimo tuo post, la query string è quella, e sinceramente i primi tre che escono, non trovo che abbiano altro che una linkpopularity oppure un trust rank, perchè in quanto a codice o contenuti duplicati penso non siano meglio, poichè il primo è un sito di annunci (quindi nemmeno con l'esclusiva del lavoro, come da stringa di ricerca), il secondo è identico, anzi, forse è persino meno google compliant e il terzo, seppur famosissimo, è un aggregatore, che in quanto a duplicati è leader direi...
Sto usando questo sito molto come "laboratorio", a meno che tu (o chiunque altro), sia in grado di dirmi "hai cazzato nel codice perchè ci sono cose che non devono esserci", io da questo test (iniziato a settembre, non oggi), ne deduco che anzianità del dominio, page rank, codice google compliant, siano solo degli accessori secondari alla link popularity, e questo mi induce a pensare che facendo un buon link building si possa passare avanti a tutti anche senza seguire le tanto decantate linee guida di google.
Questo in soldoni mi conferma, come in altre serp che ho "studiato", che se investi in pubblicità con acquisto link, se questi arrivano in modo "pseudo-spontaneo", puoi farla in barba a chiunque.
Sbaglio?
-
Prima o poi Google si accorgerà di questi link non spontanei e il sito verrà penalizzato. Magari riesci ad ingannarlo per un anno, ma poi verrai penalizzato e non ne uscirai facilmente.
Non penso che ancora oggi si possa pensare di basare la propria strategia sull'inganno, Penguin dovrebbe aver insegnato qualcosa.
-
Ciao Fabio, io sono d'accordo con morettolss, il problema più grosso del sito sono i contenuti duplicati e la mancanza di servizi originali che tengono il pubblico incollato al tuo sito e che generano segnali genuini (backlinks naturali e segnali social).
Non capisco il discorso sul laboratorio: proprio perché per te è un test, una palestra, dovresti trovare il tuo modo di sviluppare un'offerta informativa e originale che poi potrai replicare in altri siti.Il posizionamento di un sito oggi non è determinato affatto da un codice html misterioso che ci tramandiamo in seofestini riservati solo agli adepti, bensì da una ben studiata strategia di content marketing.
Dopo ovviamente è anche importante l'ottimizzazione del codice, ma senza i contenuti potrai ottimizzare quanto vuoi il codice ma non otterrai mai risultati.Valerio Notarfrancesco
-
Forse mi sono spiegato male, io sto facendo delle prove, voglio capire alcune dinamiche e l'obiettivo era solo ed esclusivamente quello di posizionare il sito in cima (o comunque nella top 10), per le ricerche "cercalavoro" e "cerca lavoro", perchè essendo il nome stesso di sito e dominio, ritenevo fosse piuttosto semplice.
Infatti, (adesso sfruttando anche ahrefs!!!), ho conferma che fino ai primi di novembre il sito era posizionato in 2° con "cercalavoro" ed in 4° con "cerca lavoro". da metà novembre ad oggi è "caduto" in 4° e 14°.
Non credo che google basi il suo posizionamento sui servizi che offre il sito, quelli sono più user-oriented. No?
Comunque, azzeriamo, secondo voi con quelle ricerche quindi i primi (diciamo 3) risultati escono perchè hanno servizi innovativi e/o perchè hanno fatto campagne marketing?
-
@vnotarfrancesco said:
Non capisco il discorso sul laboratorio: proprio perché per te è un test, una palestra, dovresti trovare il tuo modo di sviluppare un'offerta informativa e originale che poi potrai replicare in altri siti.
No Valerio, non dobbiamo vendere nulla, è un laboratorio a livello di struttura html, di efficacia del codice, di codice validato e corretto, e, internamente, anche di test delle funzionalità dei db e delle nostre applicazioni.
-
Ah oh allora è diverso.
Però in questo caso metti in secondo piano il discorso posizionamento, fai solo test sul codice, sulle prestazioni delle pagine, i tempi di caricamento, la visualizzazione su mobile, ecc. eccValerio Notarfrancesco
-
Mhm... si e no, insomma, diciamo nel nel tutto, il fatto di essere in prima pagina di google non mi offendesse, semmai mi ha offeso esserne uscito
-
Se vuoi posizionarti non c'è allora altra strada se non quella già suggerita da morettolss.
Valerio Notarfrancesco
-
Ma qual è l'assioma tra fidelizzazione utente ed indicizzazione su google?
Morettolss propone degli interventi volti a fidelizzare gli utenti, e questa è un'azione che potremmo definire commerciale o marketing.
Io invece punto solo su un'azione tecnica (e magari semantica) volta a far si che se uno cerca la stringa che contiene il mio nome, sulla prima serp esca il mio nome, fino al 16 novembre era così, dal 17 ha iniziato a scendere.
Ora, quello che noto è che sicuramente google viene influenzato dalla frequenza di aggiornamento, ne deduco che se un sito di questo tipo viene aggiornato tutti i giorni, costantemente, acquisisce più valore agli occhi del motore.
Questo però non va in sintonia con la questione contenuti duplicati. Uno dei primi tre siti della serp è un notissimo aggregatore, ecco, quello che non mi è chiaro è il motivo per cui Google sia andato a punire gli aggregatori di notizie (giustamente direi, almeno in alcuni casi), ma gli aggregatori di annunci invece non abbiano subito la stessa sorte, anzi.
-
Google ha punito gli aggregatori di notizie di bassa qualità, cioè quelli che ripubblicavano diverse fonti senza una logica. Quei siti che invece catalogavano le news, le gestivano e le proponevano con un valore aggiunto non sono stati penalizzati.
Dobbiamo sempre ricordarci che lo scopo di Google non è punire nessuno, ma è offrire dei risultati migliori e più pertinenti.
Prendiamo un portale turistico, la maggioranza di questi copiano le descrizioni dai vari siti di hotel, eppure sono molto spesso in cima. Questo perché se io cerco un hotel preferisco trovarmi di fronte ad una lista ben fatta che dovermi visionare 100 siti di hotel uno per uno.
Quindi nel caso di un portale turistico io cerco un sito con dei filtri, con le informazioni complete, che magari mi aggiorni sulle offerte.
Ed ecco che io mi trovo bene con questo sito, quindi quando un mio amico mi chiederà un consiglio per soggiornare nella stessa località dove sono andato io gli linkerò quel sito. Magari ho anche un blog personale e parlo del sito anche li, citandolo durante il post relativo alla mia vacanza. Poi ricevo sempre la newsletter con le offerte, ogni tanto ci clicco e visito direttamente quel sito.
Come vedi un sito di qualità non solo piace a Google ma piace all'utente che creerà link naturali di qualità. In questo modo torna tutto quanto e si tratta di una strategia a lungo termine. Essere nei primi posti su Google non significa più creare solamente qualche link, magari funziona, ma funziona sempre per meno tempo. L'utente è sempre più social ed esigente e bisogna offrirgli quello che cerca.
-
Stiamo andando fuori tema, un sito turistico per mettere gli hotel chiede soldi, non li pesca dagli rss. E anche se lo facesse gratis, andrebbe comunque fatto un gran lavoro di ricerca e popolamento di un database con i dati di ogni hotel.
Un aggregatore di notizie o annunci invece non fa altro che prendere gli rss e ripubblicarli sul web, lo trovo un sistema parassitario in quanto popola il proprio sito con i contenuti altrui.Unico tipo di aggregatore che potrebbe essere sensato è quello che magari parla di un argomento specifico, che so, il riciclo della plastica, e sul suo sito pubblica estratti di articoli presi da qualsiasi fonte, ma che trattino esattamente di quell'argomento, ed in questo caso se voglio avere informazioni su questo tema ci trovo tutto quello che dovrei trovare, ma questo è l'unico caso.
Comunque siamo andati oltre, avevo aperto la discussione solo per capire se il mio sito aveva qualcosa di anomalo nella pagina principale dal momento che, a mio avviso inspiegabilmente, dal 17 novembre è progressivamente sceso dalla 4° alla 14° posizione della serp "cerca lavoro" (e il sito si chiama www .cercalavoro.com).
AGGIUNGO: anche perchè non vedo nelle prime posizioni alcun sito che abbia delle caratteristiche tali da doversi posizionare prima del mio (stante il dominio). Non spaziamo nel campo della fidelizzazione utente, perchè anche li, in quella serp i primi risultati non hanno alcun sistema che fidelizzi l'utente e che possa essere messo in relazione con il posizionamento di quella serp.
-
Esistono portali turistici che fanno tutto gratis o fanno pagare solo i banner o guadagnano con le affiliazioni delle OTA, il business model non è solo uno. Inoltre il mio voleva essere solo un esempio.
Google News è un'aggregatore parassitario, secondo la tua definizione, eppure è di Google. Infatti Google News inserisci le news in categorie e ne premia la qualità. Questo può essere un'altro caso di un aggregatore di qualità.
Se cerchie nel forum dal 17 novembre sono calati in molti, senza che ci sia stata una penalizzazione precisa o una aggiornamento. Non c'è nulla che violi il regolamento (almeno ad una prima analisi), se non il contenuto non unico.
Gli altri siti hanno qualcosa in più. Come l'autocompletamento delle località o del mestiere, più settori, l'iscrizione alla newsletter, canali social, una grafica più accattivante, una navigazione più intuitiva, la ricerca è una cosa primaria, da te nella sidebar sembra una cosa secondaria... Sono piccole cose che fanno la netta differenza. Personalmente mi affiderei ad uno degli altri siti rispetto al tuo.
-
@morettolss said:
Se cerchie nel forum dal 17 novembre sono calati in molti, senza che ci sia stata una penalizzazione precisa o una aggiornamento. Non c'è nulla che violi il regolamento (almeno ad una prima analisi), se non il contenuto non unico.
Ecco questa è già una risposta più interessante, almeno mi conferma l'elemento aleatorio di alcune dinamiche nell'algoritmo.@morettolss said:
Gli altri siti hanno qualcosa in più. Come l'autocompletamento delle località o del mestiere
Ma non credo sia discriminante per il posizionamento
@morettolss said:
più settori
i primi tre nella serp non hanno settori, solo un campo di ricerca libera, io ho entrambi
@morettolss said:
l'iscrizione alla newsletter, canali social, una grafica più accattivante, una navigazione più intuitiva
Anche questi credo siano criteri soggettivi e non determinanti per google (comunque il social c'è)
@morettolss said:
la ricerca è una cosa primaria, da te nella sidebar sembra una cosa secondaria
Scusa ma anche qui non sono d'accordo, io offro una ricerca combinata di tre fattori (settore, area geo, campo libero) che possono essere usati tutti o nessuno o solo alcuni, poi offro una panoramica con le città, le provincie, le regioni ed i settori con il numero di annunci presenti in ognuna di queste categorie, ribadisco, i primi tre siti della serp non hanno nulla di tutto questo, tu metti la mansione che ricerchi e l'area geografica, basta, anzi, uno di questi non ti da nemmeno la possibilità di scegliere l'area geografica
@morettolss said:
Sono piccole cose che fanno la netta differenza. Personalmente mi affiderei ad uno degli altri siti rispetto al tuo.
Di quello che hai detto, permettimi, la differenza l'avrei dovuta fare a mio favore, e l'unica discriminante che posso dare per buona è la QUANTITA' di annunci, però sai, se cerco webdesigner e mi esce come primo articolo uno di gennaio 2011 (il secondo di dicembre 2010)....allora mi chiedo quanto valga in sito di annunci che mi da dei risultati vecchi di 1 o 2 anni, eppure è nella top 3.Non voglio essere pignolo eh, però mi piace essere preciso, e secondo me o non avevi visto i siti (parlo solo dei primi 3 senza farla lunga) o forse hai sbagliato le valutazioni, no?
-
Facciamo un esempio pratico, prendiamo jobrapido e mettiamo i 2 siti a confronto.
Jobrapido ha una grafica più carina e curata, in home la ricerca è al centro, offre un filtro che è la distanza ed offre l'iscrizione alla newsletter. Inoltre aggrega più fonti e manda l'utente li.
Il tuo sito ha una grafica più spartana, la ricerca non è al centro di tutto, non ha il filtro sulla distanza, non ha una newsletter. Il contenuto è copiato e non cita la fonte.Fra i due secondo me offre più servizi l'altro.
Di discriminante nel posizionamento c'è ben poco, sono moltissimi fattori messi assieme, se si ragiona in questo modo dicendo "ma tanto conta poco" non si va da nessuna parte perché praticamente tutto conta poco, ma goccia dopo goccia il vaso si riempie.
Di soggettivo c'è ben poco, la grafica può essere soggettiva ma i servizi o ci sono o no. Google ormai è in grado di analizzare al meglio un sito web, non ne legge solo il contenuto ma lo valuta completamente. Siamo arrivati al punto che Google è in grado di predire cosa cercheremo, oppure è in grado di correlare la parola "puma" all'animale o alla marca.
Sempre parlando di jobrapido ha le città più cercate e il filtro per la distanza è molto utile.
Se guardi i siti da un utente inesperto che cerca un lavoro e approda gli altri offrono un qualcosa in più che è essenziale, anche se non è discriminante è utilissimo.
Anche infojobs, kijiji o subito offrono qualcosa in più, fidelizzare l'utente e proporgli qualcosa di diverso e utile è la chiave vincente.
Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.
-
@morettolss said:
Il contenuto è copiato e non cita la fonte.
Ci tengo molto a precisare solo questo punto. Sul mio sito il contenuto non è copiato, gli annunci sono inseriti da aziende che si devono registrare, quindi se l'annuncio risulta copiato, può dipendere da soli 2 fattori:
- l'azienda ha pubblicato lo stesso annuncio su più siti: e quindi chi ha ragione? Quale sito copia un altro?
- altri siti prendono gli rss dal mio e quindi il contenuto viene duplicato
Sul sito che hai preso in esame, scusami ma tutte le parti "soggettive" come la grafica più carina, non fanno posizionamento, ma in più ti posso aggiungere che quel sito si che copia il contenuto altrui, perchè gli annunci sono tutti di altri portali.
-
@morettolss said:
Anche infojobs,
Hai preso in esame un sito che era in top 3, perchè non prendi gli altri due? Uno in particolare vedrai che, grafica a parte (è soggettiva), non ha assolutamente nulla, eppure è nella top 3.@morettolss said:
Prova a proporre ad un utente la scelta fra il tuo sito e gli altri e vedi che sceglierà gli altri.
Si ma non ci siamo, io non voglio fidelizzare un utente, io ho solo aperto la discussione sul fatto che con la serp "cerca lavoro" il mio sito è sceso dalla prima alla seconda pagina, punto. Se ci sono situazioni tangibili per cui questo è accaduto (errori nel codice?) allora ok, ma in altro modo, scusa ma grafica o servizi correlati c'entrano poco, soprattutto quando uno dei siti presenti è identico e anzi con meno funzioni/qualità/ecc...
-
Una grafica carina e facilmente navigabile può avere dei vantaggi incredibili. Primo fra tutti l'utente naviga facilmente nel sito e trova quello che cerca, poi potrebbe ottenere link da siti di design. Non possiamo limitarci a vedere il posizionamento in un modo ferreo, ciò che rende il sito migliore aiuta in un modo o nell'altro il posizionamento.
Per i contenuti duplicati parlo vedendo le cose dalla parte di Google, se in una classe ho 2 compiti uguali, uno dei due studenti è sempre andato bene e l'altro no per me ha copiato il secondo, stesso ragionamento che fa Google (anche se sbaglia parecchio). Per cui non pongo il problema dal punto di vista dell'utente o di chi ha copiato realmente chi ma pongo il problema da parte di un esaminatore che ha altri parametri per valutare.
Grafica, usabilità e funzioni centravano poco qualche anno fa, oggi sono un elemento da prendere in seria considerazione. Altrimenti ci basiamo solo e solamente sui link e la facciamo finita li. Il web si evolve così come l'utente e i motori di ricerca, il motivo di un calo può non essere dato da una penalizzazione ma dal fatto che ci siano siti migliori.
Non è detto che se un sito cala è per colpa di un errore, ma può semplicemente essere inadatto per chi cerca quelle cose. Se continuiamo a guardare le cose solo dal punto di vista del codice e senza pensare all'utente non è possibile uscirne.
-
Quindi in sostanza mi dici che un codice pulito e snello passa in secondo piano se c'è una navigazione buona ed una grafica gradevole. Parafrasando vuol dire che dei metri di valutazione oggettivi (codice) valgono meno dei metri di valutazione soggettivi (grafica o navigazione)?
A me sembra strano, ed una delle conseguenze sarebbe quindi la sparizione delle landing page, magari fatte ad hoc per un singolo termine o frase.
Io comunque non capisco, se il mio dilemma è il posizionamento su Google con una certa parola/frase, perchè tu punti su fattori che invece puntano alla fidelizzazione utente? Non credo che siano cose correlate.
Sulla questione dei duplicati invece lascio perdere perchè credo che sia uno dei peggiori problemi di google, cioè non capire mai quale sia la vera fonte, anche se, algoritmo per algoritmo, permettimi di pensare che se un sito (diciamo aggregatore), ha 1000 risultati e tutti e 1000 sono duplicati presenti in altri 50 siti (quelli da cui pesca), allora non ci vuole Chuck Norris per capire che quel sito sta copiando i contenuti.
Tanto più che gli aggregatori sono MATEMATICAMENTE riconoscibili poichè alla fine hanno un link per ogni contenuto copiato, mentre il sito di origine non avrà mai un link all'aggregatore. O sbaglio?