• User Attivo

    Ti capisco, io dopo gli scherzi degli anni scorsi ho cominciato a guardare più seriamente gli altri motori, Yahoo e Bing su tutti ovviamente.
    Bing oggi è quello che da i risultati più performanti se cerco qualsiasi cosa, su Google invece capita spesso di trovare nella prima SERP delle informazioni di 3-4 anni fa...ed è tutto dire su quanto sia migliorato nell'ultimo anno Google...

    Le Google news non so dirti quanto portino a noi, comunque nel complesso meno di Facebook, ed è singolare visto che abbiamo meno di 5000 iscritti alla pagina del sito, mentre le Google News vengono viste da migliaia di utenti ogni giorno.

    Sulla riconsiderazione io invece temporeggio, l'ho fatto 2 anni fa...non ho avuto soddisfazione, per ora rimango in attesa...come i cinesi sul bordo del fiume.

    Ciao
    Fabio


  • Moderatrice

    A noi è la prima volta che sucede una roba del genere, due anni fa sei stato poi preso in considerazione? Hai abbandonato il progetto?

    P.S. Bing porta il nulla, sei riuscito ad avere traffico da Bing Italia?


  • User Attivo

    Noi abbiamo fatto la riconsiderazione due anni fa, non ho notato un cambiamento in meglio, è stato graduale, ma il traffico proveniente da Google di 2-3 anni fa non è più tornato tale, in compenso negli ultimi 2 anni è comunque cresciuto molto, quasi al pareggio, diciamo che per ogni 1000 utenti giornalieri da Google nel 2007-2008, nel 2009-2010 eravamo riusciti a riportarci almeno ad 800, quindi uno scarto del -20% circa.

    Oggi invece ogni 1000 utenti del 2007-2008, dopo il 22 ottobre posso dire che siamo sui 200, quindi -80% rispetto a quel periodo ma solo -60% rispetto al 2009-2010.

    Bing porta zero confronto a Google, anche Yahoo porta zero, però sono in crescita (soprattutto Bing), e forse qualcuno comincerà ad usarli di più se si renderà conto che sono efficaci.

    Come ho già scritto, su Google a volte ci sono risultati incongruenti, anche per il problema penalizzazione/seo/ecc, si trovano nella prima SERP articoli datati 2006-2007...assurdo, trovo risorse più recenti su Bing per esempio.

    Poi è logico, Google non cadrà per me e te, però stavolta di danni ne ha fatti molti, penso solo a tutti i siti di ecommerce... loro guadagnano su quello che vendono, e se non arrivano utenti non vendono nulla.


  • Moderatrice

    Ho letto oggi su un sito americano che lì i problemi post 22 ottobre, come da noi, continuano. Non so cosa aggiungere se non che anche oggi è come ieri. Articoli originali che non vengono mostrati neanche a parità di titolo, ad eccezione di Google News. Abbiamo una notizia in Google News oggi che è capofila con diverse parole chiavi mentre nell'organico non compare neanche con il titolo intero.
    Siamo sempre convinti che la colpa è dei contenuti duplicati??

    Ciao


  • User

    Se continuate a chiedere aiuto al forum ma non seguite le indicazioni, diventa difficile aiutarvi.
    Siamo partiti dal fatto che la home ha contenuto duplicato e la home continua ad avere contenuto duplicato.

    Non è difficile accorgersene.
    Basta prendere 5 parole dalla home page e fare copia incolla su google.

    Lo avete fatto?
    Tutti i paragrafi sono duplicati o perchè presi da altre fonti o perchè vi autoduplicate.

    La home infatti è copiata interamente su questa pagina
    fullpress.it/News/7-1.html
    e ci sono altre pagine interne che duplicano i soliti paragrafi.

    Potete rimettere apposto questa cosa?


  • Moderatrice

    Ma se l'occhiello dei nostri articoli presente sulla home non compare neppure nell'articolo, mi spieghi cosa ci autoduplichiamo??


  • User

    Fai come me
    prendi questo testo
    che è della tua home
    "F5 presenta una suite di soluzioni unificate per operatori" e cercalo su google
    cosa viene fuori nei motori di ricerca? La Home?

    Prendi quest'altro testo che è sempre nella tua home
    "Si assiepano dubbi e incertezze tra Sony Ericsson e Windows Phone 7"
    quanti risultati vedi in serp??

    Infine prendi questo
    sono sempre nella tua home
    ""Una soluzione completa di budget, forecast e pianificazione finanziaria perfettamente"
    in quanti siti vedi scritto questo testo??

    Perchè magari non lo vedi perchè ti stai collegando ad un dc diverso dal mio ma ti posso fare uno screen per farti capire.


  • User Attivo

    Scusa Deborahdc, ma questa duplicazione che vedo su Fullpress (e che è presente anche da noi) non è una duplicazione di contenuti.
    Tutte le home page hanno i titoli e gli occhielli degli ultimi articoli, e quei dati si trovano ovviamente sia nella pagina articolo che nella pagina della Categoria.

    Però dalla Home page spariscono giorno per giorno, mentre nelle pagine di Categoria scendono nelle posizioni inferiori.

    Questo procedimento è normalmente visibile anche su siti ben più importanti come Corriere.it, prova a vedere l'articolo della Corea del Nord, ha titolo e abstract/occhiello sia in home page, che nella pagina Esteri e ovviamente anche nella pagina dell'articolo stesso.


  • User

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?


  • User

    Ed inoltre: hai notato che in tutti questi esempi la home di fullpress non è presente in serp?
    Questo è un chiarissimo campanello di allarme.


  • Moderatrice

    Per "F5 presenta una suite di soluzioni unificate per operatori" non vedo nè FullPress, nè altri siti: ricerca con risultati non pertinenti. Probabilmente vediamo qualcosa di diverso, non posso inserire screeshot ma ho salvato la pagina che visualizzo.

    Invece per "Una soluzione completa di budget, forecast e pianificazione finanziaria perfettamente": lo vedo presente su altri siti ma quando l'abbiamo pubblicato e (fino a poco fa) non c'era. E qui torniamo al discorso dei comunicatori che attendono pubblicazione per poi smerciare ovunque.

    L'occhiello "Si assiepano dubbi e incertezze tra Sony Ericsson e Windows Phone 7" non è presente all'interno dell'articolo ma solo sulla home: è un testo personalizzato per comparire solo in home, non all'interno della pagina.

    Il discorso occhiello è comunque diventato valido per tutto: se c'è sulla home, non c'è all'interno dei pezzi.


  • User Attivo

    @collega-deborahdc said:

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?
    Ma perchè duplicazioni?
    Un articolo è formato da:

    • titolo
    • occhiello
    • corpo dell'articolo

    Nell'home page esce titolo+occhiello
    Nella pagina della Categoria esce titolo+occhiello
    Nella pagina dell'articolo esce titolo+corpo dell'articolo

    Per evitare duplicazioni cosa dovremmo fare scusa?
    Creare 3 titoli diversi e 2 occhielli diversi? Ma che senso ha?

    Scusa i siti di e-commerce che hanno random in home page dei prodotti, cosa devono fare allora?
    La scheda video Sapphire Radeon HD5750 non può mica cambiare nome e descrizione perchè esce in Home, in Categoria, in scheda prodotto.

    Per me i duplicati sono i contenuti che magari sono identici su siti diversi, oppure se ho 5-6 pagine che ripropongono sempre lo stesso contenuto, o sbaglio?

    Altrimenti non capisco come dovremmo organizzare le notizie, veramente non lo capisco.

    EDITO: ho fatto la prova che dicevi, in molti casi a me la "mia" home page esce, e sotto esce anche la pagina dell'articolo, ma non sempre


  • Moderatrice

    @collega-deborahdc said:

    ma voi non siete il Corriere e i casi di penalizzazione per duplicazione sono una realtà nota.
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?

    Siamo consci di non essere il Corriere.it ma se, come affermi, c'è stato un aggiornamento di Google perchè non spieghi a noi poveri editori come mai altri che NON SONO IL CORRIERE.IT escono tranquillamente nelle SERP?


  • Moderatrice

    @collega-deborahdc said:

    .
    Io non capisco una cosa: google ha fatto un aggiornamento adesso in merito alle duplicazioni, tutti qui nel forum vi abbiamo detto di togliere le duplicazioni, perchè non lo fate?

    E gli aggregatori? Come si pongono nei confronti dell'aggiornamento di Google nei confronti dei contenuti duplicati da te dichiarato? Per l'accezione del termine quello è il vero "contenuto duplicato" .


  • User

    fabio io non ho guardato il tuo caso quindi non ho assolutamente idea di cosa sia la tua penalizzazione.
    Quello che ho visto su full press e che puoi vedere anche tu guardando gli esempi che ho indicato sopra è che:

    • la home page non esce in serp
    • la home è duplicata da un'altra pagina identica
    • alcuni contenuti non sono originali.

    Questo è un dato di fatto ed è incontrastabile.

    Non sono io che detto le regole è google. Quindi a voi la scelta di seguire le sue regole oppure no.

    Noi siamo qui per aiutarvi.
    Voi potete decidere se seguire i consigli o meno.


  • User Attivo

    @collega-deborahdc said:

    fabio io non ho guardato il tuo caso quindi non ho assolutamente idea di cosa sia la tua penalizzazione.
    Quello che ho visto su full press e che puoi vedere anche tu guardando gli esempi che ho indicato sopra è che:

    • la home page non esce in serp
    • la home è duplicata da un'altra pagina identica
    • alcuni contenuti non sono originali.

    Questo è un dato di fatto ed è incontrastabile.

    Non sono io che detto le regole è google. Quindi a voi la scelta di seguire le sue regole oppure no.

    Ok ma infatti mi sto basando sullo stesso esempio di Fullpress, quello che dico è che se titolo+occhiello stanno in home, è anche normale che poi vengano ripresi nella pagina della categoria specifica di quella notizia.

    Allora quello che ti chiedevo, è, se mi puoi suggerire come ovviare a questa "duplicazione".

    Cioè, un articolo esce in home page con titolo+occhiello e ci rimane magari 4 ore, ma se l'articolo tratta di telefonia, nella sezione TELEFONIA ci sarà l'elenco degli articoli correlati, giusto?
    Quindi la pagina TELEFONIA avrà questa "duplicazione" con titolo e occhiello.

    Se questa è una duplicazione, ti chiedo di suggerirmi COME evitarla, perchè sinceramente l'unica cosa che mi viene è quella di cambiare titoli e contenuti da una all'altra.


  • Moderatore

    @FullPress said:

    E gli aggregatori? Come si pongono nei confronti dell'aggiornamento di Google nei confronti dei contenuti duplicati da te dichiarato? Per l'accezione del termine quello è il vero "contenuto duplicato" .

    🙂

    Ciao FullPress, ti rispondo io anche se non ho un grande aggregatore - Non sono Liquida, insomma.

    Premetto che il mio aggregatore accetta SOLO feed di bloggers che coscientemente decidono di iscriversi.

    Ebbene, gli aggregatori hanno 'naturalmente' una percentuale di pagine indicizzate pari ad una percentuale irrisoria rispetto a quelle che hanno nel db.

    Irrisoria. Non credo che tu debba quindi confrontarti con un aggregatore (e stiamo parlando di aggregatori di feed, non i social bookmarking che al limite hanno anche qualche contenuto originale...).

    Ma... teniamo in conto che il più grande aggregatore del mondo è proprio Google News... certamente 'quelli' non sono considerati dei duplicati.... eppure non è così.

    Perchè ad esempio per una determinata serp dovrei vedere la stessa pagina che occupa due posizioni, una con Google News e una con la URL originale?

    Chiaramente Google utilizza il suo aggregatore come preferisce...
    ... personalmente una cosa simile la noto anche con la blogsearch di Google.

    Soluzioni? ... Non lo so. Ma una buona idea potrebbe essere iscriversi al secondo più grande aggregatore del mondo - almeno per il momento.
    FriendFeed.

    Non per nulla comprato da FaceBook l'estate scorsa...


    Molte cose dette da FabioGentile sono assolutamente vere o verosimili.

    Ma ragazzi... il comando site: è stato letteralmente 'fatto a pezzi' già da mesi - almeno per come eravamo abituati ad utilizzarlo - ... allora vi assicuro che potete rileggervi tutti i casi di penalizzazione dal MayDay in poi (e cioè da fine aprile 2010), e letteralmente ne 'uscirete pazzi'.

    Il mio consiglio è: NON guardate più il site: fino a che la seosfera mondiale non avrà capito se e come utilizzarlo alla luce dei risultati 'bizzarri' che restituisce.

    :ciauz:


  • User Attivo

    @WWW said:

    Premetto che il mio aggregatore accetta SOLO feed di bloggers che coscientemente decidono di iscriversi.

    E infatti tu non fai testo, cioè, in senso buono intendo.
    Quello che constatiamo e CONTESTIAMO semmai sono i bloggers che COPIANO senza link di rimando corretto e gli aggregatori che raccolgono ovunque tramite xml o tecniche anche peggiori.

    Un sito come il tuo da visibilità ai bloggers, sperando che siano tutti bloggers onesti e non furboni che copiano in giro, mentre un sito di cui non faccio il nome, che aggrega ogni tipo di xml, fa danno invece.

    Alcuni aggregatori anche italiani, prendono l'xml con il titolo magari, e poi lo linkano ad un'altra pagina dove trovi titolo, parte del corpo dell'articolo, e link alla fonte.
    Capito il trucco? In pratica l'utente clicca sul titolo pensando di andare alla fonte e invece rimane nell'aggregatore, a quel punto magari si stufa anche così sulla fonte non ci va proprio.

    🙂


  • Moderatore

    No, ok, certo. Ma quello che volevo dire era semplicemente che la percentuale di pagine non indicizzate in un aggregatore è elevatissima.

    Ora, nel corso del 2010 direi che praticamente TUTTI i siti hanno subito una parziale deindicizzazione... o se preferite Google ha attivato dei filtri capaci di agire sugli indici, ANCHE in vista dei VERI ed ENORMI produttori di contenuti duplicati... che sono i SOCIAL MEDIA, ora come ora.

    I filtri attivati da Google sono in perenne testing ... ma a me sembra evidente che questi siano studiati - in via prevalente - per imbrigliare i contenuti prodotti dai vari social ed utilizzarli nelle serp in maniera 'ragionata'.

    Tutto ciò non toglie nulla ai problemi di autoduplicazione che un sito può avere (che poi è il nodo centrale di questo 3D).

    Quello che in ogni caso volevo dire è che se tutti i siti sono costretti a confrontarsi con questi nuovi filtri, è evidente che proprio i siti che hanno una più elevata percentuale di contenuti duplicati abbiano problemi del genere.

    Nell'ordine direi che un aggregatore riesce a mantenere in indice una percentuale abbastanza modesta dei post che fetcha.
    Un circuito per i comunicati stampa ha speranze migliori, ma ha ugualmente la probabilità di incappare in molti contenuti duplicati. Meno di un aggregatore e a seconda delle possibilità e delle risorse della redazione.

    In questo caso stiamo parlando di FullPress, che è senza dubbio uno dei circuiti più vecchi e più autorevoli in Italia... quindi sono certo che ci sono casi peggiori, quanto ad indicizzazione dei vari post.

    Nel tuo caso forse il problema è ancora più 'grave'... perchè se non sbaglio non accetti articoli dagli utenti/visitatori.

    Quindi non dovresti avere problemi di contenuti duplicati 'esterni' in nessun caso.


    Che ci siano gli scrapers o i bloggers dal copia e incolla.. okkei, è un altro discorso.

    Purtroppo è anche molto comune che i 'comunicatori' (come li chiama simpaticamente FullPress) siano i primi a 'spammicchiare' i loro contenuti a destra e a manca.

    🙂


    Il vero problema è che noi tutti siamo 'i piccoli' che vorrebbero avere il sito sgombro dagli articoli copiati-incollati, e possiamo essere severi quanto ci pare con i nostri utenti.... ma dall'altra parte i 'pesci grossi' di oggi sono questi enormi contenitori di tutto, questi networks giganteschi ed anomici in cui ciascuno si apre un profilo e 'comunica', cioè scrive e posta quello che crede.

    Lunga vita ai social networks, per carità, stanno rimettendo tutto in discussione... ma secondo me è importante anche capire che buona parte delle modifiche recenti degli algo di Google siano anche 'causate ed orientate ad integrare' la massa montante di informazioni prodotte dalle reti sociali in tutto il web.

    L'ottimizzazione puntuale dei singoli aspetti dei singoli siti è cosa sacrosanta: ma occorre tenere conto anche dei dati di fondo di un sito (come ricordava MrJinx con le sue dotte citazioni) e del contesto generale nel quale ci troviamo ad operare, nel 2010.

    Dico di più: avete presente quanti pezzi storici della rete non stiano riuscendo a sopravvivere a questa tempesta?

    Ultimamente seguo le vicende del nuovo Digg... ma proprio ieri mi è capitato di passare su BlogCatalog... che è proprio in rotta, secondo me.

    Insomma, anche per lanciare un vagito di ottimismo nel 3D... E' DIFFICILE per tutti, ma non è certo impossibile.

    🙂


  • Moderatrice

    @WWW said:

    ...
    🙂

    Ciao WWW, ti rispondo con i fatti (intanto ti ringrazio per la tuo cortese argomentazione).

    "Amazon.it arriva in Italia, senza Kindle"
    Questo articolo è originale, scritto da Maria Stefania Bochicchio della nostra redazione. Mi dici dove lo vedi duplicato? Occhio ai noindex follow. Ed occhio anche agli occhielli (scusa il gioco di parole). Se noti bene l'occhiello (testo subito dopo il link) dell'articolo in home page non viene ripetutto nello stesso articolo.

    Poi vai in Google e vedi che risultato ti restituisce, poi ne parliamo.

    Grazie
    Anna