• User

    @nbriani said:

    E invece si Promo, Google ha metodi migliori della GDF con i propri utenti che sbagliano ma che giudica bene! è un sistema sperimentale in uso da tempo per quei siti che utilizzano tecniche scorrete ma che sono giudicati "utili" da Google. L'avvertimento puo' arrivare per email o anche attraverso il proprio account della googlesitemap.... :ciauz:

    p.s. Sul forum troverai diversi thred al riguardo...

    Questa onestamente non la sapevo 🙂


  • User Attivo

    @buribus said:

    i post sul testo nascosto coi css mi rendono sempre inquieto.
    mettiamo il caso di un sito che presenta un header "grafico", contenente un'immagine di sfondo che rappresenta di fatto il titolo del sito, almeno per un utente normodotato: un non vedente pero', in questa situazione non si renderebbe conto nemmeno in che sito sta navigando.
    ....
    il caso in questione è secondo me da valutare, un uso dei css in buona fede, non per fini seo seo anche se in quel title alla fine qualche key c'è sempre...

    imho sarebbe ora che i signori di google tenessero in maggiore considerazione il fattore accessibilità, favorendo di fatto i siti rispettosi degli standard w3c, con layout non tabellari in cui contenuti e presentazione siano separati...vabbè sto andando off topic...

    Non sei off topic imho.
    La domanda che poni tu è ma se lo faccio senza intenzione, perchè dovrei essere penalizzato?.
    Vista da un realistico lato seo suona cosi': qual'è la soglia oltre la quale non mi posso spingere nel curvare una cosa legittima a fini di posizionamento?

    Premetto che ho mai visto un sito penalizzato per eccesso di accessibilità, FIR lo uso con soddisfazione, non ha mai fatto una piega e mi stupirebbe molto scoprirlo, anche se ultimamente i motivi di stupore non è che manchino.

    Ma vale la pena porsi il problema della soglia? Io non credo sia il testo in quanto tale ad essere penalizzato se nascosto (e trovato), ma lo stuffing ed eventualmente il sovraccarico seo on-page derivato, che è una delle cose più facili da descrivere e quindi da patternizzare, cosi' come le gerarchie innaturali degli Hx del resto. 4 if messi in croce e l'attività seo e bella e sgamata.

    Vedo anche siti che usano gli help contestuali in popup, fatti coi css e livelli nascosti che vanno alla grande. Sono legittimi? Non saprei per gg, secondo me anche si... è una stategia narrativa, discutibile fin che si vuole ma legittima.
    Immagina a quanta malizia seo puoi mettere in un livello nascosto visibile ad un onmouseover, che va a dettagliare un termine.
    Piu' o meno la stessa che puoi mettere facendo un glossario separato. Anzi meno secondo me. Il glossario si presta meglio e mi fa trama di link interni.

    Ma cmq sono scelte entrambe corrette se hanno un senso nel sito e per gli utenti, entrambe si prestano a curvature seo (anche esagerate), ed entrambe rischiano penalizzazioni se tirano la corda. Il testo nascosto ha lo svantaggio di rientrare in un pattern di spam, e probabilmente puo' tirare molto meno la corda.

    Il punto non è tanto il testo nascosto in sè, quanto le attività seo nascoste.

    Si sa di qualcuno penalizzato per uso di testo nascosto non a fini di posizionamento? Sarebbe interessante.

    Ciao.


  • Bannato Super User

    Must ha scritto:
    piuttosto, dimmi: ora che sei tornato nell'indice, il tuo posizionamento com'è rispetto a prima? peggio, uguale o meglio? azzo non trovo il quote]

    I posizionamenti + o - sono restati gli stessi !

    *:ciauz: *


  • User Attivo

    Come spesso accade è questione di percentuali io credo, se hai un sito di 200 pagine e dentro hai creato 50 pagine con testi nascosti sicuramente ti sega, ci sarà comunque una soglia di tollerabilità.

    Attenzione, qui parlo di spider automatici non di editor fisici, in questo caso ne può bastare una di pagine con testi nascosti in vari modi perchè si venga segati.

    Come l'amico Fabio dell'Orto sa bene, esistono parecchi modi per nascondere roba e per far si che gli spider non lo capiscano mai, il problema è sempre l'editore umano che se ci capita o ce lo mandano sei del gatto.

    Si deve fare sempre un calcolo benefici/problemi, se sei uno spammer te ne freghi perchè crei siti nuovi che rimpiazzano i vecchi ad un ritmo frenetico e se il sito ti sta su un mese o due hai già guadagnato abbastanza, se invece hai siti "seri" o comunque che non vuoi rischiare è molto sconsigliato al momento usare tecniche borderline.


  • User Attivo

    @Catone said:

    Bah, credo centri la percentuale di testo nascosto, oltre all'ajax, spesso è necessario per realizzare pagine più accessibili o popup a scomparsa in puro css.

    basta che in quelle situazioni non ci sia keywords stuffing


  • Super User

    @Dell'Orto Fabio said:

    Must ha scritto:
    piuttosto, dimmi: ora che sei tornato nell'indice, il tuo posizionamento com'è rispetto a prima? peggio, uguale o meglio? azzo non trovo il quote]

    I posizionamenti + o - sono restati gli stessi !

    *:ciauz: *

    come volevasi dimostrare 🙂


  • User Attivo

    io come altri penso che usare in buona fede tecniche conformi allo standard w3c non dia nessun problema.


  • User

    Il sito messo in trentena 😞 comunque aveva solo del testo nascosto in home page e non nelle altre 50 pagine. Quindi direi che non importa l'incidenza sul totale delle pagine, ma forse sulla pagina singola e soprattutto se è la home page.
    Attendiamo ora la reinclusione e vi farò sapere se i posizionamenti acquisiti saranno cambianti in meglio o peggio.


  • Super User

    @rfilippini said:

    Il sito messo in trentena 😞 comunque aveva solo del testo nascosto in home page e non nelle altre 50 pagine. Quindi direi che non importa l'incidenza sul totale delle pagine, ma forse sulla pagina singola e soprattutto se è la home page.
    Attendiamo ora la reinclusione e vi farò sapere se i posizionamenti acquisiti saranno cambianti in meglio o peggio.

    quoto soprattutto soprattutto se è la home page 🙂
    poi facci sapere. secondo me tornerá + o - dove stava...


  • User Attivo

    @must said:

    quoto soprattutto soprattutto se è la home page 🙂
    poi facci sapere. secondo me tornerá + o - dove stava...

    Riquoto alla grande.
    Lo spam in home significa amare il rischio, tipo mettere le faccine 🙂 alla fine del kw-stuffing kw1, kw2, kw3, ehi ragazzi della google spam-squad.. come butta? spero bene 😉 ciao, kw4, kw5, kw6 🙂

    Il problema ora imho è cercare qualche bel link pesante che aiuti a riconsolidare rapidamente l'immagine per il MdR e dia un po' di boost al rientro.... e poi sedersi sulle mani 🙂 fino a che non si è ricomposta bene l'immagine e tutto si è stabilizzato.

    Son convinto anche io che tornerà tutto + o - uguale... fermo un giro di giostra.

    Per restare sullo scherzo, la prossima volta che, volendo per principio passare in centro a 100 all'ora vedi un vigile, e hai il dubbio se si sia operato o no alla cataratta ... meglio fare un test. Lo si avvicina con un pretesto e gli si chiede scusi sia gentile, non vedo bene, mi sa dire cosa c'è scritto a caratteri minuscoli in questo foglietto?
    Se non ti sa rispondere prendi la moto e vroooOOOOoM... fatta!
    😄
    Suerte, ciao.


  • User

    Il testo nascosto non era fortemente spam, anzi, le kw di interesse erano inserite in un paragrafo, e la percentuale non era elevata. L'unica cosa che poteva essere dubbia, era appunto il testo nascosto tramite stile css. Ma come detto anche da altri, a volte si utilizza testo nascosto per non alterare la grafica della pagina o se una pagina contiene solo un filmato in flash. Non trovo giusto questo potere di Google, che sembra la buona mamma, e che ti riprende se trova qualche tuo errore.

    Che dire poi quando invece troviamo siti veramente spam, e che sono presenti con parole chiave di forte ricerca, e al primo posto in Google (e da molto tempo) ?

    Vedi esempio: lista di nozze

    Il primo sito è un chiaro esempio di come si dovrebbe operare? Altro che sfrecciare davanti al vigile a 100 all'ora, in questo caso è come passargli davanti a 200 all'ora, ritornare indietro, mandarlo a quel paese, e dargli una testata! (che in questo periodo è di moda...!)


  • User Attivo

    @rfilippini said:

    Non trovo giusto questo potere di Google, che sembra la buona mamma, e che ti riprende se trova qualche tuo errore.

    Che dire poi quando invece troviamo siti veramente spam, e che sono presenti con parole chiave di forte ricerca, e al primo posto in Google (e da molto tempo) ?

    Vedi esempio: lista di nozze

    Google è una impresa privata e si muove come meglio crede.
    Quello che dici è vero, lo spam vecchio è duro a morire, ma considera che il fattore tempo fa spesso premio sull'efficenza dell'algoritmo. Se vai sul primo risultato che appare per la query che citi e metti un bel javascript:alert (document.lastModified) nella finestra indirizzo del browser vedrai come la pagina abbia almeno 6 anni abbondanti (senza mai essere stata toccata)... in rete è una enormità, è piu' che vecchia, è antica.

    In piu' gg mostra solo due inbound link, ma molto pesanti: yahoo directory e repubblica.

    Non sarei cosi' definitivo nel dire che è primo per lo spam e non per altro. Servirebbe la controprova, guarda che un sito che si chiama listadinozze ed è linkato da repubblica e yahoo directory (di fatto con la kw nel testo ancorato) ha già fatto 3/4 del lavoro. Bastano dei title sensati e il cerchio è chiuso.
    intitle:kw dice che ci sono un paio di decine di migliaia di documenti nel db di gg... non è esattamente un settore a competizione estrema.

    Insomma si potrebbe dire che probabilmente è primo malgrado lo spam e non grazie allo spam.

    Ciao.


  • Super User

    @pieropan said:

    Insomma si potrebbe dire che probabilmente è primo malgrado lo spam e non grazie allo spam.

    quoto.


  • Super User

    @pieropan said:

    Premetto che ho mai visto un sito penalizzato per eccesso di accessibilità, FIR lo uso con soddisfazione, non ha mai fatto una piega e mi stupirebbe molto scoprirlo, anche se ultimamente i motivi di stupore non è che manchino.

    Ma vale la pena porsi il problema della soglia? Io non credo sia il testo in quanto tale ad essere penalizzato se nascosto (e trovato), ma lo stuffing ed eventualmente il sovraccarico seo on-page derivato, che è una delle cose più facili da descrivere e quindi da patternizzare, cosi' come le gerarchie innaturali degli Hx del resto. 4 if messi in croce e l'attività seo e bella e sgamata.

    Vedo anche siti che usano gli help contestuali in popup, fatti coi css e livelli nascosti che vanno alla grande. Sono legittimi? Non saprei per gg, secondo me anche si... è una stategia narrativa, discutibile fin che si vuole ma legittima.
    Immagina a quanta malizia seo puoi mettere in un livello nascosto visibile ad un onmouseover, che va a dettagliare un termine.
    Piu' o meno la stessa che puoi mettere facendo un glossario separato. Anzi meno secondo me. Il glossario si presta meglio e mi fa trama di link interni.

    Ma cmq sono scelte entrambe corrette se hanno un senso nel sito e per gli utenti, entrambe si prestano a curvature seo (anche esagerate), ed entrambe rischiano penalizzazioni se tirano la corda. Il testo nascosto ha lo svantaggio di rientrare in un pattern di spam, e probabilmente puo' tirare molto meno la corda.

    Quoto ed aggiungo soltanto che, secondo me ed escludendo l'intervento dei GQR, del testo "aggiunto" in modalità conforme all'utilizzo di tecniche come "popup di approfondimento" o visualizzazione di blocchi di testo differenziati difficilmente può venire "sgamato" dagli algoritmi, a patto che il testo sia, per l'appunto, ben costruito ed in tema con l'argomento della pagina.
    Questo anche se le parti di codice che poi dovrebbero rendere visibili i vari blocchi non esistono proprio.

    Chiaramente questo vuol dire mettersi volontariamente in una zona d'ombra abbastanza pericolosa senza sapere né quando né come verrà illuminata.
    Se questo è chiaro ognuno si regola come vuole per i vari siti su cui lavora.


  • User

    Concludendo la discussione, potremmo quindi definire i testi nascosti sempre e comunque a rischio. Anche se ripeto, molta gente li utilizza ancora.
    Comunque nel codice SEO, ci si dovrà sempre focalizzare su contenuti e link autorevoli. Esatto?! Almeno per questo periodo, poi vedremo nel futuro.


  • Super User

    si, io direi che in estrema sintesi:
    il posizionamento ieri era basato sul keyword stuffing, doorpage, meta keywords, etc...
    il posizionamento oggi su contenuti + backlink
    il posizionamento domani (previsione fatta su due piedi) su traffico e comportamento utenti


  • User

    il posizionamento dopodomani (2030) Messaggi video, passaparola, organizzazione eventi, cene con google local, utilizzo di tutti i servizi dei motori di ricerca! 🙂


  • User

    Confermo oggi la reinclusione del sito che era stato escluso per il testo nascosto. Quindi possiamo dire che è stato mantenuto fuori dagli archivi di Google per circa 6 giorni invece dei 30 indicati dalla email. Probabilmente avranno constatato che era solo un problema su 1 pagina e l'ho sistemata immediatamente dopo loro segnalazione. 🙂

    Da una prima veloce analisi mi sembra che i posizionamenti siano anche migliorati leggermente, ma forse ciò potrebbe anche essere dovuto all'ultimo google update di qualche giorno fà.


  • User Attivo

    Mah! Io vi parlo da profano in quanto sono solo sei mesi che mi sono avvicinato al SEO, da semplice visual design e web master. Secondo me, e fatemi essere malizioso, non so a Google quanto gli convenga eliminare il vecchio spam in Key competitive visto che propone il Pay Per Click (Mi fa pensare un po a Galliani presidente di Milan e Federcalcio) Che si dica che i siti "anziani" siano i prediletti rispetto ai nuovi sono d'accordo ma vedendo l'esempio delle liste di nozze un po mi in...zo! Perchè per quanto il sito sia anziano non rispetta minimamente le linee guida sulle quali noi ci sbattiamo la testa... purtroppo in tutte le cose dove girano i guadagni ci sono le magagne e non prendetemi per retorico... Google dovrebbe premiare i siti accessibili e usabili perchè possono rispondere ad una maggiore utenza e dare informazioni a qualunque tipo di visitatore... ora voglio farvi una provocazione... l'attributo "summary" del tag "table" è molto utile per i non vedenti in quanto il browser vocale ne legge il contenuto che dovrebbe appunto riassumere il contenuto della pagina... secondo voi Google lo tiene in considerazione? Secondo me non lo valuta proprio come non valuta il no-embed e come valuta una caccola quello che mettiamo nella nuova sintassi dell swf col javascript del quale mi sfugge il nome... allora Google dovrebbe spiegarmi che se nn uso un div di approfondimento nascosto e visibile solo se l'utente clicca su "prosegui" come faccio ad indicizzare una pagina in flash e che il cliente vuole in flash e che magari anche il visitatore vorrebbe vedere in flash perchè quel target lo richiede! e non parlatemi delle nuove funzioni di flash 8 in merito ai collegamenti interni e titolazioni di paragrafo perche sono rilevanti come il tag keyword nella pagina html... io se fossi macromedia un po mi incavolerei.....


  • Super User

    @"Schiappa" said:

    ........ Google dovrebbe premiare i siti accessibili e usabili perchè possono rispondere ad una maggiore utenza e dare informazioni a qualunque tipo di visitatore... ora voglio farvi una provocazione... l'attributo "summary" del tag "table" è molto utile per i non vedenti in quanto il browser vocale ne legge il contenuto che dovrebbe appunto riassumere il contenuto della pagina... secondo voi Google lo tiene in considerazione?....... La totalità delle Guidelines di Google, dei limiti della tolleranza a testi nascosti, della libertà di movimento dei webmaster, si possono tranquillamente parafrasare con lo storico motto in seno al Googleplex: **"DON'T BE EVIL"

    **Il giorno che ci troveremo a discutere su di un sito totalmente white hat (onesto) che è stato penalizzato/bannato per aver lecitamente utilizzato layer nascosti AI SOLI fini di usabilità, oppure il NOEMBED o l'SwfObject, oppure un drop down menu *Adobe-alike *allora anche il discorso generico che si fa sarà diverso.

    Per fortuna/purtroppo al momento però la coscienza di chi usa certe tecniche, anche nei casi meno gravi, non è mai completamente pulita.

    @"Schiappa" said:

    .....allora Google dovrebbe spiegarmi che se nn uso un div di approfondimento nascosto e visibile solo se l'utente clicca su "prosegui" come faccio ad indicizzare una pagina in flash e che il cliente vuole in flash e che magari anche il visitatore vorrebbe vedere in flash perchè quel target lo richiede! e non parlatemi delle nuove funzioni di flash 8 in merito ai collegamenti interni e titolazioni di paragrafo perche sono rilevanti come il tag keyword nella pagina html..... Non ti parlo delle *nuove funzioni di Flash 8 in merito ai link interni *(quali sono scusa?), ma della capacità di Googlebot di seguire i link all'interno di animazioni Flash.
    Solo che ci si dimentica costantemente che l'ottimizzazione di siti in Flash passa anche attraverso l'indicizzazione degli SWF stessi! E questo significa che non basta incorporarli in una pagina web, ma bisogna linkarli direttamente come si fa con le pagine web.
    Inoltre non c'è nulla di male ad inserire una fila di link testuali in html al di sotto dell'animazione swf (below the fold) per favorire l'indicizzazione delle pagine normali, oppure creare una mappa (in html), oppure utilizzare la pagina principale come splash-page (versione html - clicca qui | versione flash - clicca qui).
    Insomma le alternative ad un layer nascosto abbondano.

    @"Schiappa" said:

    io se fossi macromedia un po mi incavolerei.....
    A parte che Macromedia ha fatto quel che ha potuto rilasciando l'SDK For Search Engines, su cui -probabilmente- si basa la capacità di Googlebot di analizzare gli swf, la frustrazione da quelle parti deve essere stata alta, visto che poi si sono concessi ad Adobe 🙂

    Cordialmente,
    Stuart