• User Attivo

    Ma allora alla fine è meglio fare un layer con coordinate negative oppure con css hidden?


  • Super User

    e' meglio non usare nessuno dei due.

    se proprio decidi di usarli, a tua scelta.


  • Bannato Super User

    Ma allora alla fine è meglio fare un layer con coordinate negative oppure con css hidden?

    Decisamente con i css, soprattutto per il fatto che quelli con coordinate negativ oltre una certa posizione non vengono + considerati dall'infame
    😄


  • User Attivo

    Ho fatto giusto nel sito che ho in firma? Per favore aiutatemi... per me è importante... :arrabbiato: :arrabbiato:


  • Super User

    usa display: none invece di visibility:hidden.

    non ti accorgi che li' dove c'e' il testo nascosto ora si vede uno spazio bianco?
    significa che il testo c'e' ma e' invisibile, nel senso che prende comunque lo spazio usato.

    con display:none eviti questo problema.
    e comunque poi testa con piu' browser.


  • Bannato Super User

    Scuami ma per risponderti devo farti delle domande.
    Tu vuoi nascondere del testo giusto ? guardando le tue pagine sebrerebbe di si 😄 Potresti dirmi ( anche in privato se vuoi ) quale sarebbe esattamente sto testo 😄


  • User Attivo

    Perfetto, grazie mille! Me lo stavo proprio chiedendo se si poteva togliere quello spazio!
    E come testo può andare bene? Adesso devo mettere i vari H1 e grassetti sulle key che voglio spingere...


  • Super User

    Gira 'sta convinzione che il problema sia l'invisibilità. Non è proprio del tutto così.

    Seguite il mio ragionamento: perché i webmaster vogliono nascondere il testo? Semplice: perché gli utenti non lo vedano, visto che fa schifo.

    Adesso: è più facile individuare algoritmicamente testo che fa schifo che testo invisibile. In poche parole non importa se è visibile o meno, perché tanto ti beccano il keyword stuffing.

    Il testo del sito "bormio" puzza di keyword stuffing lontano un miglio. Renderlo invisibile, colorarlo di verde o metterci sopra un'insegna luminosa non lo farà puzzare di meno. Sempre keyword stuffing è.


  • User Attivo

    Cioè dovrei scriverlo meglio? Come se fosse testo che gli utenti vedono?


  • Bannato Super User

    Certo Low... quanto hai scritto è verissimo, il fatto però è anche questo; le serp sono zeppe di siti web che stanno li anche grazie alla monnezza che nascondo in un modo e nell'altro.

    Quindi se hai la necessità e l'urgenza di essere li pure te, devi per forza o per amore adeguarti.

    Credimi da qualche tempo mi continuo a ripetere di non utilizzare + sotterfugi di basso livello, ma è veramente difficile, stamane ho trovato una serp con milioni di risultati... le prime 4 ?

    al numero 1 una door
    da 2 al 4 testo nascosto con css
    e le restanti saranno =

    🙂


  • User Attivo

    :mmm: :mmm: :mmm:
    Sono un pò confuso... mi conviene farlo o no allora?


  • Community Manager

    @rdo said:

    :mmm: :mmm: :mmm:
    Sono un pò confuso... mi conviene farlo o no allora?

    E' un pochino come rubare una caramella, difficile che ti becchino, ma se lo fanno che figura di ***** ci fai? Era solo una caramella.....

    Se un motore controllasse il codice allora potrebbe bannarti, basta che poi non vai a piangere in giro...

    Devi proprio usare un css? Non puoi scrivere del testo normalmente?

    Ora vado a modificare la mia unica pagina con testo nascosto su oltre 20000 😄


  • Super User

    Io ti consiglio, come ho detto nella prima parte del thread di spingere al massimo i contenuti reali, soltanto dopo che hai fatto tutto il possibile in quel senso, se ti vedi davanti della spazzatura e la cosa ti fa sclerare, aggiungi magari un layer che ti fa scalare qualche posizione.

    E' una soluzione, una delle tante.

    Secondo me in ogni caso è una questione di punteggi, se il tuo sito viene considerato buono da molteplici punti di vista allora anche se venissero rilevati layer nascosti potrebbero non influenzare troppo il giudizio e al massimo venire ignorati.

    Tieni conto del fatto che i layer nascosti sono usati per un sacco di applicazioni lecite come menù a scomparsa, paginazione dei contenuti in dhtml ecc.

    Quindi nessun testo con visibility:hidden, display:none o coordinate negative viene penalizzato di per se, dipende dal contenuto.


  • Super User

    @Dell'Orto Fabio said:

    Quindi se hai la necessità e l'urgenza di essere li pure te, devi per forza o per amore adeguarti.

    Mica sempre. Varia da caso a caso, e ti faccio un esempio.

    Di tutti gli spammer che ho conosciuto, un 20% fa spam perché strettamente indispensabile vista la competitività delle ricerche, ed l'80% solo perché non sa fare posizionamento in altro modo e perché lo spam è comodo e non richiede di saper scrivere in italiano corretto o di creare un sito tecnicamente decente o di realizzare buoni contenuti o promuovere il sito in altri modi.

    Questo significa che la stragrande maggioranza dei webmaster che fanno spam si abitua a fare spam e acquisice la cultura dello spam senza chiedersi se i buoni risultati possono essere conseguiti anche senza fare spam. Si fa spam a prescindere. Molti di loro rischiano qualcosa quando invece potrebbero non rischiare niente.

    Anche se il cestino dei rifiuti è a due passi, buttare la carta per terra è un comportamento conveniente dal punto di vista energetico: si raggiunge comunque l'obiettivo di sbarazzarsi dalla carta, lo si consegue prima, spendendo meno energie. E più comodo, ed allora lo si fa e basta. Dalle mie parti è un costume estremamente diffuso, al quale ognuno contribuisce o meno a seconda della propria mentalità, indole e coscienza civica.

    Ai livelli in cui operano gli spammer appartenenti a quel 20% (e mi riferisco sopratutto alle ricerche inglesi), anche fare spam è difficile e bisogna farsi un mazzo così. Al contrario, ai livelli in cui operano gli spammer appartenenti al rimanente 80%, lo spam è solo una comodità, che viene incontro al webmaster perché è più facile posizionarsi con lo spam che con l'ottimizzazione normale.

    Proprio perché varia da caso a caso, bisogna vedere se quello che deve ottenere rdo è raggiungibile solo facendo spam oppure anche facendo normale ottimizzazione. Peraltro, aggiungo, tenendo in considerazione il fatto che sta operando sul sito principale e non su siti esterni.


  • Bannato Super User

    Low "leggerti", come ascoltarti 😄 è sempre un piacere per me.

    Il tuo ragionamento, come si dice dalle mie parti non fa una grinza !

    Però credo che sarebbe anche giusto se dicessi, al di la della proprietà di linguaggio, cosa serve per poter lavorare in questo modo.

    Il forum è frequentato da molti ragazzi è bene educarli come stai facendo tu, non vorrei pero' che questi si sentissero in grado di seguire la tua strada, inconsapevoli di quanto in realtà hai fatto per arrivare oggi a lavorare in questo modo.

    Tu hai alle tue spalle una azienda (che hai saputo creare partendo dal nulla e per questo vai elogiato ) che ora di consente di lavorare in un certo modo... ma questi ragazzi devono sapere tutti i pro e i contro, altrimenti a mio modesto avviso molti potrebbero bruciarsi.

    ( Spero tu sia chi penso che sei :mmm: )

    Cmq grazie per quanto ci scrivi ogni giorno :ciauz:


  • Super User

    @Dell'Orto Fabio said:

    ( Spero tu sia chi penso che sei :mmm: )

    Mi sa di no. Non possiedo una SEO agency famosa. 😄

    Tu hai ragione nel dire che devo essere più preciso, per evitare di illudere qualcuno.

    D'altro canto, io non ho consigliato un metodo diverso dallo spamming né lo spamming, ma mi sono limitato a dire che una qualunque decisione andrebbe presa in base alle proprie esigenze, in questo caso quelle di rdo.

    Ho appena letto un resoconto del Search Engine Strategies che riguarda proprio il reverse engineering e lo spam. Ne riporto un estratto:

    "David Naylor, DaveN SEW/WMW mod, for seven years they have chanced the algorithm and catches it every day. If you dont have the skills of writing content like Danny or us, he said you need other skills (programming skills). Build something that is totally focused for one purpose, to rank number one."

    David Naylor è uno spammer famoso e apprezzato. Quando parla di "Danny" si riferisce a Danny Sullivan, di Search Engine Watch. Il succo della frase è: se non hai le capacità per creare contenuti, allora necessiti di altre capacità, ad esempio di programmazione. O più genericamente capacità tecniche, aggiungo io. Insomma, quelle che ti permettono di fregare gli algoritmi dei motori di ricerca.

    Ecco, è proprio questo il punto: persino David Naylor conviene nel dire che lo spamming è una strada alternativa alla scrittura dei contenuti. Qualunque spammer di "alto livello" converrà con questa affermazione.

    Pertanto, tornando al tuo invito alla chiarezza, cercherò di essere più chiaro:

    Si ricorre solitamente allo spam nei seguenti casi:

    1. Posizionamento per termini estremamente competitivi, dove i soli contenuti e la promozione del sito non bastano.

    2. Posizionamento per qualunque termine, nel caso in cui si parte dal presupposto di non saper creare contenuti decenti e saperli promuovere adeguatamente.

    Si rinuncia solitamente allo spam nei seguenti casi:

    1. Posizionamento per termini poco competitivi, dove anche semplici contenuti e un minimo di promozione del sito possono dare buoni risultati.

    2. Posizionamento per qualunque termine, nel caso in cui si possiedano consistenti capacità di produrre contenuti decenti e promuovere il sito in maniera massiccia.

    La vera differenza è di tipo temporale: con lo spam si fa prima. Sempre. Ma anche in questo caso la scelta dipende dagli obiettivi: se bisogna far salire un sito istituzionale, relativo a qualcuno che non può fare la cattiva figura di passare per uno spammer, ci si prende il tempo necessario a posizionare il sito. E fino a quando non si raggiunge la posizione voluta, si tampona con il PPC.

    Qualche settimana fa sono stato presentato ad un potenziale cliente che lavora in un settore dove lo spam è l'unica strada, ma che necessita anche di creare un proprio sito istituzionale, che deve stare lontano da tecniche di spam.

    Ebbene, facendo l'analisi son venute fuori delle opzioni che gli permetterebbero di posizionarsi bene rischiando nulla. Ma c'è da lavorare di più, e la cosa richiederà tempo. Ancora non so quale strada verrà scelta alla fine, ma è stato importante dare al cliente un'alternativa allo spamming.

    Insomma, ripeto, dipende dai casi.


  • Bannato Super User

    Mi sa di no. Non possiedo una SEO agency famosa.

    ot Dipende... magari abbiamo un indice per misurare la popolarità diverso, per mio conto cmq sei tu... e lo sei ! /ot

    🙂


  • User Attivo

    LowLevel ho letto solo ora questi tuoi ultimi 2 interventi, mi ci ritrovo in pieno, faccio un'aggiunta, contribuisco.


    "Questo significa che la stragrande maggioranza dei webmaster che fanno spam si abitua a fare spam e acquisice la cultura dello spam senza chiedersi se i buoni risultati possono essere conseguiti anche senza fare spam. Si fa spam a prescindere. Molti di loro rischiano qualcosa quando invece potrebbero non rischiare niente. "

    Beh, quando parli di "stragrande maggioranza" usi i guanti di velluto, roba da galateo dei vecchi tempi, diciamo pure una % vicina al 100%. Girala come vuoi il senso non cambia, le cose stanno cosi' esattamente come dici tu.

    Il mio contributo: La maggior parte dei wm che hanno o gesticono piccoli siti seri (il classico sito da 10-50 pagine) spesso non si chiedono se i buoni risultati possono essere conseguiti anche aiutandoli con lo spam. Lavorano costantemente solo sul loro sito modificando le loro poche pagine e sperando prima o poi di azzeccarla.

    Insomma, si tratta in entrambi i casi di "limitatezza mentale" dovuta alla routin e vecchie mentalita'. Si potrebbe pensare che chi e' "serio" rifugga dallo spam unicamente per motivi morali, ma sappiamo che non e' quasi mai cosi', il piu' delle volte e' solo pigrizia mentale. E' tipico di ognuno di noi, ho sempre fatto cosi'... perche' cambiare oggi? (nel bene e nel male).


    "David Naylor è uno spammer famoso e apprezzato. Quando parla di "Danny" si riferisce a Danny Sullivan, di Search Engine Watch. Il succo della frase è: se non hai le capacità per creare contenuti, allora necessiti di altre capacità, ad esempio di programmazione. O più genericamente capacità tecniche, aggiungo io. Insomma, quelle che ti permettono di fregare gli algoritmi dei motori di ricerca. "

    Il mio contributo: Le altre capacita', per esempio la programmazione, servono a tutti, di default. Quando dico servono intendo sono necessarie.

    Ci sono le solite eccezioni. Eco potrebbe pubblicare sul web senza capire un tubo di nulla di informatica che poco gli cambierebbe, ma solo premesso che non ne capisca veramente un tubo. Se Eco scrivesse attraverso word processor sicuramente il suo modo di scrivere sarebbe influenzato rispetto la macchiana da scrivere, lo stesso vale se conoscesse la programmazione e volesse sfondare come autore sul web.
    Solo una conoscenza globale porta ad una scelta consapevole e non obbligata e permette di ottenere il miglior risultato.

    Ovvio che se non so creare contenuti originali dovro' supplire in altra maniera, ma datemi un solo motivo per il quale se un wm sa creare contenuti originali possa essere "esentato" o scusato dal non avere capacita' tecniche. Se non le ha che pubblichi sulla carta... se pubblica su web non si lamenti poi se uno spam engine lo supera anche quando si cerca il titolo di un suo pezzo.


    "Ecco, è proprio questo il punto: persino David Naylor conviene nel dire che lo spamming è una strada alternativa alla scrittura dei contenuti. Qualunque spammer di "alto livello" converrà con questa affermazione."

    Il mio contributo: Questa affermazione e' pesantissima.

    Ha ammesso pubblicamente un progetto sul quale "spammer di alto livello" lavorano da almeno un paio d'anni. Pensate agli spam engine. Come sono creati ora sono roba da dimenticatoio, come le doorway, anzi molto peggio, le doorway sono quasi sempre originali.

    E' un discorso lungo, andare contro-incontro il filtro anti duplicazione (per uno spammer) e' arduo, immaginiamoci contro i filtri che valutano se un testo sia scritto in modo umano o meno.

    Ha lanciato una sfida, cari motori implememtate tutti gli algoritmi che volete ma dal momento in cui un wm riuscira' a creare il testo "perfetto" (originale, logico, umano, tematico, ecc ecc) voi non riuscirete piu' meccanicamente a distinguerlo da un contenuto serio.


    Il limite degli spam engine, si basano su serp altrui e pertanto sono tutti uguali ed il filtro anti duplicazione cassa tutte le loro pagine per una data query, meno qualcuna di quei spam engine che per i motori valgono di piu'. Ai motori che ci sia uno o 1000 spam engine non importa, si autoeliminano. Le doorway invece hanno il limite del redirect, le wellcome page che sono poche se fatte manualmente, viceversa o sono penalizzate o non sono accettate dagli utenti.

    Superare per chi fa spam il controllo sul testo significhera' obbligare i motori a dar sempre maggior peso sui rapporti tra i siti e su altri valori, valori oggi meno "pesanti". E' solo una transazione.

    Tu oggi motore mi banni perche' scrivo schifezze? Beh io allora scrivero' capolavori in modo automatico. Tu spammer mi scrivi capolavori? Io motore ti bannero' perche' nessuno linchera' spontaneamente i tuoi siti, i tuoi capolavori...

    Questo significa una cosa, semplice semplice. In futuro i siti nuovi (anche con contenuti originali) avranno sempre piu' vita dura ad affermarsi, i vecchi (gli istuzionali o chi fara' novita' da subito) viceversa potranno districarsi tra i finti contenuti e salire senza problemi. Come e' giusto che sia.


  • Community Manager

    @agoago said:

    Questo significa una cosa, semplice semplice. In futuro i siti nuovi (anche con contenuti originali) avranno sempre piu' vita dura ad affermarsi, i vecchi (gli istuzionali o chi fara' novita' da subito) viceversa potranno districarsi tra i finti contenuti e salire senza problemi. Come e' giusto che sia.

    Eccolo 😄

    E' assolutamente una cosa giusta. E' vero, i siti nuovi faranno sempre più fatica a stare in alto, sia per l'aumento costante dei competitors sia per l'aumento costante della qualità dei siti che stanno in alto.

    Per quanto riguarda Google è come dici.

    Potrebbe mai un sito tra 10 anni nascere ed affermarsi in un settore competitivo? Potrebbe mai un sito oggi nascere e scalare le serp in Inglese? Si se......

    Sappiamo tutti che ci vuole del tempo per essere valutati da Google, che lui ha un tempo dove immagazzina informazioni.

    Credo che ci sia un'algoritmo particolare che calcola se il sito è valido o meno e in base a questo decide se può scalare la serp (non è detto che poi ci riesca, come non è detto che non ci riesca nel lunghissimo periodo).

    Certo è che deve essere un sito di quelli grandi e non quelli che si vedono in giro gestiti da un webmaster.

    Credo che nel valutare un sito che nasce Google usi prima gli stadi e poi la qualità del tipo:

    spam
    informativo
    blog
    personale
    organizzazione
    ....
    ....

    Ma un sito informativo avrà un suo punteggio alla fine della valutazione (chiamata SandBox, per me è altro) e da questo punteggio uscirà che tipo di sito è. Poi la monitorizzazione del sito avverà a seconda del punteggio e si ha un piano completo.

    Le fonti di informazioni su un sito sono aumentate a vista d'occhio e Google esce sempre con nuovi servizi, molti per monitorare gli utenti.

    Qualche motore si sta adeguando, ma mentre Google ha un suo scopo, gli altri lo fanno perchè devono seguirlo, facendo così sono anni dietro.

    Se Gigablast avesse solo il 10% dei fondi di MSN a quest'ora sarebbe al secondo posto.