Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. agoago
    3. Post
    A

    agoago

    @agoago

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 25
    • Post 477
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    0
    Reputazione
    480
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Attivo

    Post creati da agoago

    • RE: Analisi SEO Trucchi e Consigli

      Tempo fa mi occupavo per passione degli algoritmi dei motori di ricerca.

      In apparenza (e probabilmente anche in realtà) molto complessi, leggendo e studiando i brevetti che per ragioni di copyright i motori erano costretti a pubblicare, il tutto appariva molto più semplice rispetto al primo acchito (anche se l'acchito anche per il professionista del biliardo tanto semplice non è).

      Dopo una decina d'anni mi convinsi (a torto o meno) che alcune realtà dei motori di ricerca avevano dell'assurdo, mi sembrava di vivere come in quei film dove il protagonista viaggia a ritroso nel tempo per poi stupirsi dei salassi come panacea di ogni male.

      In breve 3 erano gli aspetti (a mio avviso) anacronistici (e per anacronistico intendo dire che avrebbero potuto modificarli-migliorarli già allora in quanto disponevano della tecnologia... ma forse non della volontà, o forse semplicemente ritenevano che i tempi non fossero maturi).

      Innanzitutto l'uso di mostrare nelle serp la copia (cache) di una pagina era assolutamente illegale (http://www.yoyoformazione.it/2008/04/copia-cache-illegale.php) ma allora andare contro google era dura, anche se prima o poi anche i colossi capiscono i loro limiti e vi si adeguano.

      Il secondo aspetto riguardava i "famosi" algoritmi riportati ed analizzati in questa discussione. Non entro nello specifico, ma erano assurdi allora come ora, solo che i motori ORA ne sono consapevoli (esattamente come la cache, solo che quella oggi si vede che è stata rimossa). Dovete immaginare un motore di ricerca nella sua complessità esattamente come il corpo umano. Se domandate ad un luminare cosa sia dannoso per il fisico vi rispoderà sempre con un semplice termine: non fisiologico. Fumare non è fisiologico (nella natura dell'uomo), correre 30 km al giorno non è fisiologico, mangiare 1 kg di pasta al giorno... saltare dal secondo piano piuttosto che dormire 15 ore di fila.

      Non-Physiological. NOn fisilogico o se vogliamo: innaturale.
      Il doping è innaturale (ovvio), il doping è "spam in quanto innaturale".

      Sfruttare correttamente i circa 100 algoritmi (titolo 70-75, etc) utilizzati dai motori, non solo è molto difficile ma è controproducente in quanto innaturale (cioè spam).

      Apro una parentesi. Prendiamo uno dei 100 algoritmi di sort. L'anzianità del dominio. Non conta quanto sia anziano il dominio ma quanto sia anziano rapportato ai suoi contenuti ed al suo owner. Se il dominio xyz.com con contenuto xyz del signor Pippo dopo 10 anni viene acquistato da Caio per usarlo con contenuto zyx (stesso tema ma nuovi testi) il tutto parte da capo o quasi. Chiusa parentesi.

      I siti per adulti, i blog, gli e-commerce, i social netwotk, etc etc hanno pesi diversi per i vari algoritmi.
      A google non importa di come ottimizzerete i vostri ecommerce, tanto con analytics vi giudicherà in tutto per tutto e se non lo usate... beh diciamo che se non avete dei brand in esclusiva la vedo dura.

      Ma distribuire la parole chiavi correttamente nelle pagine, ottimizzare i link interni ed esterni, i title delle immagini, il peso delle pagine, etc etc etc etc... alla fine farà più danni che altro. NON E' FISIOLOGICO.

      Quando anni fa ho capito (e l'ho negato fino all'ultimo) che in altissima percentuale contava (ora come allora) il contenuto originale ed i brand univoci, dopo tanti anni di studi tutto mi è sembrato non avere più senso e mi son ritirato (ricco e soddisfatto, pertanto non preoccupatevi per me, ahhah).

      Pertanto Ramses fregatene dei vari algoritmi, tanto chi li conosce (o crede di conoscerli) quasi tutti finisce con il fare spam (volutamente-coscientemente o meno, vedasi il non fisiologico) e poi variano come detto per tipologia di argomento. Comunque siccome non mi piace apparire come il vecchio saggio rincoglionito nostalgico pronto solo a disilludere le nuove generazioni (generazioni che però vedo ragionare come 10 anni fa... ma i motori ora sono cambiati) ti dico per esempio che l'uso del <br> dentro le frasi è ancora efficace, ti permette di usare testi altrui facendoli apparire come originali (ovviamente il br tramite css non deve fare andare visivamente a capo il testo spezzato dal br stesso).

      Il terzo aspetto è l'assioma che “Un’ intelligenza artificiale non potra’ mai esser certa di riconoscere se un testo e’ stato creato da un’altra intelligenza artificiale.”
      Ovviamente a voi questo aspetto non interessa per la pagnotta, perchè creare del discreto testo artificiale richiede a mio avviso almeno 3-4 anni di duro lavoro. Purtroppo (o per fortuna) i motori oggi usano controlli manuali per scoprire siti artificiali, viceversa...

      postato in SEO
      A
      agoago
    • RE: creazione testo artificiale tramite papà Google

      Esempio per: " good solution for"

      http://www.google.com/m/search?q="good+solution+for"&site=mobile

      Query illimitate... fanne buon uso Matteo!

      postato in SEO
      A
      agoago
    • RE: testo nascosto in pagine disallow da robots.txt o noindex da tag

      Fdaguanno e' per questo motivo che questa tecnica non viene praticata dai seo, proprio perche' non si coglie-capisce "l'entità del vantaggio ottenuto".

      Vantaggio che invece puo' essere definito esattamente con un solo aggettivo: micidiale.

      Pensa solo per un momento ad una qualsiasi tua pagina.
      Prensenta link pubblicitari-esterni?

      Bene quei link disperdono il tuo pr, se li nascondi ai motori invece quel pr rimarra' tutto per te.

      Pensa a tutto quel testo che ripeti in-per ogni tua pagina... i dati della societa', l'email, il link alla home, i testi di rito, il codice che carica il logo del sito, le frasi di servizio etc etc.


      Prendiamo il caso piu' eclatante, quello dei link.

      Ipotizziamo che io linchi in modo naturale uno sponsor.
      Il classico a href url dello sponsor.
      In questo modo gli passo valore e mi correlo a quel sito.

      Ipotizziamo che invece non mi vada che i motori capiscano chi linco, che lo linco, e pertanto preferisca mettere nel mio sito un link di questo genere:

      miosito.xyz/cgi-bin/vai.cgi?1234

      dove 1234 corrisponde alla url del sito dello sponsor.

      Bene, ora G non capira' chi linco, ma capira' sempre che c'e' un link nella mia pagina, (per di piu' verso una mia pagina dal contenuto inesitente) con tutto quello che ne consegue.

      Meglio evitare. (che poi di fatto miosito.xyz/cgi-bin/vai.cgi?1234 produce un code 302 a tempo 0 verso lo sponsor e pertanto considerato 301, peggio che mai, ma non complichiamo il tutto).


      Concludendo immagina 2 situazioni.

      La prima ti impone che tutto quello che vedono gli utenti debba essere visto dai motori.

      La seconda che ti permette di scegliere cosa-quanto del testo o delle immagini o dei link visualizzati dagli utenti sia-venga visto anche dai motori.

      Un seo accordo darebbe il dito mignolo per avere questa seconda micidiale opportunita'.


      Prendi l'url-pagina di questa discussione, sai quante volte linca forum/newreply.php?...

      Credo una cinquantina di volte.

      Certo c'e' il nofollow, ma bisogna mettersi bene in testa che il nofollow dice a G di non seguire un link, ma non dice a G che quel link non esiste.


      Non bisogna confondersi.

      Un conto e' mostrare un link e dire a G di non considerarne i benefici potenzialmente apportabili al lincato.
      Un conto e' non mostrarlo.

      Nel primo caso dico: Tu G disperdi pure il mio pr ma non avvantaggiare chi linco.

      Nel secondo caso dico: Tu G non sottrarmi potenziale pr perche' (in base-grazie ai tuoi limiti e dictat) io non sto lincando nessuno.


      Fdaguanno ti chiedevi quale fosse la sottigliezza di tale tecnica.

      Bene, se hai inteso quanto sopra (un esempio fra molti) avrai capito per esempio che G consiglia ai wm l'uso del nofollow, tag che di fatto non apporta alcun vantaggio a chi lo usa se non quello di essere considerato come un link inutile a chi lo subisce.

      Matt dice: "...nofollow would only be for untrusted links..."


      Lo sai quante volte e' scritta-riportata la parola messaggi nel sorgente dell'url-pagina che contiene questi nostri post?

      Penso almeno una cinquantina di volte.
      E cosi' per per tutte le pagine di questo forum, variando piu' o meno a seconda del numero dei post presenti per ogni url del forum stesso.

      Dopo che G abbia spiderizzato qualche decina di migliaia di pagine del forum ed abbia riscontrato in esso qualche centinaio di migliaia di volte la key "messaggi" non e' piu' che sufficiente?


      Ad oggi credo che non ci sia sito che non sia potabile, in toto od in parte.

      Ho volutamente usato il termine potabile in quanto omonimo della sua definizione di cio' che si puo' assumere senza danno, sia della definizione di cio' che puo' essere liberato dalle sue parti unitili.

      Rendere "un sito potabile" significa renderlo non dannoso (immediatamente bevibile e digeribile) ai motori, evitando che gli stessi debbano pesare e sortare testo-codice-link inutili.

      Rendere "un sito potabile" significa tagliare per i motori tutto quel testo-codice-link rindondante che come capita nelle piante assorbe energia senza produrre-garantire il miglior sviluppo delle stesse.


      E poi parliamoci chiaro.

      Decidere quali siano le migliori key da enfatizzare in una pagina-sito non e' facile, bisogna andarci con i piedi di piombo.... ci vuole molta esperienza, molta.

      Ma capire quali parti del testo siano totalmente inutili al fine di migliorarsi-posizionarsi nelle serp lo puo' capire anche un principiante, perche' basta un minimo di intelligenza.

      Perche' allora tutti i seo si applicano-dedicano al primo caso ed ignorano-evitano-snobbano il secondo?

      Il perche' ce lo rammenda quell'artista geniale che risponde al nome di Roberto (freak) Antoni:

      "Non c'è gusto in Italia ad essere intelligenti"

      postato in SEO
      A
      agoago
    • RE: testo nascosto in pagine disallow da robots.txt o noindex da tag

      Fdaguanno scrive:

      "Sinceramente non riesco ancora a capire come sfruttare questo tipo di cloacking inverso..."

      Ma no... perche' pensare a cose strane e poco chiare.
      Per esempio basta mettere il testo che non serve dentro un file js (magari non spiderizzabile via robots) e poi richiamarlo dalla e nella pagina dove serve.
      Cosa importa ad un motore di ricerca un testo tipo:

      Benvenuti nel nostro sito!!

      Ma agli utenti potrebbe fare piacere e pertanto perche' non accontentare entrambi?

      postato in SEO
      A
      agoago
    • RE: testo nascosto in pagine disallow da robots.txt o noindex da tag

      Fdaguanno scrive:

      "Tutti sappiamo che l'uso di link nascosti non è conforme alle linee guida di qualsiasi motore di ricerca."

      Credo sia importante, come sempre, essere molto precisi e "completi" perche' viceversa a volte si rischia di fare confusione e di non sfruttare tutte le possibili potenzialita'.

      Quando dici che i link nascosti non sono conformi etc etc... dici una cosa verissima, ma verissima purtroppo-per fortuna solo in alcuni casi.

      Per esempio Google ci dice:

      "Hidden links are links that are intended to be crawled by Googlebot, but are unreadable to humans..."

      Google e' molto preciso (non sarebbe G viceversa) infatti non generalizza condannando i link nascosti, ma condannando i link nascosti agli utenti ma non al suo spider.

      Abbiamo 4 situazioni:

      1. Nascosto agli utenti e visibile al motore.
      2. Nascosto al motore e visibile agli utenti.
      3. Nascosto al motore e nascosto agli utenti.
      4. Visibile agli utenti e visibile al motore.

      Solo il primo caso e' penalizzato.
      Il caso posto da te in questione invece rientra nel terzo caso, e pertanto nessun problema.

      Da notare come molti seo amino utilizzare a volte ancora il primo caso, pur sapendolo rischioso in quanto potrebbe portare dei vantaggi.

      Personalmente ritengo che il primo caso non abbia piu' ragion d'essere, soprattutto in considerazione che il secondo caso e' altrettanto potente (lato seo) e soprattutto moralmente accettato dai motori.

      Nascondere i link ai motori (e non agli utenti) puo' avvantaggiare nei pr interni del sito, nascondere del testo inutile premia le key che si desidera spingere nelle proprie pagine, etc etc.

      Il primo caso e' il passato da dimenticare, il secondo il futuro da sfruttare per i seo, il terzo una libera scelta del wm (utile o no... mah), il quarto il naturale modo di lavorare.


      In una parola il concetto e' molto semplice.
      Prima si mostrava ai motori qualsiasi cosa potesse avvantaggiarci, oggi si nasconde ai motori qualsiasi cosa possa svantaggiarci.

      postato in SEO
      A
      agoago
    • G: disallineamento db query e db link

      Una curiosita'.

      Ho notato che G mette online i suoi db dei link prima dei suoi classici datacenter per le query.

      Per capirci, mettiamo che facendo site:miosito.xyz abbiate in risposta 4 vostre pagine:

      miosito.xyz/index.html
      miosito.xyz/a.html
      miosito.xyz/b.html
      miosito.xyz/c.html

      Poi provate con link:miosito.xyz ed ottenete in risposta un tot di url (interne ed esterne), tra le quali:

      miosito.xyz/d.html

      Ecco G vi dice che la pagina d.html apparira' in seguito nelle sue serp, anche se in questo momento risulta non indicizzata.


      Il db dei link di G anticipa di qualche settimana quello delle query.

      E' una sciocchezza che serve poco o nulla, ma per i maniaci delle anticipazioni e' un giochetto carino.

      Si puo' dichiarare con settimane di anticipo quali pagine saranno poi inserite nelle serp di G, ammesso che quelle pagine siano cosi' forti da apparire con l'interrogazione link:

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: più link da un singolo sito quanto valgono per il posizionamento

      Dechigno, entriamo in una questione complicatissima, in quanto alcuni degli algoritmi usati dai motori dovrebbero essere soggetti, dovrebbero dipendendere, dovrebbero basarsi essenzialmente su principi filosofici-morali piuttosto che altro.

      E' il caso in discussione.


      Credo che uno dei papabili motivi per il quale (ancor oggi) "tanti link = 1 link", sia proprio quello legato alle pagine dinamiche.

      Una pagina dinamica, fa un po' mondo a se.

      Se le pagine dinamiche non fossero cosi' presenti sul web, potremmo affermare che rappresentino la classica eccezione, ma un' eccezione non puo' rappresentare 2 o piu' decine in percentuale.

      Pertanto la questione si chiude dicendo che una pagina dinamica fa mondo a se (e come tale andrebbe trattata), ma non e' un' eccezione.


      Questa considerazione iniziale ci suggerisce che per logica dovremmo fare un distinguo.
      Se un sito statico presentasse 100 pagine con uno stesso link, un buon motore non dovrebbe avere dubbi, il link e' nullo.
      Viceversa, sempre secondo logica, se lo stesso sito presentasse 100 pagine dinamiche con lo stesso link, ecco che allora la situazione cambierebbe.


      Nel secondo caso, giustamente il motore non puo' sapere se il wm stia spammando.

      (Un termine ottimo per definire cio' che e' spam ce lo fornisce la scienza medica: e' spam tutto cio' che e' "unphysiology".
      Per un medico tutto cio' che e' non fisiologico e' per principio dannoso.
      Dare ad un essere di natura vegetariana della carne e' innaturale, perche' non e' fisiologico.
      Vivere sottoterra per un uomo non e' salutare, perche' innaturale.
      Correre per un uomo per 50 kn tutti i giorni non e' naturale. Etc Etc.)

      E' la natura stessa delle pagine dinamiche che, tendendo ad identificarsi tutte con url diverse pur tuttavia presentando parte dei loro contenuti comuni tra le medesime (come i link), le rende fisiologiche... non spam.
      Non spam: tanti link = 1 link.


      Messa cosi' potremmo pensare di aver raggiunto un compromesso.

      Presentiamo pure tante volte lo stesso link nelle pagine dinamiche... ma attenzione nel farlo per i siti statici. Pericolo futuro.

      Stabilita questa linea di condotta, saremmo tutti felici e contenti, un fastidio risolto, se non fosse che i motori (ad oggi) non hanno ancora fatto loro questo metodo, ed a ragion veduta.


      Infatti, per poter seguire questa strategia, per i wm tutti e per i motori, e' fondamentale intendersi-stabilire quando un documento sia dinamico o meno.

      Io wm posso avere un'url con 10 parametri ma che nel tempo presenta sempre un contenuto assolutamente unico-originale, che restituisce sempre un code 304, e' forse una pagina dinamica?

      Io wm posso avere una homepage, tipo index.hrml, ma che ogni 10 minuti cambia parte del suo contrenuto, che ogni volta che passa lo spider restituisce un code 200... e' forse statica?


      Statico o dinamico lo stabilisce il contenuto del documento ed il suo variare nel tempo, e non la sua url.

      Capito questo per un motore diventa difficilisismo definire, con buona certezza, quando una pagina sia statica o dinamica, ed e' per questo che nel dubbio (ad oggi) molti link = 1 link.

      Ma e' una questione che, prima che dopo, i motori dovranno affrontare e risolvere.

      E quel giorno, per molti wm tanti link saranno = 0 link, con probabile penalizzazione dei lincanti in quanto pagine "unphysiology".


      Per quanto riguarda invece il link tipo:

      www.pincopallino.com/click.asp?id=3537&url=http://www.miosito.com

      la questione e' tanto assurda quanto semplice.

      Prendiamo per esempio come oggi si compora google.

      Google ragiona cosi':

      La pagina link.html del sito A.xyz linca una sua pagina-url, tipo: A.xyz/vai.cgi?sito-B.xyz/pagina.html

      La pagina del sito A.xyz: vai.cgi?sito-B.xyz/pagina.html fa redirect 302 verso sito-B.xyz/pagina.html

      Pertanto la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html chi-cosa linca?


      La pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html linca esattamente cosa linca la pagina sito-B.xyz/pagina.html, e non linca la pagina sito-B.xyz/pagina.html come comunemente si crede.


      Spiegazione.

      Se la pagina A.xyz/link.html linca la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html, per Google esistera' la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html.

      Lo spider di Google passa e cerca la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html

      Ma la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html di fatto non esiste perche' e' un semplice redirect 302 verso sito-B.xyz/pagina.html

      Il bot (il bot non e' lo spider) di google allora associera' il contenuto della pagina sito-B.xyz/pagina.html all'url A.xyz/vai.cgi?sito-B.xyz/pagina.html

      Pertanto tutti i link contenuti nella pagina sito-B.xyz/pagina.html saranno attribuiti alla pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html

      Per capirci se la pagina sito-B.xyz/pagina.html linca pippo.xyz risultera' per google che la pagina A.xyz/vai.cgi?sito-B.xyz/pagina.html linca pippo.xyz


      Ora, per chi ha avuto la pazienza di seguire tutto lo spiegone si aprono 2 scenari-situazioni pazzeschi.

      1. Cosa succederebbe se google avesse bannato la pagina sito-B.xyz/pagina.html ??

      2. Cosa succederebbe se la pagina sito-B.xyz/pagina.html al posto di lincare pippo.xyz lincasse una sua altra pagina con un link a path relativo e non assoluto ??

      Alla prima domanda ho verificato che in moltissimi casi G mette in serp l'url di A.xyz/vai.cgi?sito-B.xyz/pagina.html con il contenuto bannato di sito-B.xyz/pagina.html.

      Per capirci se G ha bannato la pagina sito-B.xyz/pagina.html in quanto facente parte del "cattivo" sito sito-B.xyz e non perche' pagina orribile di suo, ecco che magicamente la pagina sito-B.xyz/pagina.html viene raggiunta dagli utenti di G in quanto associata alla nuova url A.xyz/vai.cgi?sito-B.xyz/pagina.html.

      Un utente clicca in serp l'url A.xyz/vai.cgi?sito-B.xyz/pagina.html e finisce su sito-B.xyz/pagina.html (che gli passa il contenuto) grazie al 302.

      E' una tecnica che alcuni black-seo utilizzano per riavere accessi su pagine bannate da G. Si iscrivono a vari siti di scambio banner o top list, e come link mettono l'url di una delle loro pagine bannate. (da questa strategia si puo' capire se una pagina viene bannata in quanto cattiva o in quanto buona ma facente parte di un sito cattivo)

      Fin tanto che i motori non decideranno di penalizzare fortemente ogni tipo di redirect (perche' redirect = danno per la Rete, sempre, perche' di qualsiasi redirect si tratti e' peggio del peggio del peggiore degli spam) i seo sfrutteranno questo limite dei motori... ma i wm tutti non si renderanno conto o non si preoccuperanno dell'enorme spreco di risorse (costi, tempo, etc) e dell' immoralita' che il redirect comporta-rappresenta.
      Fra tanti anni forse il redirect sara' bannato in ogni dove, e' solo questione di tempo spero, ma se si fatica per l'abolizione mondiale della pena di morte, immaginarsi per il redirect.


      Alla seconda domanda e' facile rispondere.
      Se il path e' relativo per il bot risultera' probabilmente un link rotto, e questo non e'bello.

      A.xyz/link.html linca A.xyz/vai.cgi?sito-B.xyz/pagina.html
      A.xyz/vai.cgi?sito-B.xyz/pagina.html redirige via 302 su B.xyz/pagina.html
      B.xyz/pagina.html linca pagina2.html
      A.xyz/vai.cgi?sito-B.xyz/pagina.html e' come se lincasse A.xyz/pagina2.html
      A.xyz/pagina2.html non esiste (probabilmemte) e lo spider riceve 404.
      Il motore penalizza A.xyz/vai.cgi?sito-B.xyz/pagina.html in quanto presenta un link rotto.

      A mio avviso questa e' l'ennesimo caso che dimostra di come un link con path assoluto sia preferibile (per un seo) ad un link con path relativo.
      Il vantaggio nell'usare path relativi e' che si incide meno nell'uso delle risorse della Rete, e pertanto a logica di informatico serio sarebbe preferibile usare path relativi.
      Ma visto che i seo usano i redirect, schifo per schifo (mi si scusi il termine, ma quando ci vuole...) tanto vale usare per i seo anche i path assoluti.


      Questa analisi, corretta, apre a sua volta 2 strade.

      La prima suggerisce-consiglia ad ogni seo di muoversi sempre in funzione di cosa farebbero per logica (in futuro) i motori. Non conta se oggi si perde, perche' un domani si recupera' con gli interessi.

      La seconda suggerisce-consiglia ad ogni seo di muoversi sempre in funzione di cosa fanno oggi i motori, in quanto oggi devi soddisfare i clienti, oggi devi portare a casa il giusto per vivere, oggi devi confrontarti e sfruttare gli algoritmi reali dei motori.

      Si potrebbe discutere per ore quale strada percorrere, ma anche in questo caso la risposta e' piu' semplice di quanto ci si aspetti.

      Se si lavora solo per te stessi e si e' abbastanza solidi economicamente allora si scegle la prima, viceversa... viceversa tanti link = 1 link, senza dubbio perche' e ' la scelta migliore ad oggi.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: più link da un singolo sito quanto valgono per il posizionamento

      Dechigno non so per Live e Yahoo, ma credo che G usi questa logica:

      Un link e' naturale quando, da un sito verso un altro, ne e' presente uno o 2... una cosa del genere.

      Se un sito linca decine-centinaia di volte un altro sito significa che probabilmente siamo di fronte ad una campagna pubblicitaria, o che i 2 siti appartengono ad uno stesso gruppo, o che sono link a pagamento etc etc.

      Insomma non e' possibile che un sito linchi massicciamente un altro sito in modo "naturale", spontaneo.

      Se adesso Dechigno hai verificato che molti link = 1 link significa che questa accortezza non e' stata ancora implementata dai motori, ma visto la velocita' dell'evoluzione degli algoritmi, se non e' questione di mesi e' solo perche' sara' questione di giorni.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: più link da un singolo sito quanto valgono per il posizionamento

      Probabile che molti link = 0 link

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: La dimensione del testo incide sul posizionamento?

      Se la dimensione e' prodotta dal foglio di stile credo che G non la prenda in considerazione.

      Vicersa la somma dei font usati nella pagina darebbe comunque un valore di 100, pertanto anche aumentando il font di una parte del testo se ne penalizzerebbe il rimanente di font minore.

      In fine, anche ammesso che aumentando la dimensione di una parte del testo possa portare benefici per quella parte di testo, siamo davanti a valori cosi infinitesimali che non avrebbe neanche senso fare dei test di verifica.

      Di certo, e' come dice Stefano:

      "Mentre 60px può avere effetti negativi sul posizionamento"

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: description Google

      Ho verificato che per G 43 caratteri sono pochi, per il meta description.

      Poi ho provato a mettere piu' meta description dentro la stessa pagina, ognuno differente dall'altro.

      G mi ha immediatamente levato la pagina dalle sue serp.

      --

      Comunque da qualche settimana, nel servizio webmaster tools di G, vengono segnalate le pagine con meta troppo corto.

      Non si fa in tempo a partire con un test che G te lo vanifica...

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: Video Matt Cutts: importanza dell'Alt Tag

      Niubbo il processo intrapreso da G e' il seguente:

      Abituo i wm a mettere l'alt alle immagini.

      I wm corretti useranno correttamente questa risorsa.

      Gli utenti inizieranno maggiormente ad utilizzare la ricerca per immagini in quanto troveranno piu' facilmente cosa cercano.

      Io G mi segno per ogni query fatta nella "ricerca per immagine" quali immagini vengono cliccate dagli utenti e quali no.

      Le immagini poco cliccate saranno significativamente o di cattiva qualita' o il loro alt non sara' attinente a cosa mostrano, e cosi' anche questa volta G avra' un arma in piu' per penalizzare chi di dovere.


      Cosa significa tutto questo?

      Che sui nostri siti sara' opportuno evitare di mettere l'alt a tutte quelle immagini che potrebbero non interessare agli utenti, vedi gif piccoline, immagini straduplicate e straconosciute, immagini sgranate etc etc.

      Come sempre i motori dettano le regole ed i seo le applicano alla loro maniera. Quella furba.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: Parametro id, deleterio per posizionamento, anche con rewrite?

      Zumbo, hai presente quella coppia di comici dove uno continua a dire all'altro: "E' un esempiooooo!!"

      Ecco l'articolo citato fa un esempioooooo, per far capire-passare un concetto, ed usa il concetto dell'ID per dare l'idea.

      Se un utente presenta ad un motore una pagina che di fatto non e' altro che l'ennesima riproposizione di testo trito e ritrito, tipo catalogo di prodotti scelti dall'utente, ecco che il motore l'ignora.

      Pertanto non e' l'uso dell'ID nell'url che penalizza ma il contenuto che rappresenta generalmente l'ID, un contenuto noto.

      Per questo motivo usare il redirect per impalesare l'ID non ha molto senso.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: diverse directory registrato con stessa descrizione?

      Con shingle 3:

      Grazie alla ns esperienza diamo soluzioni ai vostri problemi di movimentazione

      Grazie alla ns
      alla ns esperienza
      ns esperienza diamo
      esperienza diamo soluzioni
      diamo soluzioni ai
      soluzioni ai vostri
      ai vostri problemi
      vostri problemi di
      problemi di movimentazione

      Diamo soluzioni ai vostri problemi di movimentazione grazie alla ns esperienza

      Diamo soluzioni ai
      soluzioni ai vostri
      ai vostri problemi
      vostri problemi di
      problemi di movimentazione
      di movimentazione grazie
      movimentazione grazie alla
      grazie alla ns
      alla ns esperienza

      Duplicati:

      Grazie alla ns
      alla ns esperienza
      diamo soluzioni ai
      soluzioni ai vostri
      ai vostri problemi
      vostri problemi di
      problemi di movimentazione

      Rimane nel primo caso:

      ns esperienza diamo
      esperienza diamo soluzioni

      Rimane nel secondo caso:

      di movimentazione grazie
      movimentazione grazie alla


      Pertanto nel secondo caso e' meglio scrivere qualcosa tipo:

      Societa' seria e con forte esperienza. Ci occupiamo di movimentazione in ogni suo aspetto.

      Viceversa ci di fa del male, e non poco.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: Le regole grammaticali ed i motori di ricerca

      Sommo a quanto detto da paolo (che virtualmente abbraccio) che i motori di ricerca sono ancora particolarmente permalosi e diffidenti.

      E' il caso tipico dei testi in dialetto o di particolari e poco conosciuti testi in "slang".

      Il wm scrive-riporta un testo in una lingua densa di termini poco noti al motore.

      Il motore, sempre attento al rapporto costi benefici, non riconosce quelle nuove-strane parole come un qualcosa che... seppur visto raramente, essendo (quel testo) sito in pagine attendibili (quel testo) poteva essere ritenuto testo si' nuovo, ma un nuovo degno di fiducia.


      Mi spiego meglio.

      Immaginiamo che un wm faccia migliaia di documenti pieni di parole scritte, una ad una, sorteggiandone le lettere.

      Esempio:

      "fwetgfegf fqwdfhvcbdgre sgwetwrq efwetwetqqf fefqrqr jytkjitritr jtrur"

      Ora un motore spiderizza il testo:

      "fwetgfegf fqwdfhvcbdgre sgwetwrq efwetwetqqf fefqrqr jytkjitritr jtrur"

      --

      Bene, il motore legge questo testo assurdo e lo archivia nei suoi db.

      Il motore non sa se un domani ci saranno query contenenti la parlola (per esempio): fqwdfhvcbdgre, e pertanto non sa se nessun o pochi utenti cercheranno la parola (entro breve) qwdfhvcbdgre.

      Il motore pertanto archiviera' quel testo come testo inutile o peggio ancora come testo di spam, testo creato artificialmente.


      Perche' avviene questo?
      Perche' viceversa sarebbe troppo semplice.
      Io wm potrei creare documenti formati da parole composte da lettere e numeri random.
      Cosi' facendo potrebbe "raccogliere" gli accessi di tutti quegli utenti che sbagliano a scrivere le query.

      In una parola, quel wm diventerebbe ricco in breve tempo.


      I motori non possono permettere questo tipo di spam, ed allora accettano una loro % massima (per sito, per documento) di testo a loro poco conosciuto.


      Come si traduce tutta questa filippica?

      Il senso e' che se degli utenti cercano parole nuove ed il motore trova quelle nuove-originali parole dentro un nuovo documento allora non ci sono problemi.

      Ma se un motore trova dentro un documento nuove parole che nessuno ha mai cercato ecco che allora che il motore ragiona cosi':

      Aspettiamo un po' di tempo....

      Ho aspettato un po'... nessuno le ha cercate allora: testo = spam, viceversa (in seguito) le hanno cercate allora: testo = utile.


      Eccezioni ce ne sono.

      Il parlato differisce dallo scritto.
      I testi parlati sono scritti nel web in minor misura dei testi scritti (sembra un gioco di parole, ma il senso e' quello).

      Tuttavia i motori si fanno forti, sfruttano (a fini scientifici) di molti corpora universitari in venduta (alla faccia di chi crede che tutte le universita' condividuano le lore risorse gratuitamente), tra questi i corpora di testo parlato.

      Pertanto sanno distinguere tra parole non presenti sul web perche' inventate e parole non presenti sul web ma esistenti nello slang di tutti i giorni.


      E' un problema tremendo di tutto il web.
      Il web e' fonte incredibile di informazione, ma tanto e' potente quanto e' ad escusivo uso e consumo di chi puo' pertemettersene i benefici.

      Se vivi in montagna spesso sei tagliato fuori, se sei povero non puoi permetterti il collegamento adsl, se non sei un motore non puoi permetterti i 40.000$ dollari annui che ti danno accesso ad alcuni corpora.


      E poi sui quotidiani ogni tanto appare la notizia che qualcuno ha bucato l'universita' di turno.

      Gia' bello che l'abbiano bucata e basta, sono dei galantuomini.

      A chi pretende di vendermi a 40k$ un pezzo di sapere gli formatterei anche la casa, altro che bucargli i permessi.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: diverse directory registrato con stessa descrizione?

      Quando una parte di testo e' gia' presente sul web siamo di fronte ad una situazione di shingle.

      http://en.wikipedia.org/wiki/W-shingling

      Quando un shingle e' presente in una pagina il valore della stessa viene diminuito.

      L'idea corrente e' questa.
      Conto il numero di shingles di lunghezza X presenti in una pagina.
      Ipotizziamiamo siano 50.
      Pertanto ogni shingle vale il 2%.
      Ipotizziamo che quella pagina presenti 12 shingle gia presenti sul web, pertanto un 24% in meno di valore globale.
      Vengo penalizzato ma se supero un alto valore (60-70% forse) il documento verra' bannato.


      Cosa succede se uso una descrizione uguale per ogni portale?

      Diminuiro' il valore della pagina del portale che mi linca in quanto la penalizzero' avendo introdotto nella stessa alcuni shingle gia' presenti sul web.


      Per questo motivo un portale vincente non dovrebbe accettare la descrizione da parte di chi suggerisce un sito.

      Perche' deve essere la redazione del portale che di volta in volta commentera' il sito proposto, proprio per essere assolutamente certa che quella descrizione non sia gia' presente sul web.

      Per questo motivo un wm non deve mai usare la stessa descrizione, proprio perche' se usasse il copia ed incolla penalizzerebbe chi lo ospita, annullandone i benefici.


      Quanto e' lungo per i motori uno shingle?

      C'e' chi suggerisce 10-15 parole, a mio avviso siamo molto piu' bassi, un 5-8.

      E' importante sapere ed evitare gli shingle comuni presenti in una pagina ed in un sito?

      A mio avviso oggi e' importante al punto da superare addirittura il valore apportato da buoni backlink.

      Posso ricevere 100 link da 100 siti istituzionali, ma se i 100 link puntano ad un testo non originale, pieno di shingle comuni, la mia pagina varra' comunque poco o nulla.

      Viceversa posso mettere online una pagina non lincata, ma se la pagina contiene molti shingle unici allora assumera' fin da subito valore e rilevanza per tutti i motori.


      L'introduzione dell'algoritmo che calcola gli shingle ha rappresentato la morte istantanea di tuti gli spam engine.

      E' probabile che anche un lungo documento che presenti nessun shingle gia' presente nel web sia penalizzato.

      Tutto cio' che non rientra nella media sa di forzato e pertanto e' considerato spam.

      L'uso di questo potentissimo algoritmo permette inoltre ai motori di identificare quelle pagine di un sito che gira e rigira presentano sempre gli stessi contenuti, magari con piccole variazioni tra le stesse come titolo, descrizone ed un poco di testo aggiunto e variato.


      Finisco ricordando che da anni tutti i seo sono concordi che un sito sale e merita solo se presenta contenuto originale.

      Tutti a ripeterlo a sfinire, senza mai chiedersi: quando un documento puo' considerarsi realmente originale?

      La risposta e' appunto nel calcolo degli shinlge comuni.


      Gli shingle sono ovunque.
      Se un vostro sito riceve 10 link esterni, ma tutti i link hanno come key-link la stessa frase... ecco 9 link parzialmente sprecati...

      Ringrazio uMoR per avermi introdotto nel mondo degli shinlge.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: description Google

      @masterx said:

      Provo anch'io a partecipare 🙂
      Facciamo un passo indietro...
      secondo voi, che metodo usano i motori di ricerca per la lettura 'meccanica' dei testi, in questo caso: dell'html?

      :fumato:

      Masterx cosa intendi per lettura meccanica?


      Nel frattempo ho rilevato un caso (per una mia pagina) per il quale G ha pubblicato nella sua serp la description anche se identica al title.

      Ho verificato con attenzione, e non vedo alcum motivo che giustifichi questa scelta da parte di G nel agire diversamente dal solito.

      Si tratterebbe di una eccezione, e come tale va considerata.

      uMoR tempo fa mi spiego' che G spesso ama fare delle eccezioni nelle decisioni dei suoi algoritmi, in modo da non rendere mai certo il processo degli stessi.


      Ho rilevato (alcuni casi) che G oggi presenta delle discrepanze tra serp e valore del pr mostrato dalla sua tb.

      In poche parole prima se la tb mostrava la barra vuota per una url la stessa non appariva in serp.

      Ora invece, una pagina puo' apparire in serp anche se la tb la segna come ignorata, e poi dopo un tot di tempo la tb si aggiorna ed al posto della barra vuota appare la barra bianca.

      Puo' sembrare un' inezia, ma se e' realmente cosi' significherebbe che mentre prima G aggiornava il pr della tb e poi man mano adattava le serp, ora invece G cambia prima i sort e poi con calma mostra i nuovi relativi pr.

      La cosa e' simpatica.

      Un tempo vedevi salire o scendere il pr di una tua pagina e di conseguenza ti attendevi vantaggi o disastri a breve.
      Ora invece guardi le serp e se vedi una tua pagina variare la sua posizione nelle serp ti aspetti un cambio del pr.

      Non so se i casi rilevati siano anche essi un' eccezione, o se sia una situazione momentanea.

      La cosa oltre che simpatica diventa interessante per i puristi in quanto, mostrare sovvertiti cause ed effetti di alcuni processi, puo' assumere valenze che vanno oltre le normali considerazioni.


      Per chiarire il concetto riporto un caso in cui fui partecipe quasi 20 anni fa.

      Immaginatevi la riunione plenaria di una societa' americana.
      Erano presenti qualche centinaia di venditori, insomma i cosi' detti rappresentanti di quella societa'.

      Quei rappresentanti dovevano vendere il prodotto X.

      L'anno precedente si era svolta la stessa riunione, e per spingere le vendite fu consigliato ai venditori di regalare un bellissimo computer a tutti i loro clienti che promettevano-prospettavano un maggior incremento degli acquisti.

      Torniamo all'ultima riunione, ad ai grafici mostrati dal direttore vendite.

      Il direttore mostro' dei grafici che dimostravano senza ombra di dubbio che tutti i clienti che avevano ricevuto in regalo un pc avevano poi acquistato di piu' nel tempo, e questo ovviamente come chiaro riconoscimento-conseguenza dell'omaggio ricevuto.

      Il direttore pertanto concluse affermando che se ad un cliente viene regalato un pc poi alla lunga quel cliente acquistera' di piu', sentendosi "in colpa".

      Il direttore poi chiese come di rito se qualcuno avesse domande in merito ed io alzai la mano.

      --

      Quando venne il mio turno chiesi pubblicamente:

      Mi scusi, ma voi l'anno scorso ci avevate suggerito di regalare un pc a tutti quei clienti che stavano incrementando il loro fatturato, a tutti quei clienti che ritenevamo degni di essere ricompensati perche' stavano prediligendo la nostra' societa' tra molte.
      Pertanto non e' certo che ogni cliente che riceve un pc poi incrementi il fatturato... perche' viceversa potremmo affermare che chi poteva o voleva incrementare il proprio fatturato venne ricompensato con un pc.
      Pertanto non avrebbe potuto esserci alcun effetto pc -> +fatturato perche' la realta' avrebbe potuto essere: +fatturato -> pc in regalo.

      --

      Mi licenziarono l'anno dopo, con mia immensa fortuna, perche' da venditore dipendente mi trasformai in informatico autonomo.

      Pertanto salgo nelle serp perche' e' salito il mio pr o sale il mio pr se son salito nelle serp?

      Ognuno puo' provare a rispondere a modo suo, al massimo si rischia un licenziamento.

      Al massimo ci si trasforma in informatici, e non perche' si risponde correttamente, ma "perche'" ci si pone la domanda.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: description Google

      Giorgio, concordo in pieno sulle probabili motivazioni logiche alla base di questa scelta di G (e degli altri motori) nel gestire la visualizzazione del meta description nelle serp.

      Il mio sgomento e' dettato invece dal fatto che non me ne ero mai reso conto.

      Dal fatto che se si leggono 100 giude, tutte suggeriscono un meta da 100 a 200 caratteri (per dire), e non ti dicono che se il meta e' corto piu' di un tot di caratteri (o di un tot di parole) ecco che allora quel meta non apparira' in serp.

      Dal fatto che non so ancora (per questo ho lanciato su un primo test) se nel caso la description non sia visualizzata venga pero' considerata al fine delle query.

      Non so per esempio se nel caso di 2 description nella stessa pagina, una corta ed una seconda normale, G scarti entrambi o magari consideri quella normale appetibile, anche se messa dopo quella principale (non si dovrebbe fare, ma nulla vieta provare).

      Non so per esempio se conti solo la grandezza del numero caratteri, o anche una logica, nel senso che se metto nella description: !?d-!?-!?- !?f- !?-__-!?!-!?- !?-!!!?-!?- forse G non la visualizzera', fosse anche lunga 200 caratteri.

      Insomma e' una vita che infilo description in ogni dove, e solo ora scopro che non ne so assolutamente nulla.

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: description Google

      Segue...

      1. G non mostra nella serp un meta description se identico al titolo.

      2. Msn invece mostra nella serp il meta description anche se identico al titolo.

      3. Sia G che Msn non mostrano in serp testo visualizzato nella pagina tramite javascript

      4. Yahoo non mostra nella serp un meta description se identico al titolo.

      5. Anche Yahoo non mostra in serp testo visualizzato nella pagina tramite javascript

      6. Yahoo a differenza di G e M mostra (nel caso appunto il description non sia considerato) il testo del primo e/o del secondo e/o del terzo paragrafo di una pagina, apparentemente in modo del tutto random ( ricordo che stiamo parlando della query site: )

      postato in News Ufficiali da Connect.gt
      A
      agoago
    • RE: description Google

      Segue...

      1. G non mostra nella serp un meta description se identico al titolo.

      2. Msn invece mostra nella serp il meta description anche se identico al titolo.

      3. Sia G che Msn non mostrano in serp testo visualizzato nella pagina tramite javascript

      postato in News Ufficiali da Connect.gt
      A
      agoago