Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. pieropan
    3. Post
    P

    pieropan

    @pieropan

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 4
    • Post 231
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località Aree tribali del nordest Età 68
    0
    Reputazione
    231
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Attivo

    Post creati da pieropan

    • RE: Google Panda = stai zitto o ti... banno !

      Salute a tutti.
      Caso interessante, lo osservo da alcuni giorni.

      Imho le spieghe che si focalizzano sui contenuti del video sono fuori strada. Suggestive ma diseconomiche, e in quanto devoto del dio Occam non mi persuadono. Pensare che ci sia uno staff che si guardi tutti i video e li soppesi in base ai contenuti è più che irragionevole, non è proprio logico.

      La filiera del ban in GG / youtube è nutrita da più canali: segnalazioni, estrazione a campione dei video con posizionamento buono e rapido, ricerche per tag su kw sensibili ecc.

      Quale che sia lo step iniziale (anche automatico), alla fine c'è quasi sempre un collo di bottiglia: il fattore umano, l'omino che deve valutare e che schiaccia il pulsante.

      Ecco, io mi focalizzerei sull'omino, su quello che aveva mangiato a pranzo, sui rapporti con la sua ragazza, sulle relazioni che intercorrono tra lui e il resto dello staff deputato al ban, sulla scadenza del suo contratto o altri aspetti assimilabili.

      Un algoritmo non ha orgoglio, certi umani ne hanno in sovrabbondanza e potrebbero avere difficoltà a riconoscere l'errore. Posto che se ne siano accorti, che non è affatto detto.
      Senza contare l'orgoglio aziendale, la sindrome da Fonzie che impedisce di dire "ho sbagliato".

      Ritengo che la cosa più probabile sia un errore umano - ban dell'account invece che del singolo video... forse i pulsanti sono vicini 🙂 - e che l'inerzia al rimedio conseguente (ammettere di fatto di aver sbagliato, ripristinando l'account) dipenda dal fatto che abbiamo di fronte appunto un Fonzie. Simpatico ma un po' rigido, non so se mi spiego.

      Che fare? Come al solito, un po' di casino-buzz. Finchè Fonzie non scopre che è più vantaggioso ammettere l'errore piuttosto che lasciar dilagare la cosa, come mi pare sia successo anche in altri casi.

      Enrico, tienici informati.

      Piersante

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Google -> 403 Vietato

      Ciao, quel tipo di messaggio compare abbastanza spesso quando dall'IP partono eccessive chiamate/query... tipiche dei software di ranking.

      E' per questo che è buona pratica non far fare i report dallo stesso IP di uso comune e mai da quello aziendale. Puoi anche impostare il software per usare un proxy diverso, ma soprattutto settalo in modo che vada + piano, che randomizzi lo user-agent e non controllare centinaia o migliaia di kw in un'unico report: spezzetta.

      ciao.

      postato in SEO
      P
      pieropan
    • RE: Che sta succedendo?

      @cors4ro said:

      oggi ho pubblicato la nuova versione di godado ... La cosa che già prima credevo fosse davvero importante è il NOFOLLOW nei risultati... Per il logo di ask è obbligatorio, mi fa risparmiare 80.000 euro l'anno... ⭕o:o

      Occhio, fai site:godado.it : solo il primo risultato porta a godado, tutti gli altri terzi livelli mostrano la pagina di test fedora.

      Non ho capito bene il meccanismo degli 80k guadagnati, dici che senza il nofollow ask non accettava e di conseguenza perdevi il cliente?

      postato in SEO
      P
      pieropan
    • RE: Che sta succedendo?

      Ciao, è evidente che il controllo dei link in uscita non era la principale preoccupazione. Cmq la via che dici in quote è quella giusta... hai un modo semplice per verificarlo: metti in nofollow tutti i link esterni al sito, e poi passi eventualmente a liberarli dopo averli controllati.
      La stragrande maggioranza delle penalizzazioni avviene per link a siti flaggati come spam.
      Per il resto quoto dechigno... non solo non essere spammosi, ma neppure sembrarlo: evitare qualsiasi cosa possa somigliare a un sito vandalizzato, ad esempio 404 a nastro sui link esterni.

      Ciao.

      @cors4ro said:

      LANCIO LA PRIMA IPOTESI PIù PLAUSIBILE DEL MOMENTO:
      Secondo me quello che è avvenuto a noi con il calo dell'80% è una nuova politica di TOLLERANZA ZERO per chi linka a siti spam.

      Nel mio caso è possibile che involontariamente ce li abbia in quanto chiunque può ricercare, che so "sexy poker viagra" e crearmi quindi dei risultati con link verso siti spam.

      Mettendo il NOFOLLOW dovrebbe andare bene...
      Provo e vi dico...
      Bonzoo anche tu aggiornaci! (Fai domanda di reinclusione...)
      Ciao

      postato in SEO
      P
      pieropan
    • RE: Test sul meta tag "Robots"

      @adrianodistasi said:

      Intanto per quel meta tag io sono sceso con 2 parole chiavi dalla seconda pagina alla nona...

      E chi ti dice che sia per quello? Ripeto: entrambi i metatag che citi sono inutili, nel senso che richiamano un comportamento che lo spider che ti darebbe comunque, anche in loro assenza.

      Sei libero di credere quello che vuoi, ma non ci puo' essere nessun nesso tra quello che hai visto e quei metatag.

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Test sul meta tag "Robots"

      Ma scusa, hai alternato due metatag inutili, nel senso che sono entrambi il trattamento di default che lo spider ti assegna anche se non ci fossero... e cerchi di trarne una regola?
      Allora tanto vale imputare il calo a quello che avevi mangiato prima di metterli, tipo: ogni volta che mangio crauti mi sale/cala il posizionamento.

      Ci deve essere un nesso logico tra l'attività che fai sul codice e le varianze che osservi, ma soprattutto l'effetto deve essere riproducibile anche per altri siti se cerchi di estrarne una regola, altrimenti tutto diventa arbitrario... o no?

      Imho non ci puo' essere nessun nesso tra l'effetto che hai visto e i metatag che hai segnalato. Avere andamenti sinusoidali è la norma per i siti giovani (e anche per molti anziani) e in ogni caso non c'è legame logico tra quei metatag e il posizionamento.

      Si puo' salire/scendere per millanta motivi, anche stando fermi.

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Aggiornamento Page Rank in corso

      @agoago said:

      .....
      Cosi' ora, grazie a questa mia ponderata strategia, ho un pr6 in piu'... e meta' dei guadagni in meno.

      Non so perche'... ma ho come l'impressione di averci smenato.

      ROTFL... ciao.

      Violo una delle mie ferree regole di igiene mentale, ossia quella di non intervenire mai in 3d sul TBPR.

      Lo faccio solo per chiedermi, ad alta voce, come sia possibile dopo anni che si afferma e si dimostra in pratica l'inutilità dell'indicatore per scopi SEO, che ci sia tutta questa attenzione malsana alle sue paturnie.

      Cmq, per chi ci crede, per chi è preoccupato del calo, per chi lo vuole lungo una soluzione c'è e la propongo qui sotto.
      L'incremento del TBPR che otterrete è definitivo e irrimediabile, quindi usatelo con cautela e solo su monitor di cui siete proprietari, mi raccomando!

      Ciao a tutti.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Parere su 404 di Beads&Co

      @giannibianchi said:

      ...mi hanno detto che invece di restituire una pagina di errore 404 restituisce una 200.

      Ciao, ti hanno detto male.

      Questo è l'header della tua 404, ed è corretto.

      http://www.beadsandco.it/PdorFiglioDiKmher.php

      GET /PdorFiglioDiKmher.php HTTP/1.1
      Host: www.beadsandco.it
      User-Agent: Mozilla/5.0 (Macintosh; U; Intel Mac OS X; it; rv:1.8.1.8) Gecko/20071008 Firefox/2.0.0.8
      Accept:text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,image/png,/;q=0.5
      Accept-Language: it-it,it;q=0.8,en-us;q=0.5,en;q=0.3
      Accept-Encoding: gzip,deflate
      Accept-Charset: ISO-8859-1,utf-8;q=0.7,*;q=0.7
      Keep-Alive: 300
      Connection: keep-alive
      Cookie:

      HTTP/1.x 404
      Date: Wed, 24 Oct 2007 17:12:39 GMT
      Server: Microsoft-IIS/6.0
      X-Powered-By: ASP.NET
      Content-Length: 18621
      Content-Type: text/html
      Set-Cookie:
      Cache-Control: private

      Ciao.

      postato in SEO
      P
      pieropan
    • RE: Backlink spam: penalizzano?

      @micky said:

      Ciao pieropan :).

      Il fatto di far sì che arrivino 100 link spam di colpo nulla dice però della titolarità dell'azione.

      Infatti. Non è certamente solo per quello. 100 poi non sono affatto molti.
      Un pattern è una catena di IF:
      IF hai millanta link spam,
      IF i millanta link spam ti sono arrivati di colpo da spammer che già conosco,
      IF c'hai un sito che fa schifo al web,
      IF sono due mesi che ti guardo e l'unica cosa che cambia sono gli adsense,
      IF quello che gli viene in mente tra le centinaia di fattori che considera....

      THEN stai messo male e ti becchi la quarta pagina.

      Fa una piega? Se non importa nulla del tuo sito a te, perchè dovrebbe importare a zio GG?

      🙂 Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Backlink spam: penalizzano?

      @micky said:

      se siete così sicuri di questo come interpretate questa frase:

      "There?s almost nothing a competitor can do to harm your ranking or have your site removed from our index" ?

      Ciao micky,
      tutto gira attorno a quell'almost.
      Google ha sempre tentato di impedire il reverse seo, ossia l'attacco ai competitori... primeggiare abbattendo gli altri invece che per propri meriti.
      E ci è sempre riuscito finora, lavorando di fino sui contrappesi e sull'individuazione di pattern univoci e sensati che definiscano le attività illecite, dal suo punto di vista.

      Tu ti chiedi: perchè almost? Perchè in effetti è teoricamente possibile che i link che ti arrivano ti possano penalizzare, se il modo in cui ti arrivano rientra in un pattern che -dal punto di vista del motore - ti qualifica come spammer.

      Com'è 'sto pattern pericoloso? Di preciso non saprei. Immagino serva una larghissima maggioranza di link spam che arrivano di colpo su un sito che non riceve nessun link pesante o serio. Comunque una roba di questo tipo.
      In un caso come questo potresti essere penalizzato, ma basterebbe raccogliere due/tre link seri per rimediare.

      In altri termini è una attività di danneggiamento che dovrebbe essere facilmente contrastabile.
      Imho nessun seo sano di mente oggi perderebbe tempo a fare reverse marketing -via link spam intendo- sui competitori, perchè i costi e gli sforzi non sono proporzionati agli obbiettivi, e cmq il target puo' salvarsi abbastanza facilmente.

      Anzi, sarebbe demenziale. Un po' come investire in pubblicità per mandare i propri clienti dal competitore, nella speranza che non ce la faccia a seguirli tutti, si ingolfi e quindi si ingeneri un passaparola negativo che alla fine lo danneggi.
      Roba da neurodeliri, o no? 🙂

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: E poi come fai a dire "vedi che te l'avevo detto?"

      @moroandrea said:

      Google ha ufficialmente ripreseo seriamente in considerazione il meta tag description.

      http://googlewebmastercentral.blogspot.com/2007/09/improve-snippets-with-meta-description.html

      Ora è lecito domandarsi se prima o poi non farà lo stesso per le keyword. Nel frattempo io continuerò a progettare i miei siti nel pieno rispetto dei vecchi e cari meta tag.

      ?? Ciao.
      Si legge:

      The quality of your snippet ? the short text preview we display for each web result ? can have a direct impact on the chances of your site being clicked (i.e. the amount of traffic Google sends your way).

      Quello che si è sempre detto.
      L'algoritmo il metatag description manco lo guarda, sul meta keyword ci sputa, si fa per dire. Fai la prova tu stesso, metti e togli i due meta, iincrociali, forzali e vedrai che non cambia nulla, se non tocchi anche il testo. Ma non guardare i posizionamenti, guarda il traffico che ti porta la pagina su cui intervieni e le ricerche con quella kw.

      Il meta description serve all'utente, fallo bene e avrai più click e starai meglio, dice cosi' il post no?
      Non ti da più traffico per il rank, ma per i click.
      L'occhio umano legge e compara gli snippet, e non è detto che tra un primo farlocco e un terzo ben scritto non clicchi il terzo.

      Io la leggo cosi'.

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: [robots.txt] - dubbio su allow o disallow

      @ideasiti said:

      Ciao... volevo chiarire un dubbio
      Per disabilitare tutto da tutti i motori è giusto scrivere?

      [html]
      User-agent:*
      Disallow: /
      [/html]

      No, questo è quello corretto:

      User-agent: *
      Disallow: /

      Son dettagli, ma sono tutto.
      🙂

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: [robots.txt] - dubbio su allow o disallow

      @claudioweb said:

      Ciao 🙂
      La direttiva allow non esiste. I motori pescano in automatico tutto ciò che non è escluso.

      Ciao, mmmh... questo è un caso in cui una affermazione è sostanzialmente vera e falsa allo stesso tempo. 🙂
      Mi spiego: la direttiva allow esiste ma, al di la del fatto che non tutti i bot la capiscono, non ha la stessa "sostanza" della direttiva disallow, non sono equivalenti e di segno inverso come potrebbe sembrare.

      Il robots.txt nasce col segno meno davanti, nasce per vietare. Quindi è vero che è permesso tutto quello che non è vietato, come dice claudioweb.
      Per questioni di praticità è stata poi aggiunta la direttiva allow, che però ha senso solo se segue un disallow, ovvero la tal cartella è vietata tranne, poniamo, il tale file.

      User-agent= googlebot
      Disallow= /talecartella/
      Allow= /talecartella/talefile.htm

      Occhio che Allow NON è parte del protocollo robots.txt (e quindi formalmente non esiste, se non per i bot la accettano) e sarebbe bene non abusarne. Ad esempio un robots.txt come questo:

      User-agent= googlebot
      Allow= /

      ... manda in pappa googlebot, anche se per lui Allow è una direttiva esistente.

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Ai content

      @paolino said:

      inoltre ho notato che anche sul fronte linking si stanno muovendo parecchio le acque a causa della diffusione dei CMS, in primis Wordpress, stanno aumentando i casi di backlink indotti attraverso tecniche di SQL Injection....

      non per fare nomi ma cercando nella SERP "casino online" ho visto almeno 5-6 siti tutti appartenenti allo stesso individuo che hanno ottenuto backlink in questo modo, parliamo di decine di migliaia di backlink

      Ciao, verissimo. Aggiungi al gambling online il settore pharmacy.
      Tanto che per scoprire il parassitaggio non è piu' conveniente verificare un eventuale ban o una penalizzazione secca (che non c'è più, bei tempi quelli del -30/9xx!)... bisogna fare site:tuodominio.tld viagra | cialis | poker online | casino | pharmacy.

      Tutti quelli che hanno CMS dovrebbero fare periodicamente questi controlli, perchè il prezzo è salato: google ti sgonfia le ruote se sei parassitato.

      Tra pochi giorni presenterò un caso concreto in cui è stato possibile misurare esattamente cosa comporta in termini di traffico essere parassitati da spam.

      Ciao, a presto.

      postato in Intelligenza Artificiale
      P
      pieropan
    • RE: Robots.txt, interpretazioni soggettive.

      Eheh.... intanto ciao agoago.

      La sintassi del robots.txt è subdola, è vero, spesso non ci si ragiona abbastanza.

      Prendi questo:

      User-agent: *
      Allow: /

      Che fa googlebot in questo caso? Entra? Nahhhhhh
      L'allow prende senso per google sono in presenza di un disallow....
      Provare per credere.

      Ciao, stammi bene.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Indicizzazione sito al plurale o al singolare?

      Salute a tutti,
      imho non c'è una risposta secca tra singolare e plurale, fatto salvo che molte considerazioni sopra esposte sono vere.
      Va considerato che ogni settore ha sue proprie caratteristiche specifiche.
      Ad esempio nel settore assicurativo il plurale porta il doppio del singolare, una cosa simile capita nel travel e in genere in tutti i settori dove avviene con metodo una comparazione, e dove il prezzo è una componente fondamentale nella scelta.

      Altri settori invece vedono una predominanza dei singolari.
      Come cavarsela? Secondo me non ci sono regole, si valuta volta per volta, analizzando le stat e, nel caso, lavorando sull'anchor-text dei backlink, diversificandoli nelle due forme.
      E tenendo presente che curvare un progetto o una kw dal singolare al plurale richiede del tempo, a volte molto.

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Scambio Link: come viene penalizzato!

      Infatti, io penso che siano gia' su questa strada da un pezzo. Ho dei casi in cui è evidente che i link sono "santificati" dall'uso degli utenti, ma è difficile isolare la cosa e imputarla ad un solo aspetto.

      Per "scienza sulle matrici di link" intendo quella vasta parte del SEO hatless che si è incaricata in questi anni di studiare l'effetto delle matrici sul posizionamento, vuoi per capire, vuoi per forzare ed individuare i pattern penalizzati e crearne di non intercettabili.
      Ho una autentica ammirazione per chi si è cimentato con le matrici di link, la stessa che provo per i monaci tibetani che fanno i mandala e poi li disfano.
      Insomma, far girare i neuroni è una attività che è sempre premio a se stessa, anche (e tanto più) se priva di applicazioni pratiche. 🙂

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Scambio Link: come viene penalizzato!

      @micky said:

      Poi ripeto citatemi i fattori che ritenete alternativi ad essi indipendentemente dalla storia delle realtà monopolistiche e se mi convincete cambio tranquillamente idea :D!

      Ciao, provo io.
      L'uso dei link, ad esempio, e non la loro pura esistenza. E il comportamento utente dopo aver visitato il sito segnalato dal link.
      Quando si dice che prima o poi verrà superata la LP, non si intende -immagino- che l'algoritmo non considererà più i link... questo non è semplicemente possibile. Senza link non esiste web.
      Quello che cambierà è il modo di guardarli: il link viene usato con soddisfazione? Bueno! Nessuno lo considera e chi lo usa fa subito retromarcia? Malo!

      Ecco, anche solo un approccio di questo genere rende sorpassata tutta la scienza sulle matrici di link a fini di posizionamento.

      Persuaso? 🙂

      Ciao.

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Redirect 301 su più livelli e contenuto diverso

      Imho sul 301 ci sono un sacco di equivoci non risolti.

      Faccio qualche esempio:

      1. un sito cambia nome dominio e cambia le url. Viene fatto il 301 pagina su pagina e ci si aspetta di conservare i posizionamenti.
        Non è assolutamente detto: ci sono una infinità di possibilità, es....
        Il nomedominio/brand è presente in title? Se si, non cambiano solo le url, ma anche tutti i title di colpo, ci potrebbe essere un reset completo di immagine e una riconsiderazione complessiva da parte dell'algoritmo. Un deep crawling potrebbe far riemergere pagine a bassa qualità che non erano piu' spiderizzate, incidendo quindi nella media dei wide-site. Potrebbero essere visti link in uscita prima non considerati dallo spider e, se di bassa qualità, potrebbero esserci ripercussioni sul trust e via di effetto domino.

      2. se durante il cambio di nome dominio, cms o quant'altro il sito si allarga di contenuti, potrebbero nascere una infinità di variazioni di quanto detto sopra.
        Prima parlavi di scarpe rosse in 300 pagine, poi parli di abbigliamento in 3000? Beh, non è assolutamente detto che tu possa conservare i posizionamenti che avevi sulle scarpe rosse. Magari non immediatamente, ma nel giro di qualche settimana potrebbe esserci un calo per diluizione tematica.

      Insomma, il 301 imho conserva bene tutto solo se tocchi la pura leva delle URL e basta, se vai a toccare altro, anche fosse "solo" la profondità o l'alberatura dei contenuti o addirittura se espandi il sito non è detto che le cose filino lisce come da manuale...

      Ciao

      postato in News Ufficiali da Connect.gt
      P
      pieropan
    • RE: Case History: il BadRank/Distrust, avvicinarsi ai siti spam ed essere penalizzati

      Beh... questa è una conferma.
      Il tema penalizzazioni è uno dei più interessanti del momento.
      Certo, non è una novità: i link in uscita sono sempre stati considerati dall'algoritmo come certamente imputabili all'owner del sito. Come potrebbe essere diversamente? Di quelli che ti arrivano che ne sai? ma di quelli che partono ne sai, eccome!
      Quindi le penalizzazioni si propagano tramite i link in uscita, mai tramite quelli in entrata (entro certi limiti).
      Sul tema però una "novità" c'è, ed è che la penalizzazione non è più secca (-30, -950, -XXX sul dominio) ma molto più subdola: riguarda le chiavi importanti e trascura quelle irrilevanti.
      In pratica se non percepisci la penalizzazione tenderai a incaprettarti da solo, sovraccaricando il seo delle pagine e delle kw scese e inguaiandoti ancora di piu', in un contesto dove le misurazioni per verificare la penalizzazione sono difficili e non automatizzabili.

      Direi quasi malvagia come mossa 🙂 ma efficace.
      Non è questione di porno, ma di flag spam.
      Linkare un sito flaggato è più che rischioso anche se imho (e a naso) il nofollow dovrebbe ancora funzionare per il momento.

      Ciao

      postato in SEO
      P
      pieropan