• User

    Non ho detto che la popularity non sia importante anzi lo è ma mettevo in discussione il modo con cui molti utenti la ottengono
    con link artificiosi su forum che promettono pr e popularity elevate.
    Google ripeto non è stupido; scheda tutti i siti con i pr alti catalogando
    o tramite dmoz o tramite altri suoi partner quelli non artificiosi (per artificiosi intendo inserimento in forum con popularity alta ma senza un tizio che faccia da moderatore tipo dmoz).
    Quindi io penso, o almeno è il mio modo di agire, meglio scrivere contenuti e aspettare che siano gli altri in automatico a inserire i link in maniera naturale (prima o poi arrivano se il sito è fatto bene) quindi penso che la popularity non si possa acquisire artificialmente perché Google capisce.

    Poi :

    Dobbiamo poi chiarire che Google non naviga il web con un normale browser, quindi non c'è alcuna ragione per paragonare il numero di richieste fatte dal pc di un utente a quelle fatte dal crawler , né di pensare che le soluzioni migliori per l'utente velocizzino nella stessa maniera anche il download da parte dei motori.

    Bhe non ti credere che Google abbia processori e server diversi dai nostri i processori: sono sempre gli stessi (sono fabbricati in serie in cina Malaysia se non sbaglio) forse la Nasa avrà processori personalizzati ma non penso 1 che li venda a Google, 2 che siano adatti per scopi civili. E anche se avessero
    un processore da miliardi di mhz devi tener conto che deve pur scandire poverino le pagine di miliardi di utenti ogni giorno, quindi se noi vediamo un sito ogni 5 minuti lui ne deve vedere in 5 minuti
    tipo milioni di siti altrimenti non può passare ogni giorno ad aggiornarti le statistiche, in fondo da Webmast Tool puoi notare in statistiche accesso crawler che al massimo ogni giorno in media ti scarica 3 4 mb di dati e se hai una pagina "e ne ho viste da 4 mb" bhe te ne indicizza 1 il giorno successivo 2 il terzo 3.
    Poi gli gira fammi vedere se ha fatto modifiche alla prima visto che nel sitemap ha messo aggiornamento daily quindi resta a 3 ecc ecc e tutto si conclude in un circolo vizioso come collo di bottiglia, cosi Google leggera poco o niente.
    E supponiamo che tu nella prima hai messo un evento importante bhe dubito che quel evento sarà visibile perché Google ti leggera solo una pagina e se ne hai mille la casistica e molto ristretta.
    Ripeto la velocità di un sito non solo migliora la navigabilità anche per le persone disabili che usano browser e parser a scansione vocale e non è tanto bello che legga le pagine a singhiozzo, tipo og. .. g..i è
    ... un... a bel....la gior.... nata
    e poi come dico io l'utente di Internet e come l'utente fastfood:
    prende e fugge ma se il sito ci mette 3 4 secondi a pagina, uno bestemmia due può abbandonare il sito 3 ti manda a quel paese ... e almeno io faccio cosi su Internet quando navigo non penso di essere diverso dagli altri. Avvolte chi fa siti si dimentica come lui stesso navigherebbe su Internet.

    Poi sinceramente io personalmente ne ho giovato tanto dalla velocità passando da 64 iniziali a 99 100 e da 2,3 secondi a 0,8
    (bada non ho messo nuovi contenuti, ho purtroppo i miei colleghi che sono ostici a scrivere ). Bhe sono salito come ho detto prima di 1 2 pagine e se prima non ero menzionato sulla parola turismo nemmeno sulla 600 pagina ora mi trovo alla pagina 15 non è tanto lo so ma essere alla 15 per quella parola non è da poco
    E poi ci sono ormai linee guida ad ok per arrivare a 100 100
    non vedo perché non farlo.
    Se ci sono riuscito io con Aruba penso lo possono fare tutti serve solo un po' di volontà.

    Fidati la tecnologie che usa sono uguali alla nostre sia per i linguaggi che per i processori. Perché chi vende processori
    dovrebbe vendere un prodotto più performante solo a Google e non all'utente che magari vuole solo giocare a Tomb Raider?
    Perché dovrebbero perdere soldi? E come sappiamo i cinesi sul mercato non ne fanno tanta di distinzione tra povero e ricco,
    l'unica cosa di diverso che ha Google sono i loro algoritmi performanti (e non è poco, non usano il winzoz che usiamo noi)
    ma per le richieste e risposte http che genera un sito non hanno nulla di diverso rispetto a noi: se 2 3 ne arrivano a me 2 3
    richieste arriveranno anche a Google. I protocolli di comunicazione in Internet solo l'unica cosa più democratica che esista ehehehe.
    E google riceve solo html css come li riceviamo noi, mica potrà accedere al nostro server: sarebbe violazione di proprietà privata e allora veramente andrei da Aruba e non solo gli sputerei in un occhio ma mi farei dare tutto quello che ho speso in 4 anni più gli interessi.


  • User

    Scusate l'ignoranza ma, sempre in riferimento alla dimensione di una pagina, Google calcola quanto è pesante considerando solo la pagina ricevuta e cioè il codice html effettivo oppure nel calcolo inserisce anche le immagini scaricate???

    In tal caso meno immagini si hanno meglio è considerando il peso che può dare anche solo una delle più banali foto o immagini...

    Oppure il calcolo non viene fatto sulle dimensioni della pagina ma sul tempo effettivo che impiega a scaricarla??? In tal caso potrei avere una pagina leggerissima ma potrei essere penalizzato se la metto su un server lentissimo.


  • Super User

    Ciao andrestu, stai attento che asp.net fa anche un'altra porcheria, sia per l'usabilità, che per l'accessibilità, che per la SEO.

    Tutti i __dopostback che mette nelle paginazioni e in tanti altri controlli.

    Siccome i links son troppo semplici, li hanno voluti complicare in qualcosa che solo asp.net può comprendere.


  • User

    @Webmaster70 said:

    [...]

    Sì grazie lo so, conosco bene Aspnet, infatti sto cercando di ottimizzare il codice generato solo che alcune cose fanno parte proprio dell'architettura interna e quindi difficilmente eliminabili, come per l'appunto i famosi " __dopostback". Penso comunque che i siti prodotti in Aspnet non siano proprio così pochi quindi Google si sarà un minimo aggiornato considerando anche questo fattore, e se non lo ha ancora fatto lo farà a presto visto che è una tecnologia molto diffusa (almeno spero), altrimenti tutti quelli come me che programmano in Aspnet sono spacciati, anche perché non è che si può cambiare tecnica di programmazione dal giorno alla notte...

    Vorrei qualche commento da qualcuno che programma in Aspnet: siete riusciti ad ottimizzare i vostri siti in modo da portarli ad un buon posizionamento su Google??? Oppure siamo spacciati e quindi conviene puntare su altro come campagne pay per click???


  • Super User

    Io programmavo in asp.net quando ero un dipendente.

    Per la paginazione avevo ripiegato su un controllo free e open source, non di microsoft.

    Quando mi sono messo in proprio l'ho abbandonato perché stanco di trovare continui workaround alle schifezze che mi faceva nel codice HTML.

    Google in genere non segue i form, quando lo fa, lo fa solo con quelli con metodo GET, e MAI con quelli con metodo POST, che sono quelli usati dal dopostback, perché la URL non cambia.

    Esempio:
    forum . herbalhighs.com/ActiveTopics.aspx
    se vai alla pagina 2, il contenuto cambia
    ma la URL rimane la stessa.


  • User

    @Webmaster70 said:

    [...]

    Scusa ma lasciare le cose come stanno, cioè lasciare il codice dei link come generato da Aspnet e nel frattempo creare un menu alternativo in semplice HTML (non visibile graficamente) oppure un sitemap non sarebbe già una possibile soluzione???


  • Super User

    Sarebbe una cattiva soluzione, i motori non amano il testo nascosto, ammesso solo in alcuni casi, e una sitemap non da ai motori le informazioni date dall'insieme dei links del sito:
    struttura del sito, argomenti correlati, passaggio di link juice che si affievolisce man mano che si va in profondità ecc. ecc.


  • User

    @Webmaster70 said:

    [...]

    Ho creato un menu HTML semplice navigabile dagli spider e l'ho inserito sotto un immagine tramite posizionamento assoluto, secondo te può venir considerato spamming?


  • Super User

    Idem.
    Dato che l'hai fatto, ora ti basta renderlo visibile e togliere quello fatto da asp.net (se appunto usa quelle robacce nell'HTML).


  • User

    @Webmaster70 said:

    [...]

    He he he e allora se questa era la soluzione il problema non sussisteva fin dall'inizio, il punto è che il menù originale, quello che vedono gli utenti, è stato fatto con dei controlli personalizzati creati da me che danno la possibilità di usare facilmente immagini grafiche, oltretutto non utilizza neanche i tag <a> quindi è completamente invisibile agli spider, il punto era creare un alternativa navigabile dagli spider.
    Mettendo il menu html semplice sotto un immagine grafica non sarà visibile dagli utenti bensì dagli spider.
    L'ho nascosto tramite sovrapposizione (position:absolute) di un immagine senza neanche usare lo z-index, quindi non rientra tra quelle tecniche sicuramente identificabili come spamming, però non ne sono certo. La cosa sicura è che se ci pensi gli spider per rilevare tale "infrazione" dovrebbero calcolare tutte le coordinate dei posizionamenti assoluti della pagina e metterle in relazione con le immagini e loro rispettive grandezze, un lavoraccio quasi impossibile. E comunque poi alla fine sotto l'immagine c'è un semplice menu e non keyword ripetute o altro ritenuto spamming, quindi non credo sia un problema.
    Penso che questa per ora sia l'unica soluzione per utilizzare entrambi i menu...


  • Super User

    Esiste una razza di esseri umani, chiamata quality rater, con un QI paragonabile al nostro, che sono pagati da Google per controllare tutto quello che lo spider non può controllare.

    Comunque secondo te hai trovato la soluzione, con tremila complicazioni e incasinamenti ... menu senza tag a 😮 vabbé auguri.


  • User

    @Webmaster70 said:

    [...]

    Che tale tecnica sia a rischio perché potrebbe essere considerata spam allora ne possiamo discutere ma sul fatto delle "complicazioni e incasinamenti" scusa ma sinceramente non ne vedo, a fare un menu alternativo semplice in html ci vogliono 5 minuti, anche se le pagine dovessero essere 20/30 (che sono già tante) il resto è rimasto tutto invariato, non ho dovuto modificare niente.
    Sicuramente non è una soluzione ottimale ma è un buon compromesso per utilizzare la struttura di aspnet e nel frattempo fornire agli spider un menu navigabile.