- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- viewstate Aspnet e ottimizzazione posizionamento
-
Caspita ma grazieeeee!
Ah ti ho risposto al forum : post771415Purtroppo anche io uso Aruba e sviluppo da 1 annetto per il web ma mi è bastato a capire che non è il migliore su Internet ne trovi tanti di hosting ora non ne so consigliarti uno buono ma se fai una ricerca Google penso che ne vieni a capo :), io me ne sono accorto qualche mese fa quando chiedevo delle richieste ad Aruba come mod_expires e ti rispondevano
"Forse lo metteremo siamo in fase di test", o altre cose del genere.
io comunque sono più deciso che appena finiscono con loro il contratto con i miei domini li sfanculo al 90 %, lascio quel 10 percento perché forse potrebbero migliorare in 6 mesi ehehhehe ma la vedo maleMiii grazieee comunque del codice, lo provo appena finisco alcune cose sul sito.
Ah una altra cosa di Aruba ancora sono con iis 6 quando ormai c'è il 7
e il cache controll lo risolvevi con 3 righe sul web config che ora non ritrovo più ma li trovi facilmente se giri un po' in Google "iis 7 leverage browser ..... bla bla bla "Ah se ti interessa io ho trovato il metodo per minificare unificare e comprimere al volo i css e js" con una librerie che con due modifiche semplici funziona anche su Aruba, se ti interessa fammi uno squillo comunque la mia email è [email][email protected][/email].
E anche un metodo per minificare il codice html al volo facendo uscire il codice html come quello di MSN tutto su una riga che a me piace un casino
-
Complimenti per il bel lavoro di condivisione che state svolgendo: è davvero positivo che pur essendo due utenti relativamente giovani del Forum riusciate ad interagire così proficuamente.
Tornerei adesso all'interessante scambio di opinioni.
Se leggi le ultime direttive di seo Google il pr o la popolarità è stata rimessa in secondo piano da Google.Potrebbe essere una scoperta davvero interessante, potenzialmente devastante dal punto di vista della qualità dei contenuti. Due domande: cosa sono e dove hai letto le ultime direttive?
Ok per lo scarso valore attribuito al PageRank (soprattutto se inteso come quel numerino rappresentato dalla barretta verde), ma sei sicuro che anche per la popolarità sia stata messa in secondo piano?Nel mio precedente post ho parlato di pertinenza e popolarità, oltre che dell'importanza dell'esperienza dell'utente. Ecco, forse sarà stato plagiato ma credo che
video mi dia abbastanza ragione: la velocità incide (a meno di attese sproporzionate) pochissimo sul posizionamento.Restando in particolare sul tema Caffeine e di quanto sia effettivamente cambiata la situazione in serp, invito poi alla lettura almeno delle prime 2 pagine di questo thread.
Dobbiamo poi chiarire che Google non naviga il web con un normale browser, quindi non c'è alcuna ragione per paragonare il numero di richieste fatte dal pc di un utente a quelle fatte dal crawler, né di pensare che le soluzioni migliori per l'utente velocizzino nella stessa maniera anche il download da parte dei motori.
Ciò premesso, penso anche io che un sito più leggero possa essere meglio indicizzato, non mi dimenticherei però che miglioramenti si possono ottenere anche lavorando sulla struttura del portale, inviando Sitemap e soprattutto aumentando la popolarità del sito.
A supporto di quanto da me sostenuto riguardo i reali margini di miglioramento in termini di velocità per un dominio tipico e di come essi siano sostanzialmente indipendenti dal linguaggio utilizzato e dal comportamento del server in generale, porto queste slide. Da notare come l'idea dell'autore sia molto simile alla mia anche per quanto riguarda l'importanza dell'esperienza dell'utente.
Spero di aver sufficientemente chiarito le mie idee e sarei felice di poter leggere delle risposte in grado di metterle in discussione.
Sia ben chiaro, non voglio con questo far passare il concetto che la mia opinione sia indiscutibilmente vera; anzi spero di stimolare la discussione nella speranza di apprendere e di rendere questo thread il più possibile vivo e completo.Resto in attesa!
-
Non ho detto che la popularity non sia importante anzi lo è ma mettevo in discussione il modo con cui molti utenti la ottengono
con link artificiosi su forum che promettono pr e popularity elevate.
Google ripeto non è stupido; scheda tutti i siti con i pr alti catalogando
o tramite dmoz o tramite altri suoi partner quelli non artificiosi (per artificiosi intendo inserimento in forum con popularity alta ma senza un tizio che faccia da moderatore tipo dmoz).
Quindi io penso, o almeno è il mio modo di agire, meglio scrivere contenuti e aspettare che siano gli altri in automatico a inserire i link in maniera naturale (prima o poi arrivano se il sito è fatto bene) quindi penso che la popularity non si possa acquisire artificialmente perché Google capisce.Poi :
Dobbiamo poi chiarire che Google non naviga il web con un normale browser, quindi non c'è alcuna ragione per paragonare il numero di richieste fatte dal pc di un utente a quelle fatte dal crawler , né di pensare che le soluzioni migliori per l'utente velocizzino nella stessa maniera anche il download da parte dei motori.
Bhe non ti credere che Google abbia processori e server diversi dai nostri i processori: sono sempre gli stessi (sono fabbricati in serie in cina Malaysia se non sbaglio) forse la Nasa avrà processori personalizzati ma non penso 1 che li venda a Google, 2 che siano adatti per scopi civili. E anche se avessero
un processore da miliardi di mhz devi tener conto che deve pur scandire poverino le pagine di miliardi di utenti ogni giorno, quindi se noi vediamo un sito ogni 5 minuti lui ne deve vedere in 5 minuti
tipo milioni di siti altrimenti non può passare ogni giorno ad aggiornarti le statistiche, in fondo da Webmast Tool puoi notare in statistiche accesso crawler che al massimo ogni giorno in media ti scarica 3 4 mb di dati e se hai una pagina "e ne ho viste da 4 mb" bhe te ne indicizza 1 il giorno successivo 2 il terzo 3.
Poi gli gira fammi vedere se ha fatto modifiche alla prima visto che nel sitemap ha messo aggiornamento daily quindi resta a 3 ecc ecc e tutto si conclude in un circolo vizioso come collo di bottiglia, cosi Google leggera poco o niente.
E supponiamo che tu nella prima hai messo un evento importante bhe dubito che quel evento sarà visibile perché Google ti leggera solo una pagina e se ne hai mille la casistica e molto ristretta.
Ripeto la velocità di un sito non solo migliora la navigabilità anche per le persone disabili che usano browser e parser a scansione vocale e non è tanto bello che legga le pagine a singhiozzo, tipo og. .. g..i è
... un... a bel....la gior.... nata
e poi come dico io l'utente di Internet e come l'utente fastfood:
prende e fugge ma se il sito ci mette 3 4 secondi a pagina, uno bestemmia due può abbandonare il sito 3 ti manda a quel paese ... e almeno io faccio cosi su Internet quando navigo non penso di essere diverso dagli altri. Avvolte chi fa siti si dimentica come lui stesso navigherebbe su Internet.Poi sinceramente io personalmente ne ho giovato tanto dalla velocità passando da 64 iniziali a 99 100 e da 2,3 secondi a 0,8
(bada non ho messo nuovi contenuti, ho purtroppo i miei colleghi che sono ostici a scrivere ). Bhe sono salito come ho detto prima di 1 2 pagine e se prima non ero menzionato sulla parola turismo nemmeno sulla 600 pagina ora mi trovo alla pagina 15 non è tanto lo so ma essere alla 15 per quella parola non è da poco
E poi ci sono ormai linee guida ad ok per arrivare a 100 100
non vedo perché non farlo.
Se ci sono riuscito io con Aruba penso lo possono fare tutti serve solo un po' di volontà.Fidati la tecnologie che usa sono uguali alla nostre sia per i linguaggi che per i processori. Perché chi vende processori
dovrebbe vendere un prodotto più performante solo a Google e non all'utente che magari vuole solo giocare a Tomb Raider?
Perché dovrebbero perdere soldi? E come sappiamo i cinesi sul mercato non ne fanno tanta di distinzione tra povero e ricco,
l'unica cosa di diverso che ha Google sono i loro algoritmi performanti (e non è poco, non usano il winzoz che usiamo noi)
ma per le richieste e risposte http che genera un sito non hanno nulla di diverso rispetto a noi: se 2 3 ne arrivano a me 2 3
richieste arriveranno anche a Google. I protocolli di comunicazione in Internet solo l'unica cosa più democratica che esista ehehehe.
E google riceve solo html css come li riceviamo noi, mica potrà accedere al nostro server: sarebbe violazione di proprietà privata e allora veramente andrei da Aruba e non solo gli sputerei in un occhio ma mi farei dare tutto quello che ho speso in 4 anni più gli interessi.
-
Scusate l'ignoranza ma, sempre in riferimento alla dimensione di una pagina, Google calcola quanto è pesante considerando solo la pagina ricevuta e cioè il codice html effettivo oppure nel calcolo inserisce anche le immagini scaricate???
In tal caso meno immagini si hanno meglio è considerando il peso che può dare anche solo una delle più banali foto o immagini...
Oppure il calcolo non viene fatto sulle dimensioni della pagina ma sul tempo effettivo che impiega a scaricarla??? In tal caso potrei avere una pagina leggerissima ma potrei essere penalizzato se la metto su un server lentissimo.
-
Ciao andrestu, stai attento che asp.net fa anche un'altra porcheria, sia per l'usabilità, che per l'accessibilità, che per la SEO.
Tutti i __dopostback che mette nelle paginazioni e in tanti altri controlli.
Siccome i links son troppo semplici, li hanno voluti complicare in qualcosa che solo asp.net può comprendere.
-
@Webmaster70 said:
[...]
Sì grazie lo so, conosco bene Aspnet, infatti sto cercando di ottimizzare il codice generato solo che alcune cose fanno parte proprio dell'architettura interna e quindi difficilmente eliminabili, come per l'appunto i famosi " __dopostback". Penso comunque che i siti prodotti in Aspnet non siano proprio così pochi quindi Google si sarà un minimo aggiornato considerando anche questo fattore, e se non lo ha ancora fatto lo farà a presto visto che è una tecnologia molto diffusa (almeno spero), altrimenti tutti quelli come me che programmano in Aspnet sono spacciati, anche perché non è che si può cambiare tecnica di programmazione dal giorno alla notte...
Vorrei qualche commento da qualcuno che programma in Aspnet: siete riusciti ad ottimizzare i vostri siti in modo da portarli ad un buon posizionamento su Google??? Oppure siamo spacciati e quindi conviene puntare su altro come campagne pay per click???
-
Io programmavo in asp.net quando ero un dipendente.
Per la paginazione avevo ripiegato su un controllo free e open source, non di microsoft.
Quando mi sono messo in proprio l'ho abbandonato perché stanco di trovare continui workaround alle schifezze che mi faceva nel codice HTML.
Google in genere non segue i form, quando lo fa, lo fa solo con quelli con metodo GET, e MAI con quelli con metodo POST, che sono quelli usati dal dopostback, perché la URL non cambia.
Esempio:
forum . herbalhighs.com/ActiveTopics.aspx
se vai alla pagina 2, il contenuto cambia
ma la URL rimane la stessa.
-
@Webmaster70 said:
[...]
Scusa ma lasciare le cose come stanno, cioè lasciare il codice dei link come generato da Aspnet e nel frattempo creare un menu alternativo in semplice HTML (non visibile graficamente) oppure un sitemap non sarebbe già una possibile soluzione???
-
Sarebbe una cattiva soluzione, i motori non amano il testo nascosto, ammesso solo in alcuni casi, e una sitemap non da ai motori le informazioni date dall'insieme dei links del sito:
struttura del sito, argomenti correlati, passaggio di link juice che si affievolisce man mano che si va in profondità ecc. ecc.
-
@Webmaster70 said:
[...]
Ho creato un menu HTML semplice navigabile dagli spider e l'ho inserito sotto un immagine tramite posizionamento assoluto, secondo te può venir considerato spamming?
-
Idem.
Dato che l'hai fatto, ora ti basta renderlo visibile e togliere quello fatto da asp.net (se appunto usa quelle robacce nell'HTML).
-
@Webmaster70 said:
[...]
He he he e allora se questa era la soluzione il problema non sussisteva fin dall'inizio, il punto è che il menù originale, quello che vedono gli utenti, è stato fatto con dei controlli personalizzati creati da me che danno la possibilità di usare facilmente immagini grafiche, oltretutto non utilizza neanche i tag <a> quindi è completamente invisibile agli spider, il punto era creare un alternativa navigabile dagli spider.
Mettendo il menu html semplice sotto un immagine grafica non sarà visibile dagli utenti bensì dagli spider.
L'ho nascosto tramite sovrapposizione (position:absolute) di un immagine senza neanche usare lo z-index, quindi non rientra tra quelle tecniche sicuramente identificabili come spamming, però non ne sono certo. La cosa sicura è che se ci pensi gli spider per rilevare tale "infrazione" dovrebbero calcolare tutte le coordinate dei posizionamenti assoluti della pagina e metterle in relazione con le immagini e loro rispettive grandezze, un lavoraccio quasi impossibile. E comunque poi alla fine sotto l'immagine c'è un semplice menu e non keyword ripetute o altro ritenuto spamming, quindi non credo sia un problema.
Penso che questa per ora sia l'unica soluzione per utilizzare entrambi i menu...
-
Esiste una razza di esseri umani, chiamata quality rater, con un QI paragonabile al nostro, che sono pagati da Google per controllare tutto quello che lo spider non può controllare.
Comunque secondo te hai trovato la soluzione, con tremila complicazioni e incasinamenti ... menu senza tag a vabbé auguri.
-
@Webmaster70 said:
[...]
Che tale tecnica sia a rischio perché potrebbe essere considerata spam allora ne possiamo discutere ma sul fatto delle "complicazioni e incasinamenti" scusa ma sinceramente non ne vedo, a fare un menu alternativo semplice in html ci vogliono 5 minuti, anche se le pagine dovessero essere 20/30 (che sono già tante) il resto è rimasto tutto invariato, non ho dovuto modificare niente.
Sicuramente non è una soluzione ottimale ma è un buon compromesso per utilizzare la struttura di aspnet e nel frattempo fornire agli spider un menu navigabile.