Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. siluc
    3. Post
    S

    siluc

    @siluc

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 5
    • Post 9
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Località Guidonia Montecelio (RM) Età 34
    0
    Reputazione
    9
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User Newbie

    Post creati da siluc

    • Frame che si apre soltanto in locale ma non quando la pagina è online

      Ciao a tutti,
      ho necessità di inserire questa pagina http://www.protezionecivile.gov.it/radar-dpc in un portale, utilizzando il tag frame.

      Se apro il file in locale funziona, mentre se lo eseguo dopo averlo caricato nel mio hosting vedo una schermata bianca.

      Voi direte: "Sicuramente hanno bloccato lo scraping tramite Htaccess". Ci ho pensato anche io, però ho notato che alcuni siti riescono a visualizzare correttamente il tutto, come ad esempio questo: http://piegarometeo.it/mt//plugins/RadarDPCplug/RadarDPCplug.php***

      Questo è quello che ho utilizzato:

      <iframe src="h***ttp://w***ww.protezionecivile.gov.it/radar-dpc/" width="800px" height="500px" scrolling="no" frameborder="0"></iframe>
      

      Chi mi aiuta a risolvere? Magari utilizzando la funzione cURL di PHP?

      postato in Coding
      S
      siluc
    • Div aggiornato ogni tot secondi con Ajax: evitare attivazione del loader

      Ciao a tutti,
      ho correttamente implementato una chiamata Ajax/jQuery che ogni 7 secondi refresha un Div prelevando i dati da un file PHP (che a sua volta esegue una semplice query MySql).

      L'aggiornamento del Div funziona correttamente, ma il problema è che ad ogni refresh si avvia il loader (uso questo: https://github.hubspot.com/pace/docs/welcome/ ) come se venisse aggiornata tutta la pagina. Come posso impedire la visualizzazione in sovraimpressione del loader nel caso in cui Ajax aggiorna esclusivamente quel Div?

      Grazie!

      postato in Coding
      S
      siluc
    • Correttezza mio file robots.txt

      Ciao ragazzi,
      mi confermate che il mio file Robots.txt, di cui vi mostro il codice qui di seguito, è corretto?

      
      ######## GRUPPO A ########
      User-agent: Googlebot
      User-agent: Googlebot-Mobile
      User-agent: Bingbot
      User-agent: Slurp
      User-agent: Msnbot
      Disallow: /risorse/
      Allow: /risorse/css/
      Allow: /risorse/js/
      Disallow: /paginaX
      Disallow: /paginaY
      Disallow: /paginaZ
      
      ######## GRUPPO B ########
      User-agent: *
      Disallow: /
      
      

      Quello a cui voglio arrivare è questo:

      • Bloccare la scansione a TUTTI i crawler, eccetto Google, Bing, Yahoo! e MSN;
      • Google, Bing, Yahoo! e MSN possono accedere a tutto il sito, eccetto la directory "risorse" e le pagine X/Y/Z;
      • In "risorse", quindi, non accede a nulla tranne le sotto-directory "css" e "js".

      Forse devo aggiungere al GRUPPO A la riga: Allow: / , ovvero:

      
      ######## GRUPPO A ########
      User-agent: Googlebot
      User-agent: Googlebot-Mobile
      User-agent: Bingbot
      User-agent: Slurp
      User-agent: Msnbot
      **Allow: /**
      Disallow: /risorse/
      Allow: /risorse/css/
      Allow: /risorse/js/
      Disallow: /paginaX
      Disallow: /paginaY
      Disallow: /paginaZ
      
      ######## GRUPPO B ########
      User-agent: *
      Disallow: /
      
      

      Grazie a tutti per quanto farete!
      Disallow: /pagina1

      postato in SEO
      S
      siluc
    • Impedire submit multipli - script su file secondario

      Buongiorno a tutti,
      ho un form HTML che invia dei dati ad uno script PHP, che a sua volta:

      • inserisce tali dati in una nuova riga di una tabella;
      • seleziona tutti gli indirizzi e-mail delle persone residenti in una data regione (selezionata nel form iniziale) e tramite un ciclo While invia ad ognuno un'e-mail in formato HTML che include le informazioni inizialmente inserite nel form dall'utente.

      Attualmente per alcune regioni ho anche più di 200 utenti, quindi lo script ci mette un po' ad inviare tutte le oltre 200 e-mail, per poi rimandare ad una pagina che da conferma dell'esito positivo. Capita quindi che l'utente, non vedendo - apparentemente - succedere niente, clicca 2, 3, 4 volte sul Submit... Ciò comporta il salvataggio di 2 (o 3, o 4) righe identiche (si differenziano solamente per la data/ora di salvataggio che varia di pochi secondi ognuna) nella tabella e l'invio ad ogni utente di 2 (o 3, o 4) e-mail, fin quando poi gli si apre la pagina dell'esito...

      Ho notato che questo problema avviene solamente nella versione Mobile del gestionale, probabilmente perchè si nota meno il simbolo di caricamento del browser, mentre dalla versione PC/Desktop, in cui il simbolo di caricamento è più evidente, non ho mai riscontrato questo problema.

      Potete darmi una mano?

      postato in Coding
      S
      siluc
    • RE: PageRank da sempre fermo a 0

      @Federico Sasso said:

      Ciao siluc, benvenuto nel Forum GT

      Per politica i thread su Forum GT non sono normalmente chiusi, ma questo è vecchio di mesi; normalmente è preferibile aprirne uno nuovo.

      Leggi i messaggi di questo stesso thread, vi è già stata data spiegazione del perché non sia strano affatto, e perché non ci si deve aspettare un cambiamento.

      Spero d'esserti stato utile

      Prendo per conferma che anche se il topic ha qualche mese, è ancora valida la cosa... Volevo evitare di aprire un topic per ricevere una semplice conferma sulla situazione di qualche mese fa!

      Quindi è normalissimo che il mio sito, presente da Gennaio 2015, abbia PR = N/A! Bene così!

      Seguendo le vostre indicazioni, anche relative a una discussione che avevo aperto lo scorso anno, ho ottenuto davvero ottimi risultati!

      Grazie Federico, grazie a tutta la community e mi scuso per aver riaperto un vecchio topic!!!

      postato in SEO
      S
      siluc
    • RE: PageRank da sempre fermo a 0

      Ciao ragazzi,
      approfitto di questo topic, evitando di aprirne un altro, per un problema analogo...

      [CENTER]www[dot]reteradiomontana[dot]it
      [/CENTER]

      Il sito è online dal 27 gennaio 2015, quindi quasi un anno, è indicizzato e anche posizionato bene per molte parole chiave che mi interessano. Non uso link a pagamento. Ho anche i sitelink di Google. Ma il PageRank è NULLO da oltre un anno!

      Il sito ha in media 150/200 visite al giorno (ottimo, visto l'argomento molto specifico)... Se pubblico un articolo, in poche ore compare tra i primi risultati. Anche se scrivi il link di un sito .GOV in Google, l'articolo che contiene quel sito è al secondo posto (il primo è il sito origianario)... Esempio: URL >> google.it/?q=meteomont.gov.it#newwindow=1&q=meteomont.gov.it

      So che il il PageRank non è più importante come un tempo... Però non è normale... Vi chiedo cortesemente se potete dare un'occhiata al sorgente della Home, per capire se sbaglio qualcosa io... Dopo un anno, avere un PageRank = n/a (credo valga meno di 0), è davvero strana come cosa...

      Grazie mille per quanto potrete fare...

      postato in SEO
      S
      siluc
    • RE: Link interni multipli e rel &quot;nofollow&quot; a pagine importanti

      @walid said:

      Ma figurati 🙂

      nessun problema, non e il massimo lato seo, ma di certo se un giorno hai problemi di posizzionamento non sarà per questo motivo. Vai tranquilo ma comunque si, togli questi nofollow dai link interni. Spreco di Page Rank

      Buonasera,
      La scorsa notte ho pubblicato il nuovo sito (se tra di voi ci sono praticanti ti escursionismo, alpinismo e altre attività da montagna vi invito a visitarlo) e prima di farlo ho visitato vari giornali e riviste online... Alcuni ho visto che hanno utilizzato, anche in home, il rel nofollow per uno dei due link che puntano all articolo (il mio caso).. e così per ogni anteprima di articolo presente.

      Penso quindi che tenterò lasciando i nofollow in una delle 2 ancore di ogni articolo. Teoricamente non credo che il rank si annulli del tutto, perché comunque c è un link libero e uno bloccato verso la pagina dell' articolo.

      Vedendo il mio sito avete altri suggerimenti da fornirmi?
      VVV dot r e t e r a d i o m o n t a n a dot i t

      postato in SEO
      S
      siluc
    • RE: Link interni multipli e rel &quot;nofollow&quot; a pagine importanti

      @walid said:

      Ciao siluc

      tu stai descrivendo l'architettura classicha per un blog, Google conosce molto benne i problemi della loro architettura chronologica, non sarai penalizzato per 10 link verso la stessa categoria o verso l'autore.

      Per quello che riguarda rel=nofollow : Questi link non transmeterano Page Rank e fin qua va benne, il problema e che comunque farrano perdere page rank alla home page, perche da qualchi anni il nofollow non permette più di fare "retenzione di page rank" allora e un peccato.

      Certo non e ottimo avere 10 link verso la stessa pagina, ma in questo caso il nofollow non costituice una soluzione. Rifletendo mi dicco, 10 articoli di fila publicati nella stessa categoria, forse e questo il problema. Se ci sono delle categorie dove pubblicati più articoli forse sarrebbe il caso di fare un sistema di box per ogni categoria. In questo modo ad esempio avrete una box "SEO" per i ultimi 6 o 10 articoli pubblicati nella catégoria SEO, e soto un'altra box per la categoria "E-mail marketing". Ogni box avra solo un link verso la categoria.

      Per quello che riguarda l'autore, se un autore publicca 80% dei contenuti e ovvio che avra piu link sulla sua pagina di profilo. Per limitare, un idea e di fare scomparire questi link della home page, e di lascarli sulle categorie. Un'altra idea, nelle categorie ancora un sistema di box, ma per i autori. Per i problema di link sulle foto, le potete disattivare. Pero ripetto, questa problematica e la stessa per migliaia di blog, non e il massimo lato SEO, ma non e nemeno una pratica che vi fa rischiare penalizzazione. Quindi tranquilli !

      Mille grazie walid!

      In realtà non è proprio un blog... ci sono anche molte pagine statiche (tra cui quelle dedicate agli autori).

      Se ho capito bene, mi conviene rimuovere a tutti i link interni sopra descritti il rel nofollow.

      La Home Page conterrà gli ultimi 5 articoli pubblicati, che potranno essere di qualsiasi categoria. Poi, ovviamente, ci sarà una pagina per ogni singola categoria... qui compariranno gli articoli, con paginazione di 5 per pagina.

      Vorrei tenere il link all'articolo, sia sull'immagine che sul titolo...

      @walid said:

      per le pagine da escludere della scanassione, il meglio e di implementare sulla pagina il meta name robots con i attributi noindex,follow o noindex, nofollow. Il robots.txt e in più, dovrebbe bastare la versione sensa l'estenzione, ma per sicurezza in caso di errori di sviluppo, meglio aggiungere anche la versione con l'estenzione

      Le pagine che intendo non indicizzare le ho già impostate con il metà robots su noindex,nofollow. Non ci dovrebbero essere link che puntano a pagine con l'estensione, comunque sia ho messo il disallow sia per la versione con estensione, che per quella senza!

      postato in SEO
      S
      siluc
    • Link interni multipli e rel &quot;nofollow&quot; a pagine importanti

      Premetto che il dominio indicato è stato volontariamente fatto de-indicizzare perché verrà spostato su un nuovo dominio con una nuova struttura, e intendo posizionarlo da capo.

      Dunque,
      ho alcune domande da porvi...

      Nella Home Page compariranno gli ultimi 10 articoli di news pubblicati... di ogni articolo viene visualizzato:

      1. foto relativa alla news (link all'articolo)
      2. titolo (link all'articolo)
      3. testo riassuntivo
      4. autore (link alla pagina dell'autore)
      5. categoria (link alla pagina contenente tutti gli articoli di quella categoria)

      Nella Home quindi compariranno 2 Link che puntano alla stessa url (quella dell' articolo, url importante che intendo far indicizzare).
      Inoltre può capitare che nella pagina ci siano 10 link che puntano alla url della pagina della categoria (da indicizzare), e 10 link che puntano alla url dell'autore.

      Per ora ho ragionato così: Google vedendo link interni multipli, potrebbe considerarli spam... anche perché i link alla pagina della categoria e degli autori sono già presenti nel menu.
      Ho pertanto aggiunto il rel nofollow al link che punta l articolo dall' immagine, mentre l ho lasciato normale al link del titolo. Ho aggiunto il rel nofollow anche al link alla pagina della categoria e dell autore.

      Potrebbe essere penalizzante invece?

      L'altra domanda è: con il mod Rewrite di .htacces ho rimosso l'estensione delle pagine (da /contatti.php a /contatti). Alcune pagine, tramite il file Robots, le ho escluse dalle scansioni degli spider... Applico il Disallow alla pagina /esclusa.php , alla pagina /esclusa o a entrambi?

      Grazie in anticipo per i consigli che potrete darmi!

      Dominio:
      radioinmontagna.it
      Motori:
      Google
      Prima indicizzazione o attività:
      prima indicizzazione
      Cambiamenti effettuati:
      ancora non indicizzato
      Eventi legati ai link:
      nessuno
      Sito realizzato con:
      PHP
      Come ho aumentato la popolarità:
      sito ancora offline
      Chiavi:
      in fase di studio
      Sitemaps:
      No

      postato in SEO
      S
      siluc