Navigazione

    Privacy - Termini e condizioni
    © 2020 Search On Media Group S.r.l.
    • Registrati
    • Accedi
    • CATEGORIES
    • Discussioni
    • Non letti
    • Recenti
    • Hashtags
    • Popolare
    • Utenti
    • Stream
    • Interest
    • Categories
    1. Home
    2. luvme2tms
    3. Post
    L

    luvme2tms

    @luvme2tms

    • Profilo
    • Chi segue 0
    • Da chi è seguito 0
    • Discussioni 4
    • Post 15
    • Migliore 0
    • Gruppi 0
    Iscrizione Ultimo Accesso
    Sito Internet www.cercacasa.it/ Età 44
    0
    Reputazione
    39
    Post
    0
    Visite al profilo
    0
    Da chi è seguito
    0
    Chi segue
    User

    Post creati da luvme2tms

    • RE: PHP Version

      superglobals "$_" le sto già utilizzando io per l'autenticazione del webmaster... quindi i "requisiti minimi di teecno" sono già cambiati...
      personalmente trovo un po' prematuro parlare di "requisiti minimi" in quanto TEECNO è solo agli inizi, cosa succederebbe se oggi vi si dicesse che vi basta avere php 4.0 e poi durante lo sviluppo degli script lo staff si trovasse (o vedesse costretto) a dover/voler usare una funzione per PHP 5 ... :mmm:

      Saluti e baci, :ciauz:

      postato in Teecno
      L
      luvme2tms
    • PageRank - LP - User Ranking ed altri concetti ideali

      Ci ho pensato un po' in questi giorni... ho anche fatto qualche piccolissimo test (se cosi si puo definire) per avere un riscontro ai miei pensieri.

      Mi chiedevo sostanzialmente come si puo "assegnare" un PR affidabile ad una data pagina, ed ecco quello che ne è venuto fuori:

      Poniamo VAL = IL/OL
      dove:
      VAL è "la quantità di PR" che una data pagina cede a quelle da lei linkate (tra poco ritorno sull'argomento)

      IL sono il NUMERO di Link in Ingresso verso una data pagina

      OL sono il NUMERO di Link in uscita verso altre pagine...

      ciò premesso:
      LPp = p1(VAL) + p2(VAL) + ...ecc.ecc... + pX(VAL)
      dove:
      LP è la LinkPopularity che ha un valore assoluto dato dalla somma dei VAL di tutti i link VERSO una pagina.

      UR*p = (*UR1+UR2+UR3 ...ecc.ecc... + URX)/N
      dove:
      URp è l'User Rank della pagina; URx etc i singoli voti, N è un fattore di riduzione, costante ... che appunto serve a ridimensionare l'UserRanking... immaginate che sia nell'ordine delle migliaia.

      SP = (gg=(D_oggi - D_old)) / 730
      dove:
      SP è il valore storico della pagina che è dato dalla differenza intercorsa tra la data corrente (D_oggi) e quella della prima indicizzazione (D_old) espresso in numero di giorni (gg) e divisa per 730 (che sono 2 anni) ...
      In pratica ogni anno il PR sale di mezzo punto.

      Abbiamo infine:
      PR = (SP + URp** + LPp) - Penalità Eventuali**
      quindi:
      PR = (gg/730)+
      ((UR1+UR2+UR3 ...ecc.ecc... + URX)/N**) + **
      **(p1(IL/OL) + p2(IL/OL) + ...ecc.ecc... + pX(IL/OL)) **
      - Penalità eventuali

      Una volta fatto il tutto il PR avrà una forma abbastanza strana e sarà il caso di normalizzarlo... in una scala da 0 a 10 come fanno un po' tutti i MdR...

      So che a scrivere i concetti dietro il PR sembra un concetto banale... (a tratti demenziale) ma immaginate se avessi scritto:

      Il PageRank è dato dalla somma del valore storico, dato dalla differenza espressa in giorni tra la data di prima indicizzazione e la data in cui viene calcolato il PageRank stesso, di tutti i singoli voti degli utenti divisi per una costante N, e dalla somma della LP che è data dalla somma ... mavaff... mi sono incartato!

      Vabbè, intanto approfitto per farvi anticipatamente tanti auguri di buon natale e di un sereno inizio d'anno, e ci rivediamo il 2 di gennaio... :fumato: :figo: :vaiii: :ciauz:

      postato in Teecno
      L
      luvme2tms
    • RE: Teecno Idea Lab: suggerisci un'idea

      @AlbertoSeo said:

      Implementate un meccanismo semplificato ispirato al concetto delle BigTable, per archiviare i dati storici ed altri parametri di punteggio dei siti nei vostri indici.

      🙂 Personalmente posso dirti che (anche se solo in termini concettuali, ideali ...) io ci sto lavorando un po' su.
      :ciauz:

      postato in Teecno
      L
      luvme2tms
    • RE: [DMOZ] Problemi accesso e submit

      Diversi mesi... arretrati...
      Quanti siti sono "nati" in questi "diversi mesi"?
      Gli editor sono esseri umani, volontari, non retribuiti...
      Mi chiedevo, ammesso e non concesso che dmoz "ritorni in funzione" ...
      Riusciranno mai i nostri eroi a sobbarcarsi la mole di lavoro che gli arriverà tutta in un colpo solo? :(): :arrabbiato:

      IMHO anche se oggi stesso dmoz dovrebbe riprendere le sue normali attività rischia il collasso... ed ogni giorno che passa la situazione peggiora... boh... io sono un po' scettico anche perchè stiamo assistendo ad una incremento progressivo delle directory per così dire "indipendenti"...

      la vedo nera per dmoz... comunque vada...
      😮 :arrabbiato: 😮
      😮 😢 😮
      😮 :arrabbiato: 😮

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • RE: Spider ideale

      @Andriy
      Ne sono lieto. Dal momento che mi frullano in testa tante idee sarebbe possibile avere il source dello spider (ed eventuali function.php ect.) in modo da poter partecipare seppur a livello teorico allo sviluppo del progetto?

      Per intenderci, il php lo so leggere, ma non mi azzardo a scriverlo 😛

      Tanto per farti un esempio stavo pensando a come gestire i metatag description, keywords ed expires... pensavo a come filtrare pagine costruite in modo da "fregare gli spider", come creare un hash della pagina per verificare eventuali "cloni" ... vabbè una serie di cosette così.

      <OT> C'è modo di conoscere "da utente" (quindi NON webmaster) il PR esatto (precisione di ~1/1000) assegnato da google e/o da yahoo ad una pagina? </OT>

      Edit:
      Avevo chiesto dove reperire il sorgente ma poi mi sono reso conto che da bravo n00b non avevo letto tutti i post sticked del forum 😛 :3:

      postato in Teecno
      L
      luvme2tms
    • Spider ideale

      Solo i miei 2 Iuro-cent.

      Davo una occhiatina al codice dello spider, aggiornato per altro ad agosto quindi immagino sia stato già modificato... tuttavia...

      Ho notato (riassumendo in termini spiccioli) che lo spider fa pressappoco questo:
      Dato un url:

      • Apre la pagina
      • Ne verifica la presenza nel DB
      • Salva/Aggiorna i contenuti nel DB
      • Calcola il peso di ogni singola keyword di quel documento rispetto al DB ...

      Ora il calcolo dell'algo di prova e del TF*IDF è un qualcosa che credo si dovrebbe delegare ad un ulteriore script.
      Ritengo che lo spider debba sostanzialmente limitarsi a fare questo:
      Dato un url:

      • Apre la pagina
      • Ne verifica la presenza nel DB
      • Salva/Aggiorna i contenuti nel DB
      • Salva/Aggiorna i link della pagina in una tabella dedicata (Es.: denominata spider)
      • Segue l'url successivo della tabella 'spider' (e ricomincia daccapo)

      Occorrerebbe poi uno script dedicato che periodicamente calcoli il peso delle key su tutto il DB e quindi consenta alle pagine (già indicizzate) di apparire nelle serp.

      Vi confesso che ho dato solo una occhiata superficiale al codice (e non sono proprio una cima in php) ma poniamo il caso di 3 competitors:
      il 1° ha una pagina che contiene la key parapacchio ovviamente questa parola non è contenuta nel DB, nel documento in esame la key ha un peso di 10/20*X/1 (DF è già ==1 perchè nel codice abbiamo if ($df ==0) $df = 1;) ... quindi lo spider arriva si fà i suoi conticini e assegna alla mia pagina per il termine "parapacchio" il valore di 2X

      il 2° competitor ha un documento idealmente identico al 1°
      parapacchio ha un peso identico al 1° competitor quindi 2X

      il 3° competitor ha un documento idealmente identico ai primi 2
      parapacchio ha un peso pari a 1X=(10/20 * X/2)

      e questo solo perchè ha avuto la sfortuna di essere stato indicizzato dopo... invece con uno script dedicato si puo far si che periodicalmente si passino in rassegna tutte le key ed ogni pagina assume un valore giusto rispetto al resto.

      Se ho detto cavolate, chiedo venia.

      postato in Teecno
      L
      luvme2tms
    • RE: eventuali nuovi algoritmi

      <convenevoli="leccata di fondoschiena"> Complimenti bla bla bla, progetto interessante bla bla bla, stima e rispetto bla bla bla </convenevoli>

      Veniamo al dunque:
      Ordinare le serp in base alle preferenze degli utenti è potenzialmente interessante, ma al contempo potenzialmente fallace... il numero di click (se fatto senza un controllo IP) si falsa con uno scriptino js di 4 righe con greasemonkey+FF, il tempo di permanenza su una pagina si falsa aprendo una pagina del browser e andando a fare una passeggiata in centro...
      Credo sarebbe più rilevante un ranking che dia un PR relativo, utilizzando un sistema di ranking fatto dall'utente, ma ovviamente con delle limitazioni.
      Cioè, il voto (da -1 a 10) ha magari una rilevanza dell' -1(10)/10.000, si logga il voto dell'IP associato al sito (magari creando una sorta di hash in un unico campo DB) e tanto per una pseudo sicurezza "per n00bs" gli si scrive un banalissimo cookie nella cache per evitare voti multipli da IP dinamici.

      In questo modo un IP vota solo 1 volta per risultato.
      Lo stesso metodo (magari solo l'IP) si potrebbe applicare anche ai click, ma sempre dandogli un valore bassissimo 1/10.000 o 5/100.000

      L'idea trova riscontro anche per fini statistici, ad esempio si potrebbe usare i dati dei click per proporre all'utente una pubblicità mirata ai suoi interessi... (è la prima cosa che mi viene in mente) ma questo è un altro discorso...

      postato in Teecno
      L
      luvme2tms
    • RE: SEO e Webmaster

      Ci ho pensato e ripensato... ho fatto un elenco delle 104 provincie e relativi link ai risultati delle ricerche... ho ripulito gli url da almeno 8 variabili che non erano nemmeno utilizzate (madonna che schifo...) e ora sono in procinto di uppare tutto su una paginetta a PR0 ...
      Il fatto è che linkare 104 pagine di un sito senza un minimo di contenuti può essere visto solo come spam... ARGH...

      Ho pensato di procedere in questo modo (anche se richiederà molto tempo) installo mediawiki sul sitarello farlocco, gli sbatto dentro dei contenuti originali, pertinenti e non scopiazzati, qua e la gli infilo A TEMA i link che ho preparato... Mi faccio un po' di BL qua e la, submitto il sitarello a google e poi incrocio le dita... nell'arco di 3 o 4 mesi dovrebbe indicizzarsi... spero...

      @eLLeGi
      Sono perfettamente e assolutissimamente daccordo... peccato che io non abbia un sito.... non ancora almeno!
      Sto organizzando un sito ma per il momento sono ancora offline, ci vorrà ancora qualche mese, e anche ammesso che lo avessi già non avrebbe nessuna LP 😛

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • RE: SEO e Webmaster

      @eLLeGi said:

      aggiungo che se non sei il webmaster e hai interesse a promuoverlo puoi fare cmq tutte le ottimizzazioni off page e di webmarketing che ritieni opportuno, tipo ricerca di link a tema, aggiunta in directory free o a pagamento, creazione di minisiti a tema che linkano il sito principale, recensioni su siti dedicati allo scopo, comunicati stampa, etc.

      Mi hai appena dato una idea!!!!

      Allora, poniamo il caso che io prenda un po' di spazio freehosted da un provider X... ovviamente il mio "sito" (per così dire) avrà PR0
      supponiamo che io su quel sito faccia una sitemap i cui link però puntano tutti al sito in questione?

      Oppure se nella homepage infilo i 104 link delle PRIMI risultati delle ricerche per ciascuna provincia?

      A prescindere dal PR di cui a questo punto non mi frega più niente, le pagine verranno indicizzate da GG?

      Immagino che ovviamente dovrò aspettare mesi prima che i risultati siano visibili, ma serve allo scopo?

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • RE: SEO e Webmaster

      Esattamente, Fradek, hai colto nel segno!
      Non sono il webmaster...
      Sono bensì un utente... a questo punto scusatemi lo sfogo ma ho bisogno di parlarne con qualcuno...

      Appartengo ad una federazione di agenti immobiliari che conta sul territorio oltre 18.000 associati, abbiamo a disposizione il sito di cui in firma, ora mi trovo a dover promuovere un software gratuito per gli associati che in automatico invia le offerte immobiliari al database e tanto per una mia curiosità ho voluto cercare gli annunci su google...
      Ho scoperto con grande stupore che zio GG non indicizza le pagine degli annunci. Ho provato a parlarne con il responsabile a livello federativo (un normalissimo agente immobiliare) che mi dice "Conosciamo il problema e abbiamo presentato in sede di consiglio un preventivo per pubblicizzarci su google" ...
      e io dentro di me dico:
      Un sito che conta quasi 50.000 annunci immobiliari, google ne indicizza tra si e no solo 50 e voi invece di ottimizzare il sito volete PAGARE per fare pubblicità?

      Ok, lui è un agente immobiliare, tante cose non puo sapere come funzionano, allora cosa faccio? Scrivo ai tecnici che gestiscono il sito...
      e qui il mio stupore aumenta... faccio una premessa, avevo scritto ai tecnici precedentemente per un problema interno al portale e mi hanno risposto immediatamente, quindi so che sono attivi e attenti alle mail...
      dicevo... scrivo ai tecnici... e a distanza di una settimana non ottengo nessuna risposta...
      Ho una mia teoria in merito, i tecnici ci lucrano qualcosa da tutto questo... non puo essere altrimenti.

      Tra l'altro il sito è tutto in asp, url dinamici fatti con i piedi (come il secondo che ho in firma), non esiste robots.txt, se date una occhiata all'html di quella pagina vi rendete conto che le keyword non sono adeguate... insomma il sito apparentemente è ben fatto, ma da un punto di vista SEO è una porcata!!!!!!
      E nessuno mi ascolta... non so più cosa fare...

      scusate ancora lo sfogo...
      ... anzi, i link in firma li lascio ancora qualche ora e poi tolgo tutto... anche perchè non aiutano al mio scopo, e il PR è già discreto quindi è inutile che stiano lì...
      sono disgustato...

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • RE: Salve Salvino!

      Ciao Flep,
      grazie per la risposta.
      la conversazione continua qui .

      postato in Presentati alla Community
      L
      luvme2tms
    • SEO e Webmaster

      Cito me stesso:

      C'è un sito (quello in firma), che non è il mio, ma che ho il preciso interesse a promuovere in quanto è indicizzato malissimo su google.
      Ho provato a parlarne con "i tecnici" ma mi hanno ignorato.
      Credo che gli convenga spillare soldi "al committente" per ottimizzarlo.
      Mi chiedevo se da utente posso fare un sitemap e darla in pasto a google?
      Sicuramente da un punto di vista morale mi sentirei in una botte di ferro, ma è legale?

      N.B.:
      Ancora non l'ho fatto e prima di procedere aspetto un vostro consiglio
      Anticipatamente grazie!

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • RE: sei dei nostri...

      1980 ... l'anno della mia nascita, l'anno del terremoto in campania di cui ho solo sentito parlare perchè sono figlio di emigranti e vivevo negli USA... in un paesino in cui potevi girare tranquillamente con il triciclo a 4 anni per tutto il quartiere. In quegli anni c'erano ancora i reduci del vietnam, la maggior parte tossici o pazzi, c'era una bambina che ricordo poco, figlia di un reduce... aveva una situazione familiare alquanto strana.
      Gli italiani erano ancora "rispettati" ,visti come Pizza, mafia, mandolino.
      Sono nato con il computer in casa... il computer... una sorta di commodore a cassette, regalatomi da mio zio che lavorara per la ditta che lo produceva.
      Eravamo bambini, spensierati... come i bambini di tutte le generazioni... nati con MTV che passava i video di M.Jackson, di Boy George, ma anche quelli dei Dire Straits e di David Lee Roth... La mamma era della generazione dei figli dei fiori, peace on earth, femministe emancipate che però ancora credono nella famiglia e nel culto del pranzo domenicale...
      Si avvicina il natale... preferisco non pensarci... quello che era, quello che è...

      postato in GT Fetish Cafè
      L
      luvme2tms
    • RE: link reciproco

      per un attimo ho temuto che il reciprocal link fosse obbligatorio. e data la mia condizione di "utente" del sito segnalato non avrei in nessun modo potuto aggiungere quel link!

      Mi sento MOOOOOOOOOOLTO più sollevato! :vai: :fumato: :yuppi:

      postato in News Ufficiali da Connect.gt
      L
      luvme2tms
    • Salve Salvino!

      Ciao a tutto il forum, vi lurko da un po' di tempo con grande interesse.
      Intanto vi porgo subito un piccolo quesito.
      C'è un sito (quello in firma), che non è il mio, ma che ho il preciso interesse a promuovere in quanto è indicizzato malissimo su google.
      Ho provato a parlarne con "i tecnici" ma mi hanno ignorato.
      Credo che gli convenga spillare soldi "al committente" per ottimizzarlo.
      Mi chiedevo se da utente posso fare un sitemap e darla in pasto a google?
      Sicuramente da un punto di vista morale mi sentirei in una botte di ferro, ma è legale?

      N.B.:
      Ancora non l'ho fatto e prima di procedere aspetto un vostro consiglio.

      postato in Presentati alla Community
      L
      luvme2tms