Se ho ben capito nel 2005 non hai presentato alcuna dichiarazione, pertanto di primo acchito ti direi che non puoi recuperare nulla e in ogni caso non ci sono sanzioni per non aver chiesto il rimborso. Per quanto riguarda il quantum se proprio vuoi sapere quanto non hai chiesto a rimborso è meglio che tu ti vada a prendere le istruzioni della dichiarazione dei redditi di quell'anno che trovi in agenziaentrate(.)it ma mi sembra comunque molto strana una differenza del genere.
Per il 2007 la differenza può essere dovuta al reddito di riferimento per l'applicazione delle detrazioni in quanto se ti detrai dei contributi pagati o l'SSN corrisposta in polize assicurative tipo quella dell'automobile, potrebbe cambiare lo scaglione di appartenenza per le detrazioni oppure se ha compiuto i 3 anni ci potrebbe essere una discordanza nei mesi con più o meno di 3 anni
mchgrg
@mchgrg
Post creati da mchgrg
-
RE: Detrazioni/deduzioni figli a carico
-
RE: Microsoft: 44 miliardi di dollari per Yahoo!
Sicuramente come dice Giorgio il motivo principale dell'offerta Microsoft è quello di spartirsi la pubblicità e questo almeno in un primo momento non può che fare del bene al mercato sia adwords che adsense.
Ma io non sottovaluterei la penetrazione dei sistemi operativi e dei software Microsoft nel mercato mondiale: sinergie tra motori di ricerca Internet Explorer, o quant'altro di immaginabile e non, saranno sicuramente una potenziale arma per Microsoft visto anche il fatto che sul 90% dei computer nuovi ci sono sistemi operativi e navigators Microsoft.
E l'espansione globale dei mercati (i famosi computer portatili da 50$ per emancipare tecnologicamente il terzo mondo) potranno indurre in tentazione microsoft, facendogli pensare di fare forzature di interazione tra i software e i suoi portali che verranno si bocciate dagli antitrust occidentali ma che nel frattempo la porteranno ad essere lo strumento più usato nei paesi emergenti nel senso tecnologico, cioè che stanno scoprendo le tecnologie occidentali.Statisticamente il 90% degli utilizzatori di computer rimangono affezionati alla prima tipologia di sistemi operativi e software usati: anch'io per praticità, abitudine e mancanza di tempo per studiarmi altri software sono rimasto ancorato a parecchi software di primo uso, così lo stesso per i motori di ricerca e i portali a seconda dei servizi che mi servono...
lo stesso accadrà per i milioni di nuovi internauti dei prossimi anni e se microsoft riuscirà tramite windows preinstallato o internet explorer preinstallato a dirigerli su un live o yahoo preincanalato si acquisirà milioni di nuovi utenti e di conseguenza anche risorse economiche che potrebbe anche utilizzare per sviluppare tecnologie similari a Google.Tra l'altro per quanto rguarda le risorse economiche, Microsoft si paga yahoo quasi tutto in contanti e solo per un 20% deve ricorrere per la prima volta nella sua storia all'indebitamento che però considera di breve periodo perché con le entrate correnti intende risanare il debito entro cinque anni.
E poi ci sarebbe anche da parlare del fattore psicologico dei cosumatori che quando vedono che un solo competitor inizia ad avere troppo potere tende a boicottarlo per manifesto monopolio: è successo alla stessa microsoft per i software e stà succedendo per google ora... Guardiamo al discorso adsense... non c'è così tanta gente incavolata perché rendono sempre meno e non solo per il fattore dollaro? ma non ci sono tante alternative e allora bene o male quasi tutti continuano ad usarli ma molti sono pronti a scapparne.
Scusate la lunghezza del post e se ho buttato lì tante idee (e magari un po' confuse) ma concludendo penso che nel breve periodo (2 3 anni) la presenza di due grossi gruppi in contrapposizione e concorrenza possa portare benefici. Ma rimarrà una buona cosa fintanto che dall'attuale monopolio Google non si passerà ad un duopolio Google - Microsoft che si spartiscono tutto il mercato.
E questo Google l'ha già capito sabato proponendo (il giorno dopo l'offerta microsoft) un aiuto a yahoo per difendersi e contattando in alternativa una società terza ma sua alleata AOL per rilevare lei yahoo con risorse prestate da google stesso e mantenere di fatto la situazione invariata se non migliore per google stesso. -
RE: Microsoft: 44 miliardi di dollari per Yahoo!
Scusa l'OT ma per fare migliori considerazioni bisogna tenere in considerazione che...
L'offerta è reale con un sovrapprezzo del 62% sulla chiusura di ieri e in preapertura di Wall Street il mercato ha già allineato i prezzi sul prezzo di offerta e quindi anche il mercato ci crede.
Quindi è necessario togliere il condizionale perché è quasi un dato di fatto.
Microsoft prevede un rispamio da sinergie per 1 Billion $, ma lo scopo quello di competere con google sulla raccolta pubblicitaria (anche alla luce degli ultimi interessani contratti di yahoo nella gestione pubblicitaria).
Sicuramente andrà ad impattare anche sui motori di ricerca perché sarebbe sciocco non far confluire le conoscenze ma a mio parere sarebbe anche sbagliato far confluire tutto in un unico motore...
parafrasando un detto latino ...
Melius abundare/diversificare quam deficere -
RE: file txt per yahoo con Gsitecrawler
ce li ho anche....
ma così risolvo solo i nuovi url ma le schede che vengono cancellate e quindi non ho più rimangono nelle sitemap -
RE: file txt per yahoo con Gsitecrawler
Scusa polipoli
ma come fai a tenere aggiornata la sitemap di 300.000 pagine... ?
deduco che anche il tuo sito sia dinamico e quindi come nel mio caso ogni giorno ci siano pagine nuove e ogni giorno alcune spariscano.
Inoltre in funzione delle schede finali nuove o cancellate ogni giorno ti puoi trovare delle sezioni/nodi che oggi ci sono e domani no o viceversa...
Ho letto in altri post di aggiornamenti automatici via server ma penso che ciò sia fattibile solo per le schede finali e non per le sezioni/nodi che sono sopra di loro.
Ho quindi pensato che alla fine usare Gsitecrawler sarà la cosa migliore è che ci mette una settimana per fare tutto il sito. Nel frattempo penserò a crearmi una pagina apposta che mi tenga traccia di tutte le nuove schede e i nuovi nodi e gli faccio spiderizzare solo quelli.
Tu come fai? -
RE: file txt per yahoo con Gsitecrawler
ok fatto,
ma ora ho un altro dubbio:
in google sitemap carico solo l'index o anche le altre? questo perché ho già caricato tutto ma a fianco dell'index ho il totale degli url e poi a fianco di ogni pezzo di sitemaps ho il parziale...
nel senso era sufficiente caricare la index e poi automaticamente va lui a vedere gli altri e quindi ho fatto un doppione ?
o comunque non gli fa male averli dentro tutti? -
RE: file txt per yahoo con Gsitecrawler
Immaginavo e poi me ne sono convinto ancora di più rileggendo sitemap.org
Grazie comunque della conferma -
file txt per yahoo con Gsitecrawler
Gsitecrawler mi ha creato la sitemap splittata per google mentre il file txt per yahoo me l'ha fatto unico con 380.000 url!?!?!?!?
ma non ci dovrebbe essere una limitazione da 50.000 per i file txt?
In ogni caso mi conviene splittare anche questo file in almeno 8 file? -
RE: sempre penalizzazioni google
@pieropan said:
Non è che sbaglia sempre, ma a volte (spesso) sbaglia.
Ciao.ma allora come faccio a sapere quante pagine ha indicizzato: per siti grandi multilivelli è determinante per vedere a che punto è arrivato ad indicizzare e in altri casi come quello che ho adesso e cioè problemi di server, mi serviva a vedere quanto grande è il danno in corso
@angelweb said:
Digitando site:tuosito.it ci sono le tue pagine, solo in fondo in alcune pagine sei in RISULTATI SUPPLEMENTARI perchè i BL e i link dal tuo sito non sono omogenei.
Quando i BL e i link in uscita sono omogenei?
-
RE: site di google
@Giorgiotave said:
Il fatto è che quello strumento non è pensato per fornire un servizio per webmaster e quindi è del tutto fuorviante.
Lo so però non essendo a conoscenza di altri strumenti ed essendo stato sempre abbastanza indicativo lo consideravo un buon indicatore@Giorgiotave said:
Secondo me, per sapere le pagine indicizzate da Google, il massimo sarebbe avere uno script dove gli si indica tutte le pagine del sito e lui registra gli accessi dai motori di ricerca alle pagine.
Se ci fosse qualche programmatore in giro, sarei pronto a finanziare un progetto di questo tipo.
Se ci fosse già qualche servizio simile, bene, segnalatelo
Ottima idea!!!
ma a questo punto mi chiedo?
Voi come fate a tenere sotto controllo il numero di vostre pagine presenti in GG? o non ve ne frega niente?
io ho quasi tutte pagine dinamiche e il valore è in continuo aumento in funzione dei prodotti presenti.
In più uscendo da una penalizzazione parziale mi è molto importante per vedere quanto stà reinserendo nelle Serp.
E poi lo utilizzo per studiare anche la concorrenza -
site di google
Facendo il "site:" in google ho dei risultati che non riesco a spiegarmi.
In particolare sulla ricerca generica mi da come risultato 119.000 pagine indicizzate, con l'opzione pagine in italiano 403.000 mentre per pagine provenienti da italia 425.000.Come informazione aggiuntiva, ma non penso troppo rilevante, devo segnalare che stiamo uscendo da una bannatura parziale (da novembre) per la quale GG aveva tolto dalle serp tutte le pagine con estensione htm.
Il sito in questione ha all'incirca 1 milione di pagine (nei tempi d'oro sono state indicizzate anche 2 milioni di pagine): ma il numero di 425.000 a cui è arrivato in questo momento (anche se due giorni fa ha visualizzato oltre 900.000) è dovuto al fatto che siamo ancora in corso di pesante crawling perché abbiamo scelto di sostituire in modo naturale, cioè facendoci solo spiderizzare, le vecchie pagine bannate con le nuove (per le vecchie il server risponde con un 404 ce ne sono ancora un po' circa 10.000 ma ormai siamo alla fine).
Comunque non riesco a spiegarmi la differenza dei tre risultati e cosa li possa in questo momento influenzare: anche in passato avevo delle differenze ma sempre trascurabili, queste direi che non lo sono proprio.:bho:
-
RE: se google mi banna, banna il dominio o ip associato?
@desmonex said:
Dalla vostra esperienza avete riscontrato un ban per un numero eccessivo di pagine create?
Leggevo credo qui tempo fa, che sarebbe opportuno caricare poche pagine al giorno per non farsi beccare...
Qualche consiglio da questo punto di vista?
Ho avuto siti con 2 milioni di pagine indicizzate ma avevano tutte dei contenuti: ora si sono ridimensionate per effetto di bannature parziali.Sul fatto di caricarne poche per volta non lo ritengo necessario perché con questo ragionamento se io fossi il proprietario di un'enciclopedia che dall'oggi al domani decido di rendere fruibile a tutti e non solo a chi è iscritto a pagamento, mi troveri con una bannatura.
Se poi le pagine sono strutturate per sottolivelli, come nella maggior parte dei casi, GG spiderizza 1 o al massimo 2 livelli al passaggio e quindi anche le pagine entrano nelle serp gradualmente e soprattutto proporzionalmente a quelli già presenti: se nell'esempio di prima dell'enciclopedia ho la categoria animali al passaggio successivo mi indicizzerà tutte le classi tipo animali/mammiferi la volta successiva vorse tutti i link in mammiferi quindi animali/mammiferi/felini e così via per ogni sottolivello e magari mentre scandaglia animali/mammiferi/felini stà anche scandagliando animali/uccelli/rapaci.
Quindi ho un incremento proporzionale alle pagine già presenti.
Potrebbero esserci problemi per pagine che contengano 1 milione di link ciascuna e allora si che potrebbe essere un aumento di pagine troppo elevato, ma tanto GG segue i primi tot numero di link di ogni paginaQuoto comunque Fabio
-
RE: se google mi banna, banna il dominio o ip associato?
@Dell'Orto Fabio said:
Se vuoi farlo su un dominio di terzo livello per tutelare il dominio madre... sappi che non risolvi il problema... in caso di ban il dominio di secondo livello verrebbe "tumulato" anch'esso insieme al terzo livello.
Per esperienza personale, però, non sempre vale: ho dei domini di terzo livello bannati con il secondo regolarmente visibile, e lo stesso per il contrario un secondo livello bannato con il terzo non bannato (però questa era una bannatura di 1 anno fa che è già rientrata).
Ho addirittura un secondo livello bannato solo per le pagine con un certo tipo di estensione, nel caso concreto .htm -
RE: Patatelesse o patate-lesse ?
@Stuart said:
Ciao mchgrg,
Ciò che dici può anche starci,
non ho alcun motivo di dubitare della tua esperienza in fatto di domini keyword-rich e alla loro maggiore propensione al posizionamento.Io però ho parlato di indicizzazione, e ti posso garantire che il nome a dominio non c'entra nulla con l'indicizzazione.
**.**StuartScusami Stuart non avevo proprio capito, parlavi di indicizzazione ma ho letto posizionamento
-
RE: google mi farà venire un infarto
@pchs said:
A me dopo 3 settimane di sbalzi vari, sono da 2 giorni fisso a meno di 200 pagine indicizzate mentre prima ne avevo 12000....
Non utilizzo nessuna tecnica illegale o cos'altro... Cosa dovrei fare? Contattare google e farglielo notare?
scusa ti stai riferendo ai risultati del site:?
hai pagine con estensioni diverse tipo asp e htm o php?
prova a rifare il site includendo i diversi tipi di estensioni e se i risultati sono diversi fammelo sapere -
RE: Patatelesse o patate-lesse ?
@Stuart said:
L'influenza delle kwd come nome dominio è ormai praticamente nulla, e -soprattutto- non vi è alcun vantaggio nell'indicizzazione scegliendo un nome piuttosto che un altro.
.StuartNon direi che non influenza: ho un sito in un settore molto competitivo che contiene un nome composto tipo lessepatate (sostantivopersonalizzato+key) che ho sempre spinto per key che ritenevo più ricercate (nel caso potrebbe essere verdure cotte o ortaggi cotti anche se nell'esempio non sarebbero le più ricercate): stà di fatto che per la key patate sono 1 o 2 su GG mentre per quelle che ho spinto di più sono 5 o 6. Pur generandomi notevole traffico, nel mio caso la parola da sola patata verrà sempre ricercata meno.
Gli si abbinerà nel 90% dei casi un aggettivo o un sostantivo e a quel punto non sono più primo ma bensì attorno alla 10 posizione.
Non ho avuto ancora il tempo di analizzare bene questo risultato e soprattutto partendo da una key singola così ben posizionata dovrebbe essere più semplice andare a posizionare le key composte, ma di primo acchito giustifico tale risultato proprio con la key nel nomedominio e il fatto che tutto il girolink tra domini di 3 livello e altri domini inerenti abbiano un anchor crudo con il solo nome dominio -
RE: Portale da controllare: problemi in atto
@voidcomputer said:
In pratica... sniffi l'header del client, verifichi il tipo di browser e di agent, e freghi il crawler dicendogli che lui si trova esattamente dove dovrebbe essere.
Gli utenti "normali" non vengono ridirezionati.Scusa ma non è cloaking questo?
io ho avuto una penalizzazione per una cosa simile: sniffavo l'header e se sentivo puzza di crawler gli davo un body maggiorato di testo ad hoc -
RE: Googlebot non riesce a trovare due url del sito
eberry
l'opzione link in sitemaps non ti aiuta?
dovresti trovare tutte le pagine che hanno link esterni: cerchi la pagina che ti risponde errore 404 e vai a vedere quali sono i link in ingresso che ha -
RE: Ordine sitemapas
Nell'help di sitemaps mi sembra di ricordare che dicesse di non superare le 50.000 pagine: io ne ho create 8 tutte da 49.999 circa e me le legge tutte ugualmente e regolarmente lo stesso giorno e le rilegge almeno una volta a settimana:
se hai problemi per creare le sitemaps crea file asp differenti per ogni cartella del sito così lanci il file per ogni singola cartella e anche se sono sitemaps da poche pagine cosa te ne frega: è indicato un numero massimo non uno minimo (almeno 1 però...). Così se devi rivedere una parte del sito rifai solo quella sitemap oppure se ne hai una che devi aggiornare molto spesso fai solo quella. -
RE: Penalizzante una pagina con contenuto diverso utente\motore?
@sottomare said:
Questa tecnica è considerata legale o può portare ad un ulteriore penalizzazione\ban?
Non so se sia considerata legale oppure no, stà di fatto che ha me ha causato una specie di penalty -30 (o anche 50 ... 60...) per tutte quelle pagine che ce l'avevano e la cosa va avanti da Ottobre