- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Un fenomeno che mi sta facendo impazzire
-
Ho notato proprio adesso delle cose sul "modo" di indicizzare.
Magari stasera ti mando i dettagli con un messaggio privato per ragionarci su , perchè magari a postarli, non essendo ancors sicuro, potrebbe portare fuori strada.
-
Eccomi qui anche io a segnalare la "stranezza" di quanto sta accadendo.
I fattori comuni che sono emersi, a questo punto sono parecchi.- Il periodo di tempo (metà ottobre + o -)
- Diversi server / Ip
- Indicizzazione immediata
- Posizionamento in serp ritardata di 7 giorni
- Analytics e Adsense in comune
- Siti di news. (blog)
- Link puliti e codice pulito.
Ho colto l'occasione del Convegno GT per chiedere a qualcuno se sapesse di questo strano fenomeno, trovando solo Michael Gawel incuriosito e che voleva saperne di più. Ma forse era per vendermi un bel corso di Seolab.. che tanto farò ugualmente, quindi...
-
Alessandro, ti ho mandato un mp a cui attendo risposta.
Domando : usi per caso All one in seo come plugin?????
-
Ciao,
scusami se non ti ho risposto ma ho avuto tempi decisamente incasinati ultimamente.
Per quanto riguarda All in One, si lo uso ma su alcuni blog è installato e su altri no.
Quindi non penso che sia un fattore comune.Perchè me lo chiedi?
-
Perchè sto notando un altra caratteristica in comune con i miei, quelli di un altro network e quello di un altro amico che ha postato nella sezione Adsense.
Ho notato una diversità di tipologia di indicizzaione nel periodo dei 7gg
Mi spiego : fai una ricerca su Google per il titolo di un post già correttemente indicizzato, poi fai la stessa query per uno non indicizzato ma mettendo il comando site:bla bla .
Noto come viene indicizzato il titolo nei due casi : quando viene regolarmente indicizzato il titolo del post su Google assume una configurazione diversa ( almeno nie miei casi ).
Nota : nell'indizzazione provvisioria ( utilizzando con il comando site ) sembra cosinomesito>>titolo_del_post_che hai cercato
Nell'indicizzazione definitiva invece hai :
titolo_del_post_che_hai_cercato | nomesito
che poi sarebbe la configurazione data in all seo in one , ma con una differenza : che il titolo che io ho dato in all seo è diverso da quello mostrato nell'indicizzazione che invece dopo il pipe mostra il titolo che sta invece nel setting generale del blog.
Difatti nelle pagine indicizzate provvisoriamente compare a sinistra il titolo del blog ma non è il titolo che ho dato in all seo, dopo la perfetta indicizzazione compare la struttura inversa, separata dal pipe come impone all seo ma...con sempre il titolo originario del blog e non quello che impongo in all seo.Faccio un esempio :
Nel setting generale ho messo , ad esempio , nel title del blog : Caio
In quello di all seo ho inesrito invece nel title : Caio SempronioNell'indicizzazione provvisoria ottengo :
Caio>>titolo-del-post-che-ho-insierito
in quella definitiva ottengo ( dopo i sette gg ) :
titolo-del-post-che-ho-inserito ! Caio
Ma di Caio Sempronio (titolo imposto in alla seo ) nemmeno la traccia.
Allora guardo il codice html generato e capisco da questo che Google sta prendendo per vero questo :
<link rel='index' title='Caio' href='http : // caio. pippo . com' />
Come se avesse imparato a "saltare" Alla Seo in One ecc.
Cosa che invece non succedeva a agosto/settembre e precedente quando ricordo bene se imponevo in All Seo, ad esempio, Caio Sempronio come Title, questi mi usciva su tutte le pagine dopo il pipe.Che Google voglia penalizzare quelli che sovraottimizzano con questi strumenti seo?
-
Ciao compagno di sventure,
non credo che sia questo il problema, ho fatto delle prove e il title che mi restituisce è esattamente quello impostato da All In One o comunque lo stesso del titolo esatto del post.
Non mi "inverte" la forma.
-
A me lo fa con tutti e ho notato che anche gli altri che hanno scritto succede uguale, o quasi.
D'altra parte potrei pensare ( ma ripeto sono elucubrazioni mie magari prive di fondamento!) che ripetere il titolo del blog costantemente nei titoli dei post per Google, risulti un azione "spammatrice" e quindi la conseguente penalizzazione sotto forma di ritardo.A me procede esattamente come descrito nell'intervento precedente e ho notato che l'altra caratteristica comune è il nomde del blog ripetuto nel title del post.
Se sono cambiati gli algoritmi Google potrebbe prendere per vero questo come una forma di spam?
Perchè una cosa è certa : è un fenomeno "comune" a siti di news e a partire da fine ottobre.
Quindi ci deve essere qualcosa in comune che ci sfugge e determina il fenomeno.
E na parola!
-
Ho analizzato tutti e 3 i blog (il tuo, crashdown e blogolandia): la situazione adesso mi è più chiara.
In breve: tutti e tre fornite news ritenute duplicate, di conseguenza Google vi punisce come "produttori" che tentano di essere remunerati ed anche vostri siti totalmente originali corrono il rischio di subire la penalizzazione.
Per il tuo dominio ho fatto alcune ricerche e spesso non sei primo nei risultati cercando citazioni dai tuoi blog, sovente per trovarti bisogna cliccare su "ripetere la ricerca includendo i risultati omessi". Se questo fenomeno supera una certa percentuale di query degli utenti, il tuo dominio viene etichettato come "copione".
Sicuramente ritardandoti l'indicizzazione Google riduce il problema in quanto le pagine degli aggregatori mutano molto velocemente, come pure le ricerche degli utenti: i vostri post, trattando di news che seguono il ciclo di vita da te indicato, sono in competizione con le pagine che anche i siti copianti stanno spingendo in quel momento (vedere la velocità con la quale Liquida ridisegna i suoi link in homepage).In questo caso solamente le modalità della penalizzazione sarebbero originali, sia per la temporaneità (ma probabilmente dopo una settimana i vostri contenuti non sono più nemmeno duplicati perché gli altri siti hanno già abbandonato gli argomenti) sia per l'estensione all'intero insieme di domini con medesimo codice AdSense (ma anche qui, ho già sentito di penalizzazioni inflitte ad un intero network).
Purtroppo Google non tiene conto di chi sia il primo a pubblicare un documento, ma si preoccupa solamente di restituire il risultato più completo per una determinata stringa di ricerca. Se cerchi nel forum troverai dei blog letteralmente affossati da un singolo concorrente copiatore o dagli aggregatori (e pure informazioni su come ne siano usciti).
Qualche argomento perché tu possa verificare questa tesi.
Per quanto riguarda il tuo sito: tiny.cc/xaSIr (un normale post, con il duplicato ancora presente in Liquida) e tiny.cc/eqDGW (la tua home preceduta da una pagina di Liquida). Certo, non è sempre così (anche perché sono già in atto i provvedimenti di Google) ma probabilmente lo è troppo spesso. Se accade per citazioni precise abbiamo motivo di ritenere che succeda in misura maggiore per query più umane.Verifica se questo fenomeno si verifica anche per alcuni altri siti del tuo network.
Per capirne di più sulla duplicazione dei contenuti, mi permetto di segnalarti questo utilissimo documento (purtroppo il video di accompagnamento è stato rimosso): madri.com/bonusarea/Posizionamento-Duplicazione-Contenuti.pdf .
Spero di ricevere presto una tua valutazione su questa mia ipotesi. Ribadisco invece il mio fermo disaccordo con ogni questione riguardante Google News e le ultime novità in materia: non è la prima volta che per colpire un "copione" Google punisce "ingiustamente" il produttore originale (comunque a vantaggio dell'utente che si trova su pagine ritenute più ricche di contenuti) ma sarebbe il primo caso in cui per il motore di ricerca esistano logiche economiche prioritarie all'esperienza dell'utilizzatore.
A presto!
-
La tua analisi è profonda e credo molto ma molto realistica.
Adesso mi studio quel documento e ripercorro il filo del tuo ragionamento.
Intanto sto bloccando tutti i feed in modo da evitare che gli aggregatori rubino.
Guarda ho scoperto su un altro sito, roba da non crederci , aggregatori che aggregano da altri aggregatori che a loro volta aggregano da wikio!
Assurdo, credimi, non ho parole.
Ho provato a scrivere con il legale a un pò di webmaster , alcuni dei quali hanno prontamente rimosso, ma altri nemmeno si degnano di rispondere o di guardare la cartella della posta.
Ora per porre rimedio dovrei rivedere almeno gli ultimi due mesi dei due siti "trainanti" e riemettere mano ai testi. Qualche migliaio di articoliOggi notavo in google webmaster come la quantità di Kb scaricati giornarlmente sia crollata proprio in concomitanza con l'inizio del fenomeno.
Mi sai indicare qualche dritta per iniziare il lavoraccio per uscrine?
Sto girando a vuoto da un mese con notti e notti insonne, magari se me ne risparmio qualcuna sarò felice.L'unica cosa che mi lascia perplesso è che siti piuttosto statisci , aggiornati sporadicamente, non collegati assolutamente tra di loro ma solo dall'account An/Ad siano penalizzati in massa.
E' l'unica cosa che mi fa pensare , in subordine alla tua idea che mi sembra effettivamente la "motivazione" giusta e pertinente, che si voglia penalizzare per evitare crescite che possano mandare fuori budget quello stabilito da Ad.
In questa ipotesi, molto ferraginosa lo ammetto, sarebbe l'ingiustizia della ingiustizia, perchè in analytics ci puoi gestire con un account magari anche siti di clienti e non necessariamente tuoi e quindi penalizzare in base a quel minimo comune denominatore sarebbe fuorviante, non credi.
Comuqnue se hai qualce dritta di dove iniziare a mettere mano...sarei felicissimo di leggere. Tanto già so che mi attendono lunghissime notatte.
-
Su uno dei siti nei link in entrata ho trovato sta robaccia :
MTV?s The Hills Season 6 Begins Filming in 2010
Indian Conspiracies Collide
Is The Tiger Woods Brand in Danger?
Geithner Extends Bailout Through October
Blog Focus on Apple Tablet Rumors
USAF Stealth UAV No Longer a UFO
Blog Focus: Curtis Granderson Traded, Detroit Tigers Fans React
iMeem Acquired by MySpace Music: A New Bright Future for MySpace?
Mariah Carey?s New Video And The Power of CGI
Google Personalized Search Challenges SEO Markettutti provenienti da feeds09 . technorati . com e qualcosa...
Che sono?
Ho scoperto che sono tutti articoli provenienti da un utente :
http: // friendfeed . com / mattjo00
Cosa è?
-
Il probelma è persistente.
Unica cosa notata è che da strumenti di google webmaster, su TUTTI i siti con lo stesso account, a partire dalla data esatta in cui mi sono accorto del fenomeno, è crollata bruscamente la quantità di Kb scaricata dal crawler, mentre le pagine scansionate permangono più o meno lo stesso.
Il calo brusco è quasi azzerato negli ultimi 3 giorni, pur avendo inserito pagine nuove, e questo su TUTTI , ancche quelli aggiornati mensilmente.
Alrea osservazione stupida : gli strumenti per le prestazioni del sito (velocità).
O ci fa o ci è.
Un sito , nato praticamnete da un mese, con wordpress, stesso server, stesso skin, stesso peso in kB medio per la home page registra una velocità di 0,6 sec, mentre uno uguale uguale ( tranne per contenuti ovvio ) ben 3,1 sec.
Ma fa che ci prende per...:DAltro parlallelo fatto : il primo giorno in cui è iniziato il fenomeno, corrisponde esatto esatto ad un abbassamento brusco dell'ecpm .
Altra cosa : uno dei siti con Pr migliore che al digitare della sola parola del dominio (piuttosto comune ) senza il www e l'estenzsione, a casusa del nome piuttosto comune figurava alternativamente tra il 5 e la settima posizione, adesso è skizzata di colpo al primo posto ( mai successo ) ma ..le news non entrano nemmeno a prenderle a martellate!
In ogni caso oggi ho chiuso i feed su tutta la linea.
Perlomeno non rapinano più.
-
Chiudere i feed è una soluzione drastica, ma sembra che tu abbia provato a percorrere ogni altra strada (valuterei il blocco per IP, anche se la realizzazione pratica non è banale o necessariamente efficace).
Adesso non diminuire la frequenza di posting e concentrati sulla link building (evitando qualsiasi forma di spam): quello che ti serve è aumentare il "trust" agli occhi di Google.
Verifica che in tutti i blog le ripetizioni interne siano ragionevoli (sia per quanto riguarda il template, sia per le eventuali duplicazioni causate da pagine categorie e/o tag). In tv.vos.it non vedo modifiche necessarie in questo senso, ma il controllo deve essere certosino su tutta la rete punita.
Non so se ha grosso senso ma nei nuovi post introdurrei anche il tag description, che sia originale rispetto al testo della pagina.Sono molto dubbioso su come comportarsi con AdSense. Inizierei lasciandolo.
Ho letto in precedenza che hai cambiato plugin per generare Sitemaps, lo hai sostituito? Aggiornamenti precisi e inviati regolarmente potrebbero aiutare (ad esempio con XML Sitemap Generator).
Nei casi "classici" di penalizzazioni per contenuto duplicato la situazione si è normalizzata in più di 20 giorni dalla fine della copiatura, possiamo sperare che le news facciano prima ad emergere. Dipenderà anche dal lavoro di backlinking che riuscirai a sviluppare.
Per quanto riguarda il vecchio materiale già duplicato, lo lascerei nelle attuali condizioni perché modificarlo costerebbe troppo: fallo se vuoi per le pagine che ti portavano più traffico, sono copiate e tuttora indicizzate.
Spero tu possa trovare una via d'uscita e che tu voglia tenerci aggiornati. Buona caccia ai copioni, buona link building ed infine buon lavoro!
-
Visto che continuo a passare le notti in bianco ...rispondo a quest'ora tanto per me ...è pieno giorno
Parliamo ovviamente di tutta la rete.
Su un sito particolarmente preso di mira dagli aggregatori pirati ( che sono quasi tutti su altervista ) ho provato in un primo momento a bloccare gli ip degli stessi con .htaccess ma non so dirti perchè ne per come , quelli su altervista passavno lo stesso!!!
Ora ho chiuso i feed su tutti i siti. Prevenire è meglio che curare.Per TV proprio stasera ho fatto un lavoro massacrante : cambiato almeno 350 articoli . C'0erano effettivamente delle ripetizioni di un apio di termini forse troppo accentuate. Sosituito parte del testo e titoli.
Avevo installato propio nel periodo in cui l'incendio ( ) è divampato un plugin per il sitemap che si aggiornava ad ogni articolo . Tra l'altro era quello più consigliato.
Francamente appena divampato l'incendio l'ho abbattuto anche perchè ho notato che il formato era un pò strano, ma soprattutto all'interno inseriva ben tre link al sito dell'autore. Ho preferito tagliarlo via.
Le sitemap le faccio con un tool esterno, con un no follow su categorie, tag, e archivi. Bloccati anche a livello di robots.Ho provveduto ad aggiornare , allineandoli , l'ultima versione di wordpress e tutti i plugin che sono pochi per la verità : all in seo, supercache, quello delle gallerie , e yarpp.
Già da tempo avevo tolto i widget tipo ultimi articoli e più letti per evitare di far crescere i link interni a dismisura.
Stasera pe run altro sito ho scovato un pò di aggregatori : ho provveduto a scrivere e minaccaure azioni legali. Fatto anche nei giorni scorsi, perlomento 4 li hanno tolti.
La parte più dificile è quella di link building.
Il sito in oggetto ha appena tre mesi e un Pr 0, altri in media stanno su tre , due quattro e un 5.
Ma tutti affossati.
Una cosetta strana stasera l'ho notata e devo verificarla a fondo: nonostante abbia detto ad all seo , per uno dei miei siti principali, di non mettere il titolo del blog nel titolo dell'articolo, non so perchè questo mi viene uguale a sinistra prendendo però quello del titolo del blog, e non quello che impongo in all seo. bah.
Sugli altri invece è rispettato! Mi sa che devo rivedere la versione dello skin.Si avevo fatto l'errore , almeno su tv, di fermarmi con gli articoli : sugli altri ci sono dei collaboratori per cui...ma qui oltre allo scoraggiamento è subentarto anche la "resistenza fisica" visto che lo curo personalmente.
La cosa ridicola è che proprio su uno dei principali indiziati ( un altro sito, non quello in oggetto ) stasera digitando la sola parola del sottodominio è balzato al primo posto , cosa successa per la prima volta , visto che con il solo nome del sottodominio figurava sempre balelrino tra la 5 e la 8 posizione più o meno.
Stasera ..sorpresa al primo ( in privato ti mando il link ) .Certo che vi tengo aggiornati.
Stasera leggevo su un altro orum un tipo che pare si sia accorto solo ieri che il virus dei -7gg ha colpito anche due suoi siti.Insomma tipo febbre suina
Grazie dell'enorme contributo e aiuto che stai dando.
-
Situazione non solo immutata, ma peggiorata : sul dominio in oggetto non solo adesso le pagine non vengono più indicizzate al primo colpo, ma almeno prima si vedevano con il comando "site", adesso non più.
Da Google webmaster dal 2 dicembre è crollata pressochè a zero la quantita di Kb scaricata, mentre è scesa abbastanza le "pagine scansionate". La quantità di Kb scaricata giornaliermente è quasi azzerata.Cosa sconfortante questo succede su tutti i siti dello stesso , medesimo account Analytics/Adsense, anche se trovasi su server diversi, con nomi a dominio completamente diversi.
Ho provveduto a far cancellare da siti "pirati" anche aggregazioni di aggregazioni di aggregazioni non autorizzate.
Alcune cancellazioni richieste di articoli completyamnete copiati sono styate effettuate, ma ovviamente ci vorrà del tempo prima che vengano digerite da Google.Il fatto che venga penalizzato un intero account mi lascia perplesso : questo significa che se su un sito toppi , vai a fondo con tutti.
E poi questo -7gg che vo di? Se c'è qualcosa di "contenuti duplicati", sono duplicati 7 giorni prima come 7 giorni dopo, quindi non ha senso.
Seguo la strada di LaBussola ma più vado avanti e più mi convinco che c'è molto altro "sotto".
A presto
-
Dunque il processo di indicizzazione , per il sito in questione, è migliorato anche se ad un certo punto si è di nuovo inchiodato.
Adesso siamo a -5 ggPer un altro sito del network sostanzialmente sembra da oggi tutto tornato normale ( che strano oggi è il 15...!) , almeno fino a quest'ora : l'indicizzazione è di nuovo volata com un tempo e sono entrati i poost anche di un ora fa.
Su un altro sito ( Pr 3 ) invece la situazione è immutata , anzi qualche articolo postato l'8 dicembre tarda ad essere indicizzato e non si viusalizza nemmeno con il comando site.
Su tutti gli altri siti ...situazione invariata del tutto.
Adesso sto facendo un esperimento : sul sito in oggetto ho reinstallato il plugin per le sistemap in automatico, mentre su quello che sembra ( dico sembra ) ripartito a razzo, la sitemap la invio con un tool esterno.
Vedremo gli sviluppi.
-
Dunque la situazione è decisamente mutata : sul sito in questione adesso i post vengoni indicizzati con un ritardo solo di 5 o 6 ore.
Mentre su un altro, nel giro di 30 minuti salvo qualche piccola variazione.Sostanzialmente però ho scoperto delle altre cose interessanti che riporto anche nella sezione wordpress per gli amici che magari ne fanno uso.
La prima cosa la situazione è iniziata a migliorare da quando ho disattivato wp-supercache ma ho fatto una scoperta.
Innanzitutto che non basta disattivare il plugin, ma occorre cancellare dei file che lui piazza ( wp-cache-setting.php ) e non ricordo quale altro, cancellare le directory cache e soprattutto cancellare la pappardella che lui scrive in .htaccessMa la cosa che non sapevo e che ho scoperto è che All in seo che ritenevo il migliore plugin per quella funzione...VA IN CONFLITTO CON WP-CACHE : difatti ho trovato un post su un blog ( mo vattela pesco non l'ho salvato ) che ha avuto problemi simili e che ha risolto il tutto disinstallando i due plugin.
Manco a farlo apposta pochi giorni fa ho tolto all in Seo e messo platinum e lasciato solo quello togliendo wp-cache.
La situazione ha preso a normalizzarsi effetivamente da quando ho installato Platinum.
Probabilmente il conflitto genera una indicizzazione difficoltosa.ALtra cosa che ho scoperto ( e che potrebbe influire credo, e salvo miglior parere ) è che word press Media digerisce malissimo le immagini con un formato così :
alessia-marcuzzi.jpg
difatti in Media le immagini in questo formato appaiono senza collegamento ai post relativi.
Word press li visualizza, certo, ma se usate uno skin che usa i thumb ...addio.Difatti è bastato sostituire l'immagine con alessiamarcuzzi.jpg ( senza trattino) et voilà funge tutto.
Il fatto che in Media la foto appare scollegata in quel formato credo che possa generare casin anche ( ho qualche dubbio ma potrebbe essere ) anche nell'indicizzazione.Il dubbio mi era venuto perchè, se rileggete i miei interventi, nel periodo di 7 gg di ritardo , avevo notato che l'unico post fresco di giornata che era entrato subito e con il turbo nonostane tutto era uno su Brunetta.
Bene stanotte provando lo skin nuovo ho visto che l'unico articolo che visualizzava correttemente il thumb era proprio quello su Brunetta che aveva visto un indicizzazione al fulmicotone ( feci anche la battuta ! ) .
ed era l'nico che aveve un immagine salvata senza trattini ne undescore.
Vado a vedere e l'inzio dello strano fenomeno coincide con l'inizio dell'uso di immagini con trattini e undescore.Coincidenza? Temo di no: mi sa che Google digerisce male o le immagini in quel formato o legge male la pagina che in verità nei Media appare poi scollegata da quell'immagine.
Magari queste due cose non c'entrano niente e magari potranno servire come esperiena generica.
Sta di fatto che dopo qualche giorno che ho sotituito All in seo, disattivando la cache tutto sembra essere quesi tornato alla normalità.Vediamo che succede adesso.
-
Dunque la situazione sembra "buonina".
I post su quasi tutti i blog adesso sono indicizzati in modo fulmineo (parliamo di pochissimi minuti) .L'unica cosa che ho notato è che alcuni post non vengono indicizzati ( ma sono veramente pochissimi ) : li accomuna il fatto che nel titolo compaiono keyword in un certo senso estranei al contesto e al tema!
Quasi che Google non li ritenesse congrui con il tema!Ho messo a confronto le curve ottenute in Google Analytics per quanto riguarda gli unici giornalieri prendendo ad esempio come periodo di riferimento dal 1° Novembre a ieri.
Bene se sovrapponiamo le curve ...sembrano gemelle su tutti i siti!
Incredibile : se un sito aumentava il 30 % di visite in una settimana, questo avveniva contemporaneamente su tutti. Idem il contrario.
Incredibile ma è così. Come se la fluttuazione interessasse parallelamente tutti i siti del medesimo account.Le visite sono in rialzo anche se non ancora paragonabili a quelle del periodo delle prime settimane di novembre.
Gli accorgimenti adottati, oltre a urlare contro un pò di "copioni" a far togliere il malcopiato, è stato rimuovere completamente e a fondo wp-cache e super cache e All in Seo, sotituito con Platinum seo.
Oltre Google-xml-sitemap.Dopo qualche giorno "l'epurazione" ...i post sono tornati a indicizzarsi a velocità della luce.
Notate che wp-supercache non basta disattivarlo.
Occore cancellarlo, cancellare la dierctory Cache e qualche file e poi ripulire il file .htaccess di tutta quella robaccia che scrive, lasciando solo quello relativo a wp.In effetti dopo aver disinstallato wp-cache e all in seo la situazione permaneva uguale per un quattro giorni anche se dai -7gg di ritardo di indicizzazione ero apssato a solo -7 hh.
Ripulito a fondo il tutto, in 3 giorni sono passato a ...3 minuti esatti.
Pubblicato il post , dopo tre minuti è in serp.La situazione è così da circa 15 giorni : adesso devo vedere le posizioni in serp e...sperare che gli unici tornino a essere quelli di fine ottobre-inizi novembre.
Si direbbe che il caso è risolto.
In ogni caso mi è gradito ringraziare LaBussola, Dechiegno e Mister Jinx per il sostegno e la competenza prestata che, vi assicuro, quando si è in crisi nera è qualcosa di più di un conforto.
Speriamo che la situazione si sia normalizzata definitivamente.
-
Ciao,
problema interessante, ho seguito l'intera storia,
non mi è mai capitato, ma è facile che capiti, ovvio che gli accorgimenti sono molti, anche se poi alla fine ci si rifaceva a pochi per la risoluzione del problema.Grazie per la discussione.
Ciao
-
ciao
problema interessante, ho seguito l'intera storia,
non mi è mai capitato, ma è facile che capiti, ovvio che gli accorgimenti sono molti, anche se poi alla fine ci si rifaceva a pochi per la risoluzione del problemagrazie per la discussione
ciao
-
Ciao
ieri avevo annotato i punti che non mi tornavano in un foglio di carta, poi data l'ora tardi ... e visto che ero più di là che di qua ho dimenticato di scriverlo, di questo me ne scuso.
Riferito a Dechiegno che l'ha scritto:
duplicazioni interne 1)...2)...
3) Fare in modo che il titolo del post/articolo si linki automaticamente alla propria url (questa è una tecnica che veniva usata dai blogger per meglio posizionarsi, ma è molto efficace per far capire a Google che quella pagina è la miglior risorsa per quella query!).Ma riferito anche agli altri.
Immaginavo che un autolink desse maggiore "potenza" alla pagina,
quello che mi chiedo è su che base pratica affermi quanto descritto nel punto 3, semplicemente perchè sapevi della cosa oppure lo hai riscontrato su qualche esempio realmente accaduto e provato?Grazie
Ciao