- Home
- Categorie
- Digital Marketing
- Consigli su Penalizzazioni e Test SEO
- Strana penalizzazione: nuovi duplicati o nuovo Mayday?
-
@FullPress said:
quelli che vedi ora sono sono 443 su 10.000 (circa)
Beh, ottimo intervento direi. 10 mila erano forse un po' troppi.... anzi, senza 'forse'.
Si è trattato di una 'manutenzione dovuta'.
-
@WWW said:
Beh, ottimo intervento direi. 10 mila erano forse un po' troppi.... anzi, senza 'forse'.
Si è trattato di una 'manutenzione dovuta'.
La rimozione è stata fatta intorno al 7 di novembre, da allora nessuna novità
-
@FullPress said:
Per cio' che concerne i link, siamo consci che sono importantissimi, anzi! Forse proprio perchè non abbiamo mai voluto acquistare link e similari, ci troviamo in queste condizioni. Siamo certi che gli altri, invece, si sono attrezzati eccome. Paradossalmente, se questo è il problema, siamo vittima di Google che nel tentativo di dare più o meno importanza ad un sito, si sofferma soprattutto su questo aspetto (backlink) pur essendo conscio che i link si costruiscono anche artificialmente.
Ora, visto che sottolinei i due punti, uno è stato risolto (canonical) cosa dovremmo fare per il secondo punto? E' chiaro che vogliamo rimanere nella legalità perchè le tecniche bordeline non portano da nessuna parte.Beh, ma moltissimi siti hanno centinaia di migliaia di backlink senza usare alcuna tecnica illegale o comunque scarsamente etica.
Non voglio dire che sia uno scherzo... molti dei siti 'clienti' che promuovo se la cavano con cifre moooooooooolto inferiori.
Ma si tratta anche di siti infinitamente più piccoli.... voglio dire che tutto è proporzionato.
Ma ad esempio ... vi promuovete bene sui social?
Un sito come il vostro può senza dubbio contare su un *seguito naturale *abbastanza consistente... forse è proprio da quell'orto che potreste iniziare una strategia di linking capace di rinfrescare i vostri rapporti con Google.Ora non voglio buttare tutto nel calderone del social media marketing.... ma insomma, anche solo promuovendo il vostro feed riuscireste a rimpinguare il vostro attuale bottino di inbound... che è assolutamente ragguardevole e di qualità - chiaramente - ma magari merita di essere coltivato, in questa fase di passaggio e di rimescolio.
-
@FullPress said:
La rimozione è stata fatta intorno al 7 di novembre, da allora nessuna novità
So che c'è una scuola di pensiero che dopo un intervento del genere - e in presenza di un sospetto di penalizzazione - correrebbe subito a fare la richiesta di reinclusion presso Google.Che poi è la prassi che indica Google in questi casi, almeno ufficialmente.
Cioè:
1 - mi accorgo di avere dei problemi di indicizzazione;
2 - correggo quello che ritengo essere il problema tecnico che ha determinato la penalizzazione;
3 - mi autodenuncio a Google dicendo che ormai il disguido è chiarito e il sito va rivalutato.Questa scuola di seo (che fra l'altro popola abbondantemente questo forum) sostiene che si possano invertire delle penalizzazioni anche dall'oggi al domani, in certi casi.
Personalmente sono molto più cauto con questo genere di procedura.... proprio perchè non è detto che io sia certo di aver effettivamente corretto il determinato problema tecnico che ha generato la penalty, considerato il fatto che l'unica possibilità è quella di interpretare Google.
10.000 tags sono ..... veramente tanti. Senza dubbio si tratta di un intervento che altera i vecchi equilibri del sito e che necessita di diverso tempo per essere completamente assorbito.
Io non ti direi di fare richiesta per la reinclusion (anche perchè il tuo è un problema di crawling e non di posizionamenti, se non ho capito male)... ma probabilmente molti qui dentro direbbero il contrario, dopo tutte le modifiche che avete apportato.
Cioè tra canonical e revisione dei tag avete agito in maniera energica contro la duplicazione interna: potreste richiedere legittimamente una rivalutazione.... vediamo se qualcuno può consigliarti in questo, qualcuno che ha esperienze significative sul processo di reinclusion.
-
Il 16 novembre 2010 Google
ha inserito un aggiornamento importante per tutti coloro che rientrano nel target news e comunicati stampa.Dice:
“Google News indexes tens of thousands of articles a day, but not all of them are original. Publishers can now use two metatags to help us determine us which URL we should consider the original version of an article: “
che tradotto al volo significa che Google riceve tantissimi articoli al giorno ma non tutti sono originali.
I Publishers possono ora usare 2 metatags da inserire per aiutare a determinare ....Attenzione che specifica anche:
Important note: At this time, Google News will not make any changes to article ranking based on this tag. We think it is a promising method for detecting originality among a diverse set of news articles, but we won't know for sure until we've seen a lot of data.
Che tradotto in soldoni significa, guarda che siamo nella fase Beta, non ti promettiamo niente.Google si sta muovendo molto ultimamente nei confronti dei contenuti duplicati e dei comunicati stampa.
Sta inserendo meta tag “dedicati” ai giornalisti (notizia di pochi giorni fa), ha aggiornato le linee guida con una particolare attenzione nei confronti dei contenuti duplicati (notizia di meno di un mese fa).Si sta muovendo per penalizzare non chi svolge realmente l’attività di diffusione di comunicati stampa ma per penalizzare tutti gli spam che hanno rubato, rubano e continueranno a rubare in maniera fraudolenta, testi originali con il solo scopo di arricchirsi alle spalle di altri. (quello che ho subito un anno fa è conosciuto da molti).
In questi giorni sono molti i casi presenti su gt che si riferiscono a un calo brusco a partire dal 22 ottobre.
Ma se prendete questi testi uno per uno vedete che hanno un unico denominatore: testi duplicati.Mi rivolgo a Full press perché, tra tutti, è quello che più si avvicina al vecchio concetto offline di diffusore di comunicati stampa.
Avete già valutato la possibilità di inserire questi meta tag?
-
doppio cancellate
-
@deborahdc said:
Avete già valutato la possibilità di inserire questi meta tag?
No, non sappiamo nulla di questi meta tag. La verità è che gli ultimi articoli che sono su FullPress negli ultimi giorni sono spesso contributi nostri originali o comunicati che quando ci arrivano non sono pubblicati (li controlliamo prima). Diversi comunicatori sono diventati sensibili a questo problema e ci stanno preferendo in esclusiva. Ma ci vuole del tempo perchè tutto diventi unico. Da parte nostra rigettiamo contenuti già presenti nel web e produciamo nostri contenuti.
Ritornando al discorso dei meta tag, dove possiamo informarci?
-
@WWW said:
Beh, ma moltissimi siti hanno centinaia di migliaia di backlink senza usare alcuna tecnica illegale o comunque scarsamente etica.
Non voglio dire che sia uno scherzo... molti dei siti 'clienti' che promuovo se la cavano con cifre moooooooooolto inferiori.
Ti rispondo con un sorriso (amaro). In questi anni siamo serviti eccome a chi aveva bisogno di link. Evidentemente non abbiamo suscitato lo stesso appeal per essere menzionati da qualche parte o quanto meno non abbastanza. Non mi soffermo sul discorso comunicati stampa e contenitori del web. L'altro giorno ho segnalato ad una prestigiosa agenzia di comunicazione che il loro comunicato di un notissimo brand del mondo tecnologico è finito in una pagina che parlava di sesso molto spinto. Mi fermo qui sull'argomento.
Per quanto riguarda i social, siamo presenti giornalmente su Twitter e Facebook, anche se l'attività è partita da poco. Personalmente ho un blog che ogni giorno riceve visite anche da facebook e Twitter.
-
Ne parlano qui
googlenewsblog.blogspot.com/2010/11/credit-where-credit-is-due.htmle qui l'approfondimento
google.com/support/news_pub/bin/answer.py?hl=en&answer=191283E' una cosa uscita da due giorni, non ci sono grandi approfondimenti.
Per quello che ho capito, ma ti ripeto è ancora tutto molto "beta" hai la possibilità di indicare quando stai riprendendo il comunicato di qualcuno o quando il tuo contenuto è originale.
In questo momento è qualcosa riservato per google news e dal momento che tu ne fai parte, è una cosa da approfondire e vedere se può essere utile.
-
grazie
-
Il primo dei due tags serve a dire a Google qual'è la fonte originale di una notizia, serve per chi fa syndication insomma.
**syndication-source
**Cioè dove A mette nella pagina della notizia Y il meta che attesta che l'autore originale è B, su un altro sito e su una diversa, ma corrispondente, pagina X.
Mi sembra, almeno.... se ho capito male scusatemi per l'intervento.
E' una cosa simile a quella 'proposta' da Digg tempo fa con l'attributo
**rel="dc:source" **nei link verso le notizie (questo si applicava al singolo link e non ai meta della pagina.... nel senso che diamo per scontato che social news, aggregatori e social linkano le notizie originali, quindi quell'attributo di relazione indicava attraverso il link la sorgente originale della notizia.. cosa che probabilmente Google non ha mai considerato.). Qui la discussione.
*Invece il secondo potrebbe fare al caso loro.
*
**original-sourcePerchè nella presentazione viene esposto esplicitamente il caso di un autore che si autodichiara come originale diffusore di una determinata informazione.
(ops, scusate il cambio di caratteri...
**
-
Continuo a chiedermi se - alla luce delle importanti modifiche fatte da FullPress, tra cui una drastica riduzione dei tags e l'inserimento del canonical - questo caso non sia uno di quelli in cui conviene presentare richiesta di reinclusion a Google.
Di solito in questa sezione c'è sempre qualcuno che invoca questa come soluzione 'realmente funzionante' per risolvere rapidamente una penalty.
Stavolta ?
-
@mister.jinx said:
Una pillola di umorismo in questo marasma ci sta bene...
Giorgio quando prevedi l'uscita di un video di Matt Cutts dove dice "rispettiamo il robots.txt ma ci riserviamo il diritto di trattarlo diversamente in certi casi" ?
Se non sbaglio lo hanno già fatto, ci riserviamo comunque di mostrare in SERP siti che gli utenti ritengono molto rilevanti. Non era una indicazione sui duplicati, ma sull'indicizzazione di un sito nonostante il robots la disabilitasse
Tonando a quanto chiede Fabio, visti i cambiamenti di Google, Fullpress potrebbe mettere il tag e poi fare una reinclusion. Io ci proverei.
-
Ciao Fabio, Ciao Giorgio. Non abbiamo ancora chiesto la reinclusione e non abbiamo messo i tag che se non erro sono per Google News (dove non abbiamo nessun problema) e in versione beta. Non abbiamo problemi a chiedere la reinclusione ma i tag non so se devono essere inseriti o meno. Grazie a tutti per il supporto
-
L'intervento sui tag è stato sicuramente un intervento grosso, non posso che essere d'accordo. Io comunque prima di richiedere l'inclusione continuerei ad aggiungere contenuti originali in tutte le sezione del sito e risolverei la questione del centinaio di duplicati per via del "layout=standard" di cui parlavo prima.
In un'altro post, un utente con problematiche simili alle tue (anche tempistiche e date, ma con numeri inferiori) ha corretto (tra le varie cose anche i tag), fatto richiesta e risolto.
-
Stiamo inserendo contenuti originali, abbiamo inseriro il canonical, non serve allo scopo?
Puoi passarmi, anche il privato, il link dell'altro utente?
-
Mi correggo scusa, la penalizzazione in questo caso è scattata il 9 novembre ma la lettura può risultare comunque interessante: http://www.giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153258-blog-che-non-riceve-piu-visite.html
Per quanto riguarda i contenuti originali, dicevo di far attenzione a coprire tutte le sezioni, senza farsene sfuggire.
-
Tranne nelle news, dove peraltro stiamo lavorando con contenuti nostri e presto saranno solo originali (non riusciamo a far capire ai comunicatori che non basta divulgare la notizia prima a noi ma che il contenuto non deve spammoso), le altre sezioni del nostro sito hanno esclusivamente articoli originali.
-
@RoPa said:
Mi correggo scusa, la penalizzazione in questo caso è scattata il 9 novembre ma la lettura può risultare comunque interessante: giorgiotave.it/forum/consigli-seo-e-penalizzazioni/153258-blog-che-non-riceve-piu-visite.html
Per quanto riguarda i contenuti originali, dicevo di far attenzione a coprire tutte le sezioni, senza farsene sfuggire.
Ho letto il 3D, sembra che il blog non abbia risolto in quanto è di nuovo giù
-
@deborahdc said:
In questi giorni sono molti i casi presenti su gt che si riferiscono a un calo brusco a partire dal 22 ottobre.
Ma se prendete questi testi uno per uno vedete che hanno un unico denominatore: testi duplicati.Sto seguendo con interesse questa discussione ma non sono del tutto d'accordo con quanto ho appena quotato.
Come si fa a determinare se/chi/quanto ci viene copiato dai nostri siti?
Come si fa soprattutto ad intervenire?Noi il 22 ottobre abbiamo riscontrato l'identico problema di cui si sta discutendo, oggi per fortuna (da sabato) con la parola chiave principale siamo ritornati in prima SERP di Google, ma per il resto è ancora buio, cioè i contenuti faticano ad uscire.
Oggi mi è stato chiesto di ELIMINARE le fonti XML, cioè... dobbiamo arrivare a questo? Dobbiamo metterci a fare i carabinieri controllando se ogni giorno qualcuno copia i nostri contenuti?
In questo modo le redazioni rischiano di chiudere per diventare delle agenzie investigative
Ultima annotazione sui due nuovi TAG suggeriti da Google.
Google quei tag non li considererà a quanto pare, e se li prenderà in considerazione lo farà solo per un ristretto gruppo di siti.A questo punto il problema non sarà mai risolto, perchè chi è "forte", potrà tranquillamente inserire il tag come fosse contenuto originale, e quindi avrà sempre una posizione di vantaggio su chi, magari una redazione, quel contenuto l'ha scritto e l'ha reso disponibile sul web.