Grazie, non lo avevo mai visto. Da testare!
Mi piace chi agisce fuori dagli schemi.
Grazie, non lo avevo mai visto. Da testare!
Mi piace chi agisce fuori dagli schemi.
Ciao a tutti, ci aggiungerei, da un punto di vista sociale:
Da un punto di vista della piattaforma:
**Dopo aver postato su Facebook questo commento al post di Giorgio...
**>
*...chissà che penserà Giorgio di quello che ho scritto. Magari ci sarà qualcuno espertissimo (o, a seconda dei casi, che non è in grado neppure di capire le due righe che ho scritto) che mi darà dell'idiota. Ma si chiamavano Windows Msn Spaces o Live Spaces o come? Spero di non aver sbagliato. Certo che avrei potuto scrivere qualcosa di più interessante... Ufff... La prossima volta rifletto, ma non commento su Facebook, chi se ne frega... *
Ciao, ottimo
La rimozione degli errori/cancellazione delle pagine duplicate non è immediata, quindi è normale che ci siano ancora dei duplicati. Il canonical diciamo che è di supporto, ma il redirect vero e proprio è la soluzione madre.
Sul title, non potendo vedere il sito, non so aiutarti.
Ciao, guarda ti calcoli l'indirizzo con lo stesso sistema con il quale te lo calcoli per popolare i menu del sito con i link alle varie pagine (io non ho idea di come hai fatto, di solito c'è una funzione che fa delle query al db per vedere dall'id il titolo della pagina e crearsi l'url seo friendly).
Stavolta lo fai prima ancora di passare la pagina al client, in maniera tale da fare l'eventuale redirect. Fatto questo risolverai anche il problema del case-sensitive, che è - a titolo informativo - probabilmente causato da un contenuto nel rewrite, che rende case-insensitive gli url.
Oltre al redirect, ti suggerisco di aggiungere il rel="canonical nell'head dell'html.
Se non hai un metodo per farlo automaticamente (vecchia pagina -> nuova pagina), puoi farlo a mano. L'ideale sarebbe su tutte, in alternativa (povera e pericolosa) puoi farlo su quelle che facevano più visite.
Wow, mi chiedevo da anni perché non lo facessero
Ciao, guarda è un problema molto frequente. Tu hai impostato la riscrittura degli url, quindi chiamando quelli nuovi ti visualizza il contenuto delle corrispondenti pagine con gli id.
Ma se google (o tu) richiama gli url vecchi, non avendo effettuato un redirect sul nuovo url, resta sull'indirizzo vecchio che risponde correttamente.
Ti serve calcolare l'url nuovo sulla pagina, esattamente come la stessa funzione che usi per generare i vari menu con i link nuovi. Poi tramite php devi verificare che l'url richiamato sia quello nuovo e non quello vecchio con gli id (e/o altri diversi). Se è diverso da quello nuovo, devi inviare un header col redirect all'url esatto.
Spero di essere stato chiaro.
Ciao, mi sembra di intuire che si tratti in entrambi i casi di due soluzioni pronte, su server loro. Come specificato da Federico, dovresti attuare un redirect 301 dagli url vecchi agli eventuali url differenti corrispondenti sul nuovo sito, perciò ti conviene chiedere se la nuova piattaforma lo consente, altrimenti sul breve periodo potresti davvero avere un crollo di accessi.
Ciao, tanti cms oggi permettono di personalizzare l'url delle singole pagine, al di là della regola generale. Ragion per cui, ognuno, in base ai risultati attesi e alle proprie preferenze in fatto di ottimizzazione dell'indirizzo per le parole chiavi favorite, imposta il tutto differentemente.
Metti il caso, nell'esempio da te riportato, che il titolo per ragioni editoriali (che convivono e a volte prevalgono sulla seo) dovesse essere quello, ma si puntasse allo stesso tempo a posizionarsi per "password rubate da Facebook". Nell'url, se lo ritenessi opportuno, potrei riportare solo quelle parole "password-rubate-da-facebook", evitando di scrivere dei due milioni e del virus.
Detto questo, dipende dallo scopo, non è detto che quello che fanno gli altri sia giusto o sbagliato.
Eliminando la funzione, ecco il codice
[HTML]<div id="mostraPagina"></div>
<a href="javascript:void(0)" class="aprilink">Avvio audio con Ajax</a><br>
<input type="button" value="Esegui esempio" class="aprilink" />[/HTML]
$( document ).ready(function() {
$( ".aprilink" ).click(function() {
$('#mostraPagina').load('a.html');
});
});
Ciao, anziché richiamare la funzione inserendo il javascript nell'href, prova ad assegnare un id al link e utilizza questo per intercettare il click http://api.jquery.com/click/
Ciao, la soluzione è da ricercare in javascript.
Immagino che di manovre simili dovrai farne diverse nella pagina. Questo mi induce a suggerirti, anziché utilizzare il linguaggio puro, di andare sul semplice, usando Jquery.
Una volta importato Jquery, puoi fare una cosa simile:
[HTML]<select id="opzioni">
<option value="pippo">pippo</option>
<option value="pluto">pluto</option>
<option value="paperino">paperino</option>
</select>
<a href="javascript:void(0);" id="link">Link</a>[/HTML]
$( document ).ready(function() { //attende il caricamento della pagina
$( "#link" ).click(function() { //intercetta il click sul link con l'ID indicato
$('#opzioni').val("pluto"); //imposta il valore
});
});
Ciao
@legnaftw said:
Non sembra troppo difficile ma neanche facile, 1-2 mesi e dovrei essere in cima.
Sinceramente la vedo dura. Credo ci sarebbero persone disposte a pagarti davvero bene per quel posizionamento, da ottenere anche in più tempo.
Ciao ho detto che Google tenderà a penalizzarlo perché il sito è debole e il filtro antiduplicazione non ci mette molto ad entrare in azione. Immagino anche tu abbia visto il sito in privato, io ho provato a copiare e incollare dei testi presi da articoli a caso e mi sono usciti risultati identici.
Ciao, ho visto il link che mi hai inviato in privato.
Un sito online da poco tempo oltre ad avere contenuti nuovo ed originali deve avere dei link in entrata, altrimenti Google non gli darà mai il giusto peso, anzi tenderà a penalizzarlo.
Ciao, ma il sito da quanto è online? Puoi indicare, se vuoi anche privatamente, l'url del sito?
P.S. al post dell'altro giorno era spider, non spieder... non posso modificare il messaggio.
@Far-Web said:
Anche le keywords?
Mi occupo di SEO da 7-8 anni e non le metto mai. Se vuoi il mio personale consiglio, non metterle proprio le Keywords. Sono inutili, il tempo che perdi per metterle, potrebbe tornarti utile per ottimizzare i contenuti.
Se proprio vuoi metterle devi cambiarle, mettendo quelle più appropriate per la pagina specifica. Altrimenti oltre ad essere inutili, potrebbero essere dannose.
Ciao, avevo frainteso per il titolo. In alcuni casi lo spieder potrebbe essere più lento, hai una sitemap? Effettui il ping dopo la pubblicazione di nuovi contenuti?
Ciao, in tutte e 5, cambiandoli in base agli specifici contenuti della pagina. A parte il robots che potrebbe coincidere, le altre dovrebbero essere differenti tra loro.
Ciao, ti riferisci solo a Google News? Usi una sitemap specifica? In strumenti per webmaster ci sono errori segnalati, soprattutto relativo alla sitemap per news?