- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Ottimizzare il file robots.txt per Wordpress, Joomla, Drupal & Co.
-
Altro errore grave è inibire l'accesso alle cartelle wp-content che quasi sempre contengono CSS, JS e altre cose funzionali al tema utilizzato. Spesso alcuni plugin o temi utilizzano JS presenti in wp-includes e da qui un altro errore che si andrebbe a commettere utilizzando un robots.txt tipo quello consigliato.
Giustissimo, a tal proposito sono curioso di vedere come si evolve questo caso:
https://yoast.com/google-panda-robots-css-js/In ogni caso non mi convince molto soprattutto osservando il grafico di Search Metrics, sia per il crollo registrato in data differente da panda, sia per il primo picco subito dopo il crollo.
-
Infatti come ho già detto su Google+ (e anche qui) mi sembra un po' avventato e fuori luogo dire che si tratti di Panda.
Non è cosa nuova che non vadano bloccati JS e CSS e le risorse che si trovano su questo forum lo dimostrano così come è già da tempo che sappiamo che Googlebot tenti il rendering aldilà dell'annuncio ufficiale.La cosa che mi stupisce di più è che lo abbia detto Yoast. Anche lui si è fatto prendere dal folklore.
-
@Juanin said:
- [Terzo articolo errato] Creare un robots.txt per WordPress ottimizzato per i Motori di Ricerca
Giacomo Pelagatti ha risposto spiegando anche lui che alcuni consigli sono errati. Vi incollo la sua risposta più corposa e potete leggere il resto dei commenti nel post:
...
Che dire. In fin dei conti la risposta corretta in quelle pagine c'è, ma in quanti leggeranno i commenti?
Spesso l'utente cerca una soluzione immediata da copia/incolla e per la SEO questo è un male.Per precisione, la risposta di Giacomo Pelagatti è riportata e linkata anche all'interno del post (che ho scritto quasi 5 anni fa).
Se l'utente poi si limita a scorrere l'articolo per copia/incollare l'ultima porzione di codice, senza leggere tutte le considerazioni... il rischio è suo
-
Ecco la conferma che Yoast ha sparato una fesseria. Parlare di Panda era avventato e fuori luogo. Un altro caso per cui bisognerebbe stare in guardia rispetto alle ipotesi di correlazioni tra avvenimenti e realtà.
John Mue dice:
Allowing crawling of JavaScript and CSS makes it a lot easier for us to recognize your site's content and to give your site the credit that it deserves for that content. For example, if you're pulling in content via AJAX/JSON feeds, that would be invisible to us if you disallowed crawling of your JavaScript. Similarly, if you're using CSS to handle a responsive design that works fantastically on smartphones, we wouldn't be able to recognize that if the CSS were disallowed from crawling. This is why we make the recommendation to allow crawling of URLs that significantly affect the layout or content of a page. I'm not sure which JavaScript snippet you're referring to, but it sounds like it's not the kind that would be visible at all. If you're seeing issues, they would be unrelated to that piece of JavaScript being blocked from crawling.
Looking at your site, those disallowed scripts are definitely not causing a problem -- it's primarily an issue of problematic links here. That's what I'd focus on first. Since there's a manual action involved, that's something which you can work on to resolve.
Regarding your more general question of whether disallowed scripts, CSS files, etc play a role in our Panda quality algorithm: our quality algorithms primarily try to understand the overall quality of a page (or website), and disallowing crawling of individual aspects is generally seen as more of a technical issue so that wouldn't be a primary factor in our quality algorithms. There's definitely no simple "CSS or JavaScript is disallowed from crawling, therefore the quality algorithms view the site negatively" relationship.
Oltre a questo bisogna anche notare che il caso di Yoast è precedente di due settimane rispetto al refresh di Panda.
-
Si concordo meglio lasciare il robots txt con solo Disallow:
mi chiedevo per proteggere wp-admin tramite htaccess è un buona risorsa questa che vi indico:
cyberspazio.eu/wordpress-proteggere-il-pannello-di-amministrazione-con-htaccess/
-
Si basta che generi una pass .htpasswd e .htaccess
-
Si ho seguito le istruzioni insernedo il file .htaccess e .htpasswd in wp-admin ed ho modificato .htaccess nella root, solo quando inserisco user e password me le richiede ogni volta e non mi fa entrare.
-
Allora forse hai messo la pass errata.
Genera la password direttamente da shell perché a volte i tool online non funzionano.
-
Scusami, perdona la mia ignoranza, ma intendi da riga di comando? perchè gironzolando sul web ho trovato indicazioni sul pacchetto apache dove insieme vi è un programma htpasswd per generare la password. Puo essere una soluzione? nel caso dove trovo queso pacchetto apache?
-
Sì esatto.
Che distribuzione di linux usi?
-
Sinceramente non uso linux come sistema operativo ma il Mac, se puoi consigliarmi quale usare potrei installarlo in virtuale, funziona ugualmente?
-
In teoria su Max essendo basato su Unix dovrebbe esserci lo stesso.
Apri un terminale e vedi se ti restituisce il comando.
-
Si il comando mi restituisce le varie istruzioni, proverò ad eseguire la riga di codice per generare la password. Grazie mille per la disponibilità. Se desideri ti aggiorno su come va.
-
Un piacere.