- Home
- Categorie
- Digital Marketing
- Posizionamento Nei Motori di Ricerca
- Ottimizzare il file robots.txt per Wordpress, Joomla, Drupal & Co.
-
Ecco la conferma che Yoast ha sparato una fesseria. Parlare di Panda era avventato e fuori luogo. Un altro caso per cui bisognerebbe stare in guardia rispetto alle ipotesi di correlazioni tra avvenimenti e realtà.
John Mue dice:
Allowing crawling of JavaScript and CSS makes it a lot easier for us to recognize your site's content and to give your site the credit that it deserves for that content. For example, if you're pulling in content via AJAX/JSON feeds, that would be invisible to us if you disallowed crawling of your JavaScript. Similarly, if you're using CSS to handle a responsive design that works fantastically on smartphones, we wouldn't be able to recognize that if the CSS were disallowed from crawling. This is why we make the recommendation to allow crawling of URLs that significantly affect the layout or content of a page. I'm not sure which JavaScript snippet you're referring to, but it sounds like it's not the kind that would be visible at all. If you're seeing issues, they would be unrelated to that piece of JavaScript being blocked from crawling.
Looking at your site, those disallowed scripts are definitely not causing a problem -- it's primarily an issue of problematic links here. That's what I'd focus on first. Since there's a manual action involved, that's something which you can work on to resolve.
Regarding your more general question of whether disallowed scripts, CSS files, etc play a role in our Panda quality algorithm: our quality algorithms primarily try to understand the overall quality of a page (or website), and disallowing crawling of individual aspects is generally seen as more of a technical issue so that wouldn't be a primary factor in our quality algorithms. There's definitely no simple "CSS or JavaScript is disallowed from crawling, therefore the quality algorithms view the site negatively" relationship.
Oltre a questo bisogna anche notare che il caso di Yoast è precedente di due settimane rispetto al refresh di Panda.
-
Si concordo meglio lasciare il robots txt con solo Disallow:
mi chiedevo per proteggere wp-admin tramite htaccess è un buona risorsa questa che vi indico:
cyberspazio.eu/wordpress-proteggere-il-pannello-di-amministrazione-con-htaccess/
-
Si basta che generi una pass .htpasswd e .htaccess
-
Si ho seguito le istruzioni insernedo il file .htaccess e .htpasswd in wp-admin ed ho modificato .htaccess nella root, solo quando inserisco user e password me le richiede ogni volta e non mi fa entrare.
-
Allora forse hai messo la pass errata.
Genera la password direttamente da shell perché a volte i tool online non funzionano.
-
Scusami, perdona la mia ignoranza, ma intendi da riga di comando? perchè gironzolando sul web ho trovato indicazioni sul pacchetto apache dove insieme vi è un programma htpasswd per generare la password. Puo essere una soluzione? nel caso dove trovo queso pacchetto apache?
-
Sì esatto.
Che distribuzione di linux usi?
-
Sinceramente non uso linux come sistema operativo ma il Mac, se puoi consigliarmi quale usare potrei installarlo in virtuale, funziona ugualmente?
-
In teoria su Max essendo basato su Unix dovrebbe esserci lo stesso.
Apri un terminale e vedi se ti restituisce il comando.
-
Si il comando mi restituisce le varie istruzioni, proverò ad eseguire la riga di codice per generare la password. Grazie mille per la disponibilità. Se desideri ti aggiorno su come va.
-
Un piacere.