• Admin

    Googlebot esegue i Javascript: è ufficiale

    Tramite un post sul blog ufficiale Google annuncia la sua migliorata capacità nella comprensione (e rendering) delle pagine http://googlewebmastercentral.blogspot.it/2014/05/understanding-web-pages-better.html

    Già da qualche anno è nota la capacità di Googlebot di valutare anche visivamente le pagine, ma ora con questo annuncio viene tolto ogni dubbio. Onestamente non sono affatto stupito 🙂

    "Nuove" implicazioni dunque nella gestione e controllo del crawler "per chi" sosteneva che Googlebot non fosse in grado di comprendere la pagina.

    Come avviene già per il visual crawling le librerie note come Analytics verranno escluse per evitare di intaccare e inficiare le statistiche (almeno ora funziona così).

    Con questo post si ribadisce nuovamente l'importanza di non bloccare a caso JS e CSS e di concentrare gli sforzi anche sugli aspetti di design del contenuto.

    Se ne era parlato di recente anche qui della questione.

    Incollo il post ufficiale per non dimenticare.
    image

    e ho anche provveduto ad aggiornare la sezione storia degli aggiornamenti algoritmici con questo importante annuncio.


  • Admin

    In corso una serie interessante di test sulla questione http://www.giacomopelagatti.it/2014/05/wysiwyi/


  • Super User

    A mio parere non esegue un bel niente :figo2:
    Può darsi che qualche analisi del javascript la faccia, ma dire che "esegue i javascript" mi sembra esagerato e irreale.


  • Admin

    Così dicono...comunque il fatto che Googlebot agisca come headless browser non è poi così fantascienza.
    La tecnologia c'è e credo anche la potenzialità.


  • Super User

    La tematica è lunga da affrontare e purtroppo mi manca il tempo.
    Miei test dicono che non era così, se oggi è cambiato qualcosa mi sembra molto strano. Posso rifare il test e verificare.
    Il fatto che ci siano dei meccanismi "anti-furbi" quello è scontato, ma lo era anche prima.

    Il fatto che la tecnologia esiste, è un altro paio di maniche. Ma se veramente è come tu dici (e ne dubito) allora i siti full-ajax non avranno più problemi d'ora in poi 😉


  • Super User

    Mi rimangio tutto: adesso Google indicizza anche i contenuti ajax :surprised:


  • Admin

    Bene 🙂
    Basta che sia buono quello che ti rimangi.


  • Super User

    Tradotto vuol dire che tutti quei plugin o widget in javascript ora aggiungono al sito contenuti indicizzabili da Google e quindi potenzialmente utili o dannosi per il posizionamento su Google?


  • User Attivo

    Di default il robots.txt di joomla esclude dall'indicizzazione la cartella /template dove ci sono anche i css.
    Da questo post sembrerebbe che sia il caso di fargliela digerire ?


  • Admin

    Esattamente.

    In realtà da anni è consigliato non bloccare le cartelle che contengono CSS e JS.
    Purtroppo chi fa questi CMS non ha la benché minima idea di cosa sia la SEO 😉


  • Super User

    @korkal said:

    Di default il robots.txt di joomla esclude dall'indicizzazione la cartella /template dove ci sono anche i css.
    Da questo post sembrerebbe che sia il caso di fargliela digerire ?

    Attenzione però che Google parla di JS e CSS, nei template di Joomla spesso ci sono anche altre pagine PHP, HTML (gli index.html vuoti) e altro.


  • Community Manager

    @Juanin said:

    In corso una serie interessante di test sulla questione http://www.giacomopelagatti.it/2014/05/wysiwyi/

    Come sta andando questo test?

    @ayrton2001 said:

    Mi rimangio tutto: adesso Google indicizza anche i contenuti ajax :surprised:

    :surprised::surprised::surprised::surprised::surprised:


  • User Attivo

    In effetti devo ammettere che anch'io a volte uso JavaScript, per esempio il codice del contatore alle pagine scaricate e per pochi altri casi che comunque sono oculatamente studiati. È vero che ho fatto alcuni esperimenti per farmi un'idea, ma ho mantenuto le dovute distanze.

    Leggendo attentamente quanto riportato nel post #1 lo stesso supporto di Google riconosce che non è detto che JavaScript sia sempre letto o correttamente eseguito se è verificata almeno una delle condizioni dell'articolato nella fine della citazione, e sono solo alcuni dei casi. Non è nemmeno detto che tutti gli spasmodici utilizzatori di quella tecnologia ne siano a conoscenza e li applichino.

    Però il post di ayrton2001 è un grave indizio se si ricorresse troppo alle tecnologie JavaScript e suoi derivati come ad esempio Ajax

    @ayrton2001 said:

    adesso Google indicizza anche i contenuti ajax :surprised:

    Infatti la testimonianza si riferisce a quest'ultima dando come spunto di riflessione l'inclusione di altri testi che vorrei condividere.

    Sfortunatamente non è detto che tutti (anzi mi sembra siano una rarità) abbiano le conoscenze per comprendere cosa fanno integralmente i framework sviluppati da terzi implementati per importare contenuti “a loro insaputa” da almeno un dominio esterno con una chiamata asincrona non documentata, o contenesse delle debolezze opportunamente architettate o sia predisposto a vulnerabilità XSS. E se questo facesse negative SEO o procurasse un danno d'immagine con buona indicizzazione, come la mettiamo?

    Forse c'è una minore probabilità in quelli sviluppati da grosse software house che potrebbero rilasciare i sorgenti in chiaro, pur nel rispetto delle specifiche licenze d'uso.

    Ed ho usato l'avverbio “forse” per l'analogia che c'è tra il rischio falle di questi framework derivati da JavaScript con i bug in OpenSSL che stanno venendo alla luce nonostante sia un progetto open source, alcuni dopo ben 16 anni dalla prima versione del 1998 ( repubblica.it/tecnologia/2014/06/06/news/nuova_falla_nel_protocollo_openssl_dopo_heartbleed_altri_buchi_nella_sicurezza_internet-88199618/ 😞 entrambi i casi potrebbero essere analizzati da chiunque però quanti dedicano investimenti nell'attività di ricerca indipendente? Siete veramente sicuri di quello che fanno i framework che usate?

    In aggiunta a quelli più blasonati non bisogna dimenticare la presenza di una molteplicità di altri ignoti pacchetti utilizzati da web-agency — magari quelle che propongono una soluzione “chiavi in mano” per qualche euro (o frazione) al mese — più o meno proprietari a cui la probabilità di criticità aumenta proprio perché risultano più difficili da controllare da una vasta platea di ricercatori.

    Purtroppo sappiamo che molti utenti vorrebbero diventare i protagonisti del Web grazie a servizi a costo zero, o giù di lì, pensando che sia sempre tutto idillicamente funzionante mentre, per quanto ho scritto prima, il fattore di rischio aumenta esponenzialmente.

    In definitiva Google potrà indicizzare i contenuti generati dal framework in JavaScript o derivati, ma a mio avviso la possibilità di problemi che possono portare è un gioco che non vale la candela senza considerare altri aspetti non meno importanti che esulano da questo thread, e proprio per questo è una tecnologia che uso solo dove serve come introducevo questo mio intervento.

    Poi ognuno è libero di sceglie la soluzione che preferisce pur assumendosi in toto i relativi rischi, responsabilità e fallimenti, che possono portare questi salti nel vuoto al buio.