• User Attivo

    @schizzorl86 said:

    a mio avviso il discorso di migrazione da un web catalogato da un robot a quello sempre piu catalogato da uomini è utopistico.. e lo è sempre di piu in quanto i contenuti sono troppi e la velocità di crescita del web in senso lato è troppo elevata per essere gestita da umani... inoltre il robot, se impostato secondo linee guida intelligenti (e GG è sempre piu un maestro) garantisce congruenza e coerenza delle serp con le keys cercate. Chiaramente i quality raters possono anche essere potenziati nulla fa male ma le parole di Giorgio mi sembrano un po troppo pesanti

    anch'io IMHO

    Rik

    Sì, in effetti hanno meno peso di quanto crediamo....però per un minimo dovrebbero scoraggiare alcuni spammer (si spera).


  • User Attivo

    Beh, da parte mia, credo come molti che i motori si stanno "umanizzando" e questo non può che giovare agli utenti....
    schizzorl86 non è che noi intendiamo che i siti vengno catalogati dai QR ma crediamo (almeno io :1: che questi facciano il proprio lavoro al meglio, dando nuovi spunti e risorse all'algoritmo che cataloga i siti...

    E bannando gli spammer 🙂

    Ciao ciao


  • User Attivo

    bella domanda..

    da una parte è evidente che la condotta del motore per almeno un altro "tot" sia tutta intorno all'attuale concetto di TR.

    però penso anche google stia in qualche modo cercando di catalogare e monitorare i comportamenti dei quality rater per creare una sorta di intelligenza artificiale che possa fare il loro lavoro a velocità elevatissima per il maggior numero di casi posssibile.

    e credo che gli sforzi in questo senso siano altissimi da parte dei motori.

    internet aumenterà in numero di siti in modo costante non è possibile che si pensi ai QR come una risposta allo spam, la vedo piu una TOPPA pseudo temporanea in attesa che si mettano a sviluppare qualcosa di più veloce.

    In aziende di questo calibro è una regola progettare piani per un futuro che ancora non esisite (osx per mac intel era in testing da 5 anni..).

    Pensare che google non stia puntando tutto sui un concetto di AI atto a ripmiazzare o diminuire drasticamente l'intervento umano è quasi folle se pensiamo a quanti potrebbero essere i siti tra 5-10 anni.

    byez 🙂


  • Bannato Super User

    @schizzorl86 said:

    a mio avviso il discorso di migrazione da un web catalogato da un robot a quello sempre piu catalogato da uomini è utopistico.. e lo è sempre di piu in quanto i contenuti sono troppi e la velocità di crescita del web in senso lato è troppo elevata per essere gestita da umani... inoltre il robot, se impostato secondo linee guida intelligenti (e GG è sempre piu un maestro) garantisce congruenza e coerenza delle serp con le keys cercate. Chiaramente i quality raters possono anche essere potenziati nulla fa male ma le parole di Giorgio mi sembrano un po troppo pesanti

    anch'io IMHO

    Rik

    quoto gokufg,
    non si tratta di passare ad un web catalogato dagli umani. è chiaro che la mole di lavoro è improponibile, però ci si appoggia sempre di più all'occhio umano per migliorare la qualità del lavoro che, credo, rimarrà competenza degli algoritmi.

    per rispondere alla domanda, secondo me, google premierà e posizionerà in alto i siti con i contenuti più qualitativi e poi creerà delle serp dalle quali noi otterremo già tutte le risposte che cerchiamo.
    sulle serp del .com si è già vista una larga sperimentazione da questo punto di vista: mappe, indirizzi, indicazioni stradali, orari, film, informazioni generali (tempo fa c'era l'esempio della data di nascita di george washington, mi pare) e, come ultima cosa, i video direttamente nelle serp.


  • User Attivo

    una soluzione interessante è anche quella di fornire "come default" risultati sempre più personalizzati alle proprie abitudini.

    questo creerebbe non pochi problemi a chi ancora lavoro a posizionamento su n kw.

    Il futuro è lavorare a "conversioni", non importa da dove arrivano, motori generalisti, social network, o chissà quale diavoleria 3.0 ci aspetta tra 2-3 anni...

    La vecchia kwlist da approvare diventerà un optional (già in alcune società per progetti mediograndi è un passo da fare si ma solo per dare una certa idea al cliente, la cosa è in realtà di secondaria importanza).

    La classica frase "io punterò sui contenuti...." è giusta si ma non perchè google "presente e futuro del sem" investirà sui contenuti.

    La cosa è giusta perchè tra qualche anno i contenuti saranno l'unico modo per poter essere presenti su un campo semantico così ampio da poter "raccattare" presumibilmente ogni tipo di traffico, presente (google&co ) e futuro(web 2.0).


  • User Attivo

    Difficile dire dove andranno.

    Secondo me saranno sempre più incentrati su concetti social e sempre meno su fattori interni al sito, perchè troppo "governabili" da webmaster e SEO.
    Questo rappresenta a mio modo di vedere una sconfitta per gli algoritmi che si sono dimostrati incapaci di catalogare il web in modo efficace. Agli automatismi si sono affiancati i controlli umani, i fattori di traffico, i click sui risultati delle serp, tutte conferme che forse qualche limite nella tecnologia c'è.

    Dal punto di vista dei SEO sarà sempre più importante oltre che puntare sulla qualità del sito, anche creare utilità innovative, che possano coinvolgere gli utenti e generare traffico a prescindere dai motori di ricerca che saranno sempre meno "controllabili".


  • User Attivo

    io credo che se i motori usassero anche le info provenienti dai social bookmark potrebbero di molto migliorare i risultati offerti, perche di fatto avrebbero info assimilabili a quelle dei Quality Rater, quindi in teoria yahoo dovrebbe avere un vantaggio, che pero attualmente non sembra cogliere...


  • User Attivo

    @ferdi said:

    io credo che se i motori usassero anche le info provenienti dai social bookmark potrebbero di molto migliorare i risultati offerti, perche di fatto avrebbero info assimilabili a quelle dei Quality Rater, quindi in teoria yahoo dovrebbe avere un vantaggio, che pero attualmente non sembra cogliere...
    Non tutti i siti meritevoli di stare su nelle serp vengono inseriti nei social bookmark dagli utenti.
    Di solito si inseriscono siti che si vuole tornare a visitare in un immediato futuro, mentre magari ci sono siti validi in cui trovata l'informazione cercata si rimane soddisfatti, e non si inserisono da nessuna parte.
    Spero di essermi spiegata, perchè io stessa mi sono persa.


  • User Attivo

    @maricalina said:

    Non tutti i siti meritevoli di stare su nelle serp vengono inseriti nei social bookmark dagli utenti.
    Di solito si inseriscono siti che si vuole tornare a visitare in un immediato futuro, mentre magari ci sono siti validi in cui trovata l'informazione cercata si rimane soddisfatti, e non si inserisono da nessuna parte.
    Spero di essermi spiegata, perchè io stessa mi sono persa.

    in generale hai ragione, ma tutto fa brodo!

    Quindi anche se nei social bookmark non vengono salvate tutte le risorse, credo che comunque possano portare informazioni molto utili


  • Community Manager

    volevo ringraziarvi per le risposte e riflessioni 🙂