• User Attivo

    @Final_Player said:

    Tra poche settimane Google dovrebbe liberare un amico del Caro Panda, penalizzando i siti troppo ottimizzati.

    Secondo voi cosa vorrà dire troppo ottimizzati? Si tratterà di un algoritmo collegato ai fattori on o off page?

    Personalmente credo che questa penalizzazione esistesse già.

    Lo scorso anno un sito mi si penalizzò (il dominio era appena nato) per nessun apparente motivo, non avevo neanche cominciato una campagna di link building, ma avevo ottimizzato pesantemente on-page.

    L'unico motivo può essere quello.

    Per quanto riguarda la penalizzazione off-site non funziona già che se hai troppi link e troppo velocemente rischi di essere penalizzato? Ma poi comunque non ha senso penalizzare un sito per eccesso di backlink altrimenti passerei le giornate a linkare siti di competitor...

    Quello a cui si riferisce Cutts credo che sia riferito all'on-page, ma mi sembra il classico annuncio tanto per far rimanere svegli i SEO di notte...


  • User

    Per i backlink si parla abbastanza chiaramente di scambi di link.


  • Community Manager

    Hubspot.com (in questo articolo) cita la domanda fatta:

    "With so many SEO companies showing up claiming to do SEO, a lot of markets are getting saturated with optimized content...What are you doing to prevent, for example, if you're looking for something, and the first page is just optimized content, and it's not what you're actually looking for? Are you pretty much out of luck if you're not optimizing your site but it has relevant content? If I'm a mom or pop and I'm trying to optimize a site by myself, I'm going to get beat by people paying thousands of dollars."

    Danny Sullivan su Search Engine Land (quando ci sono dichiarazioni del genere vi sconsiglio vivamente di leggere persone che non fanno SEO e anche quelle che fanno SEO da meno di 3/4 anni, Danny Sullivan è uno dei più affidabili anche se stavolta non ha detto niente) ha ripreso le parole di Cutts in questo articolo che vi consiglio (non parola per parola):

    What about the people optimizing really hard and doing a lot of SEO. We don?t normally pre-announce changes but there is something we are working in the last few months and hope to release it in the next months or few weeks. We are trying to level the playing field a bit. All those people doing, for lack of a better word, over optimization or overly SEO ? versus those making great content and great site. We are trying to make GoogleBot smarter, make our relevance better, and we are also looking for those who abuse it, like too many keywords on a page, or exchange way too many links or go well beyond what you normally expect. We have several engineers on my team working on this right now.

    Inoltre Danny segnala il video sotto del 2009 dove lo stesso Cutts risponde a una domanda riguardante la sovra-ottimizzazione:

    A inizio mese è stato fatto un macello sui link ed ho letto centinaia di articoli pieni di falsità scritti da persone che non capiscono niente della SEO, mettendo nel panico un sacco di persone. Qui ho cercato di fare chiarezza su quell'argomento dei link.

    Mio parere:

    Ora, prima di buttarsi in analisi leggendo solo i titoli degli articoli, come purtroppo fanno la maggior parte delle persone in rete creando poi panico solo per arrivare link, leggiamo attentamente cosa dice Cutts.

    Nei suoi esempi cita due casi in particolare, per far capire che sono solo due dei tanti casi ai quali stanno lavorando:

    • too many keywords on a page
    • exchange way too many links

    Questi casi in particolare, ad esempio, sono già trattati e penalizzati.

    Quello che probabilmente faranno è solo potenziare i vari algoritmi di identificazione.

    Quindi, dal mio punto di vista (mettete tutto il discorso in forte dubbio ovviamente), hanno lavorato in passato per identificare bene queste pagine, le hanno penalizzate ed ora si ritrovano a studiare qualcosa di più preciso e scalabile che possa colpire molti più siti.

    Il settore delle penalizzazioni non è mai stato fortissimo e un sacco di siti sono sfuggiti alle regole.

    Con BigTable, avevamo ipotizzato che Google facesse un controllo tra il sito che stava indicizzando e il loro database di siti segnati come spam per provare a identificare al volo lo spam secondo vari criteri di vicinanza (che non conosco).

    La frase "We are trying to make GoogleBot smarter, make our relevance better" potrebbe forse riferirsi a questo, cioè stanno provando a potenziare il riconoscimento di molte penalizzazioni in fase di indicizzazione.

    Quello che voglio dire è che se prima per la sovra-ottimizzazione ti beccava solo successivamente alla fase di indicizzazione, ora stanno sviluppando un sistema attraverso il quale GoogleBot fa subito scattare un campanello d'allarme.

    In questo modo, i siti da penalizzare, saranno individuati molto più velocemente.

    Cosa cambia per noi:

    Un fico secco 😄

    Nel senso, chi ha lavorato senza sovra-ottimizzare, non ci saranno problemi.

    Per chi invece fino a questo momento sapeva che stava andando oltre i limiti ma non faceva niente perché Google non lo beccava...è il caso di pensarci un attimo.

    :ciauz:


  • Super User

    Concordo pienamente con Giorgio. Questo tipo di algoritmo suscita preoccupazione solo in chi, fin'ora, ha agito in black o grey hat. Chi ha sempre operato nella giustezza SEO può vivere sereno. Non noterà cambiamenti. Anzi, forse sì. Si potrebbe trovare a scalare la SERP di Google senza far niente, perché Google penalizzerà i concorrenti "sleali".

    Quindi, secondo me, per chi agisce e ha sempre agito "bene" c'è di che essere felici. E lo sto dicendo da giorni 🙂


  • User Attivo

    C'è una percentuale massima da non superare per quanto riguarda la presenza delle keywords in una pagina?

    Mi spiego, mettiamo che io parli di tre modi per fare le polpette 😄
    La parola "polpette" sarà nel titolo e nel testo più volte, ma non per un discorso di ottimizzazione, ma semplicemente perchè si chiamano così e trovare un sinonimo è difficile.


  • User Attivo

    Quoto pienamente quanto detto da Giorgio .. :wink3:
    @Giorgiotave said:

    Cosa cambia per noi:

    Un fico secco 😄

    Nel senso, chi ha lavorato senza sovra-ottimizzare, non ci saranno problemi.

    Per chi invece fino a questo momento sapeva che stava andando oltre i limiti ma non faceva niente perché Google non lo beccava...è il caso di pensarci un attimo.

    :ciauz:


  • Super User

    Ciao Girovago,
    lo stesso Cutts, in riferimento al "rischio" di keyword stuffing, sostiene che il parametro più affidabile per capire se si sta abusando delle kw è il buonsenso.

    Se produciamo un testo che, a leggerlo, ci fa esclamare "Pua!" o "Co-co-cosa?", allora quel testo non è buono. Se ci rendiamo conto di aver inserito una keyword ogni due parole, allora rischiamo.

    Il punto è dosare, è la giusta misura. E', per l'appunto, il buonsenso.


  • User Attivo

    Beh, tenuto conto di come il Panda abbia finito per massacrare anche degli onesti lavoratori che ritenevano di aver seguito pedissequamente tutte le regole, io non me la sentirei di dormire sonni così tranquilli...


  • User

    Tutto sommato sono sempre i soliti concetti che sento da quando ho cominciato a fare SEO.
    Niente di nuovo.
    Chissà che facciano davvero fuori tutti i siti con sovra-ottimizzazione evidente e soprattutto quelli fatti alla vecchia maniera con acquisti di 300 mila link e finita la faccenda...


  • User Attivo

    @wolf_cub said:

    Beh, tenuto conto di come il Panda abbia finito per massacrare anche degli onesti lavoratori che ritenevano di aver seguito pedissequamente tutte le regole, io non me la sentirei di dormire sonni così tranquilli...

    Non posso che quotarti, sia per me... (ma sono parte in causa e non conta), sia per siti che ho visto precipitare nelle serp e non dovevano assolutamente... eh sì che ormai sono dodici anni che frequento l'ambiente e lo vedo se un sito fa il furbo o no...

    Siete così fiduciosi in Google, io no.
    😄

    Vedremo...


  • Super User

    Penalizzare per troppa ottimizzazione, è come squalificare a Miss Italia le ragazze troppo belle.

    Se lo facessero poi delle partecipanti bellissime in natura per vincere dovrebbero farsi interventi estetici per abbruttirsi un po'.

    Forse non si usa il termine corretto, perché mi pare un controsenso.

    Troppo ottimizzato è come dire troppo perfetto, troppo fantastico ... no, non può essere.

    Una pagina che presenta una keyword density esagerata, o con migliaia di backlinks con anchor text identici, non è over ottimizzata, ma mal ottimizzata.


  • Community Manager

    @444523 said:

    Siete così fiduciosi in Google, io no.
    😄

    Attenzione, il mio messaggio era per il panico creato inutilmente.

    La mia preoccupazione per i bug di Google c'è sempre 🙂

    :ciauz:


  • User Newbie

    @Webmaster70 said:

    Penalizzare per troppa ottimizzazione, è come squalificare a Miss Italia le ragazze troppo belle.

    Facendo un parallelo, penso vogliano squalificare quelle con il seno rifatto, labbra gonfiate ecc.

    La cosa che mi sorprende è che lo facciano solo adesso.


  • Community Manager

    @daimmo said:

    Facendo un parallelo, penso vogliano squalificare quelle con il seno rifatto, labbra gonfiate ecc.

    La cosa che mi sorprende è che lo facciano solo adesso.

    Benvenuto Daimmo sul forum gt 😄

    Se queste sono le premesse, spero in migliaia di tuoi post :fumato:

    Lo fanno già, ma non è un sistema che identifica tutti, lo potenzieranno 😉


  • Super User

    @daimmo said:

    Facendo un parallelo, penso vogliano squalificare quelle con il seno rifatto, labbra gonfiate ecc.

    Se l'intervento estetico si nota, allora non è ben riuscito. L'ottimizzazione sta anche nel non farlo notare, idem per la SEO.

    Comunque io "contesto" solo il termine "sovra ottimizzazione", sul resto sono d'accordo.


  • User Attivo

    I primi cambiamenti io li sto sentendo e riguardano l'utilizzo delle directory, che fino a poco tempo fa non erano penalizzanti. Almeno nel mio caso, non ho mai ricevuto warning per links da directory o penalizzazioni.

    Qualcuno si è accorto di questa cosa per caso? Il mio network è stato colpito da una penalizzazione trasversale, inizialmente pensavo fosse causato principalmente dall'interlinking tra alcuni dei siti del network (a tema); poi un'amica che ha avuto lo stesso warning da "schema di links" si è vista rispondere da google, come esempi di siti non ok, due directory....questo secondo me ADESSO colpisce maggiormente i siti che hanno preponderanza di links da risorse di questo tipo (ci mettiamo dentro anche i siti di article marketing a questo punto?) e pochi o nessun link da siti a tema e di qualità;

    voi che ne pensate?


  • User Attivo

    Eh ... alcuni miei siti hanno preso una mazzata notevole , con perdite di parecchie posizioni nelle Serp e cali di visite pesanti.

    "Paradossalmente" sono quasi felice . Ormai la mia vita di webmaster si era ridotta a cercare sinonimi per l' article marketing e spammare di link tutto quello che trovavo di semanticamente rilevante alle mie parole chiave ...

    Grazie al nuovo Google sono uscito dal tunnel.

    Posso finalmente ritornare a fare siti web.


  • User Attivo

    Si comunque questa penalizzazione ha castigato gli scambi di links a schema e valuta sia link in entrata che in uscita; a me mi ha fatto sparire le home di circa 30 siti solo perchè alcuni di essi si interlinkavano....


  • User Attivo

    @wolf_cub said:

    Beh, tenuto conto di come il Panda abbia finito per massacrare anche degli onesti lavoratori che ritenevano di aver seguito pedissequamente tutte le regole, io non me la sentirei di dormire sonni così tranquilli...

    Posso quotare me stesso...? 😄

    Alle volte ho degli slanci profetici...


  • User

    Ragazzi,

    personalmente, un po in linea con quanto scrive Giorgio, penso che sia un discorso di affinare un algoritmo già esistente e in continua evoluzione.

    Con l'upgrade del 24/04 uno dei miei siti, fino a quella data in TOP 10 alle prime 3 posizione per molte parole chiavi richieste del cliente, è sparito dalla serp.

    Non ho fatto i giorni successivi nessuna azione ne onpage ne offpage ed ho semplicemente chiesto a google la ricertificazione del sito. Dopo 2 giorni, senza tra l'altro non darmi nessuna spiegazione particolare, il mio sito era nuovamente in TOP10.

    Penso che per tutte le persone del settore alla fine chi può aver paura e colui che magari ha utilizzato tecniche border line ad oggi.

    Naturalmente si deve usare la massima attenzione e stare allerta sui sviluppi futuri in quanto se domani BIGG decide che vengono penalizzati tutti quelli che hanno rivetuot almeno 1 backlink il discorso cambia.... :D.

    Ciao Seocolli.