• User Attivo

    bluwebmaster, più che seozoom la mia paura è Google, stamattina alle 3 mi è arrivato un coupon da 120 euro da usare se spendo altri 120 euro per un totale di 240 euro di pubblicità adwords (si aspetta...). Non voglio pensare male, ma il sito in questi anni si è tirato su da solo, con aggiornamenti continui senza alcuna pubblicità pagata e a loro basta poco per scoprirlo e guarda caso arriva questo coupon proprio in questo periodo (bloccandomi il traffico?).

    Per quanto riguarda seozoom le visite non possono essere tracciate correttamente, anche se provi similarweb è la stessa cosa, non so come prelevano le visite ma sono sempre sballate, sull'andamento però si avvicinano, anche sulle keyword che salgono e scendono


  • Super User

    @cutoff

    se lo credi puoi mandarmi per messaggio privato il link così ci do uno sguardo.
    Ti consiglio di misurare la velocità delle pagine e se sono ben ottimizzate per il mobile, come prima cosa.
    Io sono ri-balzato , per alcune key, ai primo posti limando qua e la e rendendo le pagine più veloci e soprattutto mettendelo a puntino per bene per il mobile.
    Occhio anche alla UEX ( User Experience ) : vedi se è aumentata la frequenza di rimbalzo e il numero medio di pagine viste per utente, ma soprattutto il tempo di permanenza .
    Ah un altra cosa : se sei su Aruba , controlla in webmaster di Google la connessione al server .
    Recentemente ho riscontrato problemi legati al dns che ho risolto rigenerando i record e avvisando il compartimento tecnico.
    Appena risolto , insieme a tutte queste piccole modifiche che ancora sto facendo, ho avuto già un primo concreto risultato.
    Ora lavorerò per tornare ai livelli del 2016/febbraio 2017.
    Sempre che riesca a capire ...cosa ha fatto diminuire il traffico.

    P.S. la storia dei 120 euro l'ho pensato anch'io .
    Ma più di tutto mi sono chiesto : ma al publisher quanto pesa questo ulteriore omaggio di adword che una volta era 70 euro.
    In altre parole se Google vuol fare dei regali li faccia con la sua tasca non con quella dei publisher.
    Poi si lamentano che dentro ci finiscono inserzionisti farlocchi !


  • User Attivo

    @bluwebmaster ti ringrazio, abbiamo già fatto controlli con altre persone e non sembra ci sia nulla che non va. L'unico dubbio viene per i contenuti duplicati dell'affiliazione e che qualche algoritmo abbia bloccato l'intero dominio (da anni lavorava così e al massimo veniva colpita la sottocartella affiliata). Cosa strana che sto notando: per analizzare le visite uso Histats in quanto lo trovo più comodo rispetto ad Google Analytics e ieri vedendo che nonostante le poche visite ho avuto ordini da amazon (anche oggi che sono la metà di ieri) ho installato per prova il codice Analytics per vedere se il problema non stesse in Histats...beh inizialmente funzionava bene, anzi rispetto a Histats segnava un 30% di traffico in più, che è quello che mi mancava rispetto alla settimana precedente, poi d'un tratto si ferma a poco più di 400 visite con le visite totali e ora mi segna solo i visitatori in tempo reale ma non quelli totali, cosa stranissima e poi proprio oggi doveva capitare? Il calo di visite comunque c'è perchè se guardo adsense c'è un 30% circa in meno di impressioni rispetto alla settimana scorsa. Le keyword principali sono tutte nella prima posizione o prima pagina, ma il traffico per molte di loro è la metà. Chi ci capisce qualcosa è bravo


  • Super User

    Novità ?
    Hai ripreso il traffico ?
    Con adsense come va ?


  • User Attivo

    Ciao bluwebmaster nessun miglioramento, anzi tutto peggio di prima, ormai sono sceso da 3500-4000 visite/giorno alle quasi 1000 di ieri e oggi ne farò ancora meno dalle previsioni. Adsense prima mi dava un cpc medio di 12-13 cent, ora è aumentato il ctr ma di cpc siamo a 5/6 cent max 7 cent. Insomma non so cosa sia successo. Ho scoperto oggi del rilascio dell'aggiornamento di Google Hawk il 22 agosto searchengineland . com/august-22-2017-hawk-google-local-algorithm-update-282269 non dovrebbe esserne in teoria la causa del crollo, ma guardando con più cura il grafico della discesa del mio sito è iniziato verso il 23-24 agosto (coincidenza?). Sarà un caso, ma mi ritrovo con un sito ormai morto. Ho chiesto disperato consigli anche al forum per webmaster di Google e gli esperti che rispondono non mi hanno trovato nulla di grave, c'era giusto qualcosina che tiravo avanti da anni (tipo pochissimi url in serp che rimandavano a immagini invece che all'articolo genitore) e mi hanno detto che alcune pagine si dovevano ancora indicizzare, avevo poi alcuni errori 503 causati dai cron e che ho definitivamente risolto con il mio hosting, ma il posizionamento sembra andare sempre peggio ormai.
    Sto pensando di cambiare dominio o passare da no www a www e fare una prova così. Le pagine indicizzate con Google sono scese tantissimo, poi se provo a usare l'operatore site: mi da a volte 380.000 pagine che si avvicina al dato reale, altre 90.000, poi 95.000, poi torna a dopo alcune ore 92.500, il tutto in una sera o entro la giornata, insomma, che cacchio sta succedendo?????????? Nessuno mi sa dare una spiegazione


  • Moderatore

    Ciao
    in questo caso bisognerebbe analizzare diverse cose, tra cui Backlink, contenuti duplicati.... e non vale dire ci sono sempre stati... A volte si viene "penalizzati" o tolti dalla prima pagina dopo mesi se non anni.


  • User Attivo

    Ciao sermatica ciò che dici é vero, per questo sto migliorando e correggendo alcuni errori che magari se prima per Google non erano penalizzanti ora invece potrebbero esserlo, almeno mi tolgo i dubbi, come per gli errori 503, che magari il bot di Google prima non li penalizzava mentre ora chi mi dice che non possono penalizzare se spesso presenti? Ovviamente non parlo di errori 503 una volta tanto, ma da me venivano generati ogni notte con il cron che partiva ogni 15 minuti dall'una alle 6 del mattino con intervallo di 15 minuti, durante l'avvio dello script lo shop (non il blog) restituiva una pagina bianca, problema comunque ora risolto e sono a 0 errori 503 e anche durante gli aggiornamenti il sito non ha alcun rallentamento. Magari, mia teoria il Google bot se vede troppi errori 503 può "pensare" che il sito in alcune ore non é raggiungibile quindi lo declassa con siti sempre raggiungibili nelle 24 ore.
    Ho anche creato una lista di backlink che avevo già inviato a Google, ma oggi ho tolto il file dal disavow visto che non so quanto impiega a venir preso in considerazione, i link possono essere presi in considerazione dopo alcuni giorni, come mesi, come mai, dipende da Google e se viene fatto o meno non é possibile capirlo (almeno io non ho capito come) perché il link resta in lista su gsc. Ora voglio vedere come va con le modifiche più rapide da prendere in considerazione che ho fatto. Ho anche messo il no follow a tutti i link in uscita dal blog ,ne ho molti, anche se inviati verso fonti sicure e siti famosi non vorrei che Google mi abbia scambiato per uno che spamma. Sicuramente ho bisogno di una link building seria visto che i pochi link che ho sono tutti naturali. Sapete quanto può costare una link building con ottimi domini a tema con il mio blog? Diciamo una cinquantina di link possono bastare?


  • Moderatore

    Ciao
    ogni notte il sito va offline? O comunque è difficilmente raggiungibile? Non ne capisco il motivo. Cosa intendi di preciso con Cron?

    Hai inviato i backlink a Google? Questo mi suona strano.

    Una buona link building la ottieni scrivendo post di qualità e mettendoli sui social, commentando sotto articoli simili ai tuoi. Il tutto **deve **essere naturale. Anche inviando post di qualità o articoli in prova a Blog che fanno recensioni...


  • User Attivo

    Il cronjob avvia a una certa ora del giorno un comando, in questo caso avvia all'ora stabilita ogni 15 minuti uno script che preleva da Amazon aggiornamenti dei prodotti come prezzi, disponibilità, descrizioni, titoli ecc.. Consumando molte risorse perché usavo il comando wget come consigliato da chi mi ha dato lo script lo shop generava l'errore 503 per circa 8 - 10 minuti (pagina bianca), per circa 5 successivi tornava navigabile, poi partiva di nuovo il cronjob per continuare l'aggiornamento. Il blog durante questa fase restava però accessibile e navigabile senza problemi in quanto usa un altro cms.
    Per link inviati a Google intendo il disavow tool, che dal forum di Google sconsigliano di usare perché a detta loro Google é abbastanza bravo a riconoscere i link di bassa qualità o dannosi (sarà vero?), di usare il disavow solo in casi estremi con tanti link ricevuti con lo scopo di essere danneggiati nel posizionamento.
    Per la link building sono d'accordo con te deve essere naturale, ma purtroppo ci vuole tanto tempo


  • Moderatore

    Ciao i Backlink vanno tolti solo se sono su siti illegali o discutibili... o comunque come hai scritto tu è corretto.

    Ora ho capito il comando che lanci, devi trovar il modo di evitare che dia errori.