• RE: Deindicizzare pagine

    @thelast ha detto in Deindicizzare pagine:

    come ripuliamo la search console?

    Si ripulisce da sola. Quale sezione vedi sporca?
    Potresti usare il Response Code 410 ma lo farei solo in caso di problemi evidenti e non sei in questo caso.

    @thelast se ho ben capito, la situazione sembra essere il prosieguo della tua discussione Sito da ripulire meglio 301 o 410?

    E' lo stesso problema o sono due situazioni diverse?

    Grazie

    postato in Google Search Console e Altri Strumenti
  • RE: Per una Intelligenza Artificiale Europea

    @kejsirio tanta roba l'idea, complimenti per l'iniziativa!
    Beh che dire, oggi se ne parla così tanto, fra regolamentazione, etica vs innovazione (vedi in generale il disallineamento, diversa visione delle cose fra Europa e USA). A parte i soliti temi generali più scontati (rispetto nel trattamento dei dati, trasparenza nelle informazioni, ecc), ciò che ritengo interessante da valutare è questo:

    • equità orizzontale vs verticale (spesso anche indicato come uguaglianza vs equità😞 con equità orizzontale intendo "trattare tutti allo stesso modo, in termini assoluti", mentre con equità verticale intendo "trattare ognuno con un metro relativo a seconda del contesto": ad esempio una regolamentazione rigida è già stato evidenziato che andrebbe a colpire le PMI, a vantaggio dei soliti big; se Google, OpenAI ecc devono dotarsi di un team di legali e un team di analisti per regolamentare il loro prodotto, lo possono fare, mentre per una piccola azienda, startup, generalmente sarebbe improponibile. Quindi occorre un approccio basato sull'impatto che il prodotto/servizio può avere (per tipologia di applicazione, copertura stimata di utenza, <<regole in base alla potenza del modello IA>>) e in base a quello fissare dei livelli di regolamentazione, con requisiti e metodologie differenti
    • impatto su temi controversi: leggevo di recente nel libro Ethics of Artificial Intelligence (Springer) alcuni spunti davvero interessanti, l'IA generativa anche come strumento di supporto psicologico ben oltre ciò che intendiamo etico e anche legale, ambito CSAM, varie applicazioni inerenti alla sessualità, violenza ecc; qui il tema è piuttosto complesso, da un lato bandire questi usi significa "facciamo finta che il problema non esista", lavandosene le mani di fatto, dall'altro occorre valutare e pesare attentamente pro e contro di una scelta che potrebbe (dico potrebbe) significare: ciò che ti è concesso fare col software (o anche misto software/hardware, in un futuro non troppo prossimo, probabilmente) è un modo per soddisfare un impulso che nella nostra attuale società non sarebbe certamente ben visto e di fatto consentito; se un comportamento "inaccettabile" è consentito nel virtuale, potrebbe essere una soluzione preventiva perché tale comportamento non abbia ripercussioni nel mondo reale! Ovviamente riguardo a questi temi è bene che ci sia un'attenta analisi e valutazione di psicologi, sociologi, allo stato attuale temo però che per la società sia più semplice lavarsene le mani. Poi anche più in generale, sia per quanto detto sia per un discorso di "libera espressione", è chiaro che molte persone, sia utenti che sviluppatori, vorrebbero "dei chatbot senza censura": a livello sociale, che impatto avrebbe la cosa? "Chatbot non censurati" totalmente liberi nelle risposte ma anche nelle modalità di utilizzo (trattamento dati ecc), oppure richiedere comunque il rispetto di una regolamentazione di base. Personalmente credo che sia più funzionale (utilità collettiva) trovare un compromesso, dato che con la diffusione di una tecnologia non eliminerai mai le alternative, vedi la diffusione online di materiale protetto da copyright, bloccato un contenuto, bloccato un sito, sta di fatto che il mondo è talmente decentralizzato che ad imporre limiti rigidi non si potrà mai risolvere definitivamente un problema
    postato in Intelligenza Artificiale
  • RE: Deindicizzare pagine

    @thelast se ho ben capito, la situazione sembra essere il prosieguo della tua discussione Sito da ripulire meglio 301 o 410?
    Comunque sia, questa generazione automatica di pagine mi sembra (stesso caso oppure simile) a WordPress + WooCommerce, plugin YITH WooCommerce Ajax Product Filter. Vai a creare tag e attributi, utili per la navigazione (filtri di ricerca dei prodotti), il problema è che se ti dimentichi di mettere un bel noindex a priori su ogni attributo, puoi trovare indicizzata questa "porcheria". Dico porcheria perché è un mare di contenuto duplicato, che confonde il crawler anche per l'indicizzazione, quando invece vorresti poco contenuto e di qualità ovvero vedere indicizzata e posizionata la categoria di prodotto, i vari prodotti, ecc. Non ha senso un'insieme di pagine che in pratica contengono l'insieme delle combinazioni dei filtri (pagina dei risultati selezionando attributo1+attributo2, ecc).

    Dato che saranno un'infinità di pagine (date dalle varie combinazioni possibili), quello che puoi fare ora è aggiungere un'istruzione al robots.txt, del tipo Disallow: /negozio?filter* (vedi tu la sintassi, secondo l'architettura del tuo sito, come vengono generate queste pagine ovvero da dove si generano i prametri URL dati dai filtri di ricerca, quindi ciò che segue il punto di domanda nell'URL).

    Tra l'altro in questo preciso momento (che volevo verificare una cosa) Google Search Console sembra avere un errore 500, andiamo bene!

    Comunque ti consiglio di seguire questa strada.

    postato in Google Search Console e Altri Strumenti
  • RE: Sito da ripulire meglio 301 o 410?

    @thelast fai pure un'eliminazione di blocco (nel modo in cui preferisci, automatico o manuale che sia). Di fatto si tratta di pagine create in automatico, quindi chissene frega, non stai andando ad eliminare potenziali "pagine di qualità" che quindi andrebbero a creare broken link interni o anche esterni (sicuramente non avrai backlink per pagine di questo genere, è già difficile ottenerne di naturali per le pagine di qualità che vorresti "spingere" 😂 ). Nemmeno sono pagine che ti portano traffico (volendo puoi fare una verifica con GSC, inserisci il riferimento es. tag e guardi nel periodo di tempo se ci sono clic, impression, dal momento che fra di esse ci sono comunque pagine indicizzate).

    Mandale pure in 404 direttamente, insomma elimina la pagina, non fare un redirect. Solo nel caso controverso in cui vedessi pagine di questo genere con un traffico rilevante, allora avrebbe senso un redirect (ad esempio alla Home oppure alla categoria main di quel contesto specifico) per poi monitorarne lo stato nel tempo (clic, impression), quando la pagina che hai sottoposto a redirect non ti porta più nulla, tanto vale eliminarla.

    Fare una bella pulizia dai un rinnovamento al sito, nel complesso elimini la "qualità scadente" privilegiando invece ciò che conta e probabilmente avrai anche qualche beneficio nella velocità di caricamento.

    A suo tempo avevo gestito anche io una situazione simile (pagine duplicate o quasi, create in modo automatico prima che arrivassi io, ho poi fatto una bella pulizia e ti dico che n'è valsa la pena, assolutamente).

    postato in SEO: scala la SERP!
  • RE: Campagne SMART di Google Ads

    Qualcuno ha esperienza, in proposito?

    Ciao,
    se ben configurate e gestite nel tempo vanno molto bene. Certo che se non si ha esperienza in merito, non si tengono monitorate e non si ha idea delle metriche e costi che bisogna aspettarsi potrebbero avere "effetti collaterali".

    postato in Google Ads & Advertising
  • RE: Deindicizzare pagine

    @thelast

    Ciao,
    le 5000 url circa erano o sono reali? Perchè se erano in 404 come ha fatto Google a indicizzarle?

    postato in Google Search Console e Altri Strumenti
  • RE: PER TE: Scopri la Nuova Sezione di YouTube in Homepage

    Ciao @domenico-pacifico ,

    un dettaglio: la funzione "per te" dal 20 novembre è ufficialmente disponibile per tutti e non più in fase di test. 🙂

    postato in YouTube
  • RE: Google Update e il mio sito è ko

    @juri19

    Ciao,
    ti incollerei gli screen ma al momento il forum non lo consente.

    Vedo con SeoZoom che erbedisardegnashop . com aveva un buon posizionamento, un traffico mensile stimato di circa 650 per poi crollare a zero, immagino per cambio dominio, a marzo 2023.

    Per il dominio erbedisardegna . com intanto vedo che ha problemi "basici", es. il sito non ha il redirect da http a https. Questo dominio aveva un traffico stimato da SeoZoom di 250 prima di crollare a zero a fine settembre 2023.

    Mi correggo, ora il sito è su www., prima senza www.. Questo avvalora la mia ipotesi che ci siano problemi "basici" ma importanti che vanno sistemati. Questi cambi improvvisi creano non pochi problemi di posizionamento.

    Hai la GSC proprietà dominio? Perchè se hai la Url senza www. si spiega il crollo delle metriche.

    postato in Posizionamento Nei Motori di Ricerca
  • RE: Google Update e il mio sito è ko

    @juri19 ciao, senza URL è difficile fare una valutazione.
    Hai già cercato di capire se il calo o orizzontale o verticalizzato in qualche sessione?
    Dal punto di vista strutturale è tutto ok?

    postato in Posizionamento Nei Motori di Ricerca
  • RE: Google Discover Bug postato in Posizionamento Nei Motori di Ricerca