- Home
- Categorie
- La Community Connect.gt
- News Ufficiali da Connect.gt
- Siti PR7,8,9 che non passano PR
-
G puo' aver bloccato il passaggio di pr "da quei siti" in modo manuale creando una sua black list. Per esempio dei siti che vendono i link o fanno scambio link. Oppure possono non passare pr quei siti che lincano massicciamente altri siti per dei loro motivi, i piu' svariati, e G ritiene questo atteggiamento una forzatura.
Se per esempio un mio sito linca di colpo 10.000 volte una pagina esterna e' probabile che quella pagina non riceva pr in quanto riceve link non spontanei. Del resto parliamo sempre piu' spesso di link buoni e link "cattivi". Difficile pensare che un link cattivo porti pr, immaginarsi quei siti che offrono al 99% solo link "cattivi"..., come pensare che G li accetti come siti portatori di pr?
-
@agoago said:
G puo' aver bloccato il passaggio di pr "da quei siti" in modo manuale creando una sua black list.
Questo sono certo che non avvenga. Manualmente su google non vengono fatti interventi. Sono sempre gli algoritmi a fare tutto.
Lo dimostra questa serp [[url=http://www.google.it/search?q=failure&start=0&ie=utf-8&hl=it&oe=utf-8&client=firefox-a&rls=org.mozilla:it-IT:official]failure]
Proprio qualche giorno fa i dirigenti di google hanno rilasciato delle dichiarazioni, giustificandosi nei confronti della Casa Bianca. Hanno detto che pur potendo, stanno evitando di intervenire manualmente, in quanto il loro scopo è quello di raggiungere risultati validi solo e soltanto algoritmi e non con interventi manuali.
-
Claudioweb non bisogna confondere algoritmi di catalogazione con quelli di ban. Nel primo caso per principio non si interviene mai manualemte, nel secondo caso spesso.
G aveva assunto poco tempo fa migliaia di persone al fine di ripulire manualmente lo spam dalla sue serp, fai tu.
-
Se tu sai di queste assunzioni, qualche motivo pur cui le hanno fatte deve esserci.
Tuttavia le indiscrezioni sul Trust Rank parlano chiaramente che non ci sono e non ci saranno interventi manuali... Però mai dire mai...
-
-
@agoago said:
Un esempio:
http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html
E' chiaro che per valutare i risultati ottenuti grazie agli algoritmi implementati ci deve essere un riscontro umano. Persone che provano e riprovano a cercare determinate cose e esprimono un giudizio su quello che google gli restituisce.
Diciamo che è un modo per debaggare gli algoritmi.
Questo però non vuol necessariamente dire che ci siano operatori di google che compilano delle liste nere di siti che poi vengono per questo penalizzati.
Anche perchè se rimuovessero manulmente i siti non buoni individuati, poi non potrebbere più testare la validità degli algoritmi quando vengono aggiornati.
-
A prescindere dal team antispam di Google, che esiste ed opera effettivamente per classificare i siti web ed eventualmente blacklistarli, voglio chiarire che questo a cui si sta assistendo in questo momento non è frutto di interventi manuali, ma algoritmici.
Si tratta di qualcosa che esiste da anni e che evidentemente adesso è stata ulteriormente estesa a più siti, forse applicando nuovi criteri di selezione delle pagine da penalizzare.
Non si tratta di nulla di inatteso: qualunque motore di ricerca con un algoritmo di popolarità basato sui link ha interesse a fare questa mossa.
Le accozzaglie di link non sono mai state simpatiche a nessun motore di ricerca. In passato si accanivano solo sulle FFA, ma adesso la tecnologia è sufficientemente avanzata per operare con precisione chirurgica.
Dal punto di vista dei motori di ricerca, i vantaggi di questa mossa sono consistenti e, se ben gestita, possono condurre ad una qualità migliore dei risultati.
-
@paolino said:
gli esperti di cui parli tu poi, possono riferirsi ai siti che usano il 302 hijack bug tipo questo qui http://www.pr10.darkseoteam.com/
vedrai che è PR 10 ma in effetti lo è perchè usava un redirect 302 verso www.google.com....tuttavia levato il redirect il PR
spiegami meglio questa cosa del hijack 302? ()
-
@lukas said:
Alcuni esperti SEO di livello internazionale mi hanno detto che ci sono in vendita su internet link da siti con PR8 e anche PR9 che però non passano PR ,,,,
Che ne pensate?In merito a questa parte è un dato ormai certo, personalmente testato in lungo e in largo.
Se l'algoritmo sia automatico o meno automatico poco importa...Il risultato non cambia.
Il problema eventualmente non è capire se funziona un PR8 (ci vuole ben poco tempo per capirlo) ma ad esempio capire se un PR 5 / 4 cede ancora PR. Perchè, se trattasi di algoritmo, possono essere "castrati" anche PR di siti apparentemente innoqui.
Tralascio discorsi ovvi sul TRank e simili...comunque sempre validi.
-
@LowLevel said:
ma adesso la tecnologia è sufficientemente avanzata per operare con precisione chirurgica.
Questa definizione mi fa tornare in mente la "precisione chirurgica" delle bombe Usa in Iraq.
Ma, in effetti Google sta sicuramente cambiando gli algoritmi. Ho una pagina "non tematica" linkata da un .edu con PR5. Una ricerca dell'anchor mi dava in 2a posizione, molto prima di siti mooolto più autorevoli. Ora sono sparito, ma quello che è strano è che negli strumenti Webmaster me lo segnala come link non trovato, anche se esiste.
Mah!
Ciao!
-
Io ho visto la versione beta del motore coi filtri di data et similia... se ne è parlato da qualche parte? Può essere che lavorando a quel sistema stiamo betatestando microporzioni sull'algoritmo standard (conoscendo quello standard possono vedere gli effetti anche di poche porzioni di codice nuovo senza stravolgere le SERP che però ballano un po')?
keiske