- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- Gli algoritmi dei motori di ricerca
-
approssimare gli algoritmi è possibile valutando un numero elevato di casi di posizionamento....
posso prendere 1000 pagine e cercare di capire perchè sono in testa nelle SERP tenendo conto che i parametri su cui si basa un algoritmo di ranking sono noti (bl, contenuti, semantica, ecc....)
capire al 100% cosa c'è sotto è impossibile anche perchè google adesso usa i dati storici e quindi io dovrei possedere la storia di un sito che è qualcosa di estremamente complesso....
quello che si fa (e lo fanno soprattutto i blackhat seo) è di capire a quali condizioni una pagina può ottenere un ranking elevato.....
l'unica cosa vera di tutto quello che si dice è che in genere gli algoritmi sono incrementali nel senso che non abbandonano mai il precedente....
un SEO che ha studiato l'evoluzione di google fin dalle origini potrà facilmente capire se per esempio google sta usando il PR o piuttosto è passato al famoso Trustrank......
però si può solo approssimare non capire esattamente come funziona l'algoritmo.....tuttavia approssimare nel mondo dei SEO è sufficiente perchè così facendo, tramite prove ed errori si può riuscire a raggiungere il ranking voluto
-
@WebCarlo said:
Ciao a tutto il forum,
leggendo sui vari forum internazionali, ma anche sui nostri, vedo gente asserire che esiste la possibilità di studiare e intuire gli algoritmi dei vari motori di ricerca (è inutile nascondercelo, si mira a quelli di Google).L'intuizione è una cosa e lo studio è un'altra. La seconda la escludo a priori. Non è possibile studiare una cosa che non si conosce, prima bisogna scoprirla e poi la si può studiare.
Vi riporto il mio caso, e non mi ritengo un mega programmatore:
ho pagato una società per testare un mio software e trovare eventuali problemi (non solo bug). Tra le varie cose la società doveva individuare un possibile schema di come venivano gestiti gli input da client a server. In questo mio software entrano in gioco solo 2 algoritmi (in fase di input) che si comportano in modo diverso a seconda delle circostanze.Ora la mia domanda è:
se questa ditta, che come know-how ha i controc. non riesce a trovare una schema degli algo utilizzati da un piccolo programmatore come me, come è pensabile studiare gli algo di Google e altri colossi?Non vi sembra una cosa un po' da arroganti credere di riuscire a carpire cose che hanno fatto fior fiore di ingegneri?
Non credete anche voi che suddetti studi vengano fatti in maniera superificiale accomunando i risultati per comportamenti simili?Gradirei sentire una vostra opinione in merito.
Ciao WebCarlo,
come prima cosa , se mi permetti, ancizhè pagare una Azienda che ti testasse il software a mio avviso avresti dovuto farne una versione Light e darla IN PASTO alle migliaia di utenti del Web che avrebbero testato il software per te . Questo presupponendo si tratti di un software di interesse comune se no il discorso cambia.Per quanto riguarda gli algo dei vari motori. Questo è frutto di svariati test su centinaia , migliaia di SERP .
Tieni presente che non esistono solo i CRWALERS di Google con svariati algoritmi tutti differenti, ma anche motori +o- importanti come YAHOO; ASK; ed altri che hanno propri algoritmi.
Proprio in questi giorni è cambiato l'algoritmo di YAHOO e quello di Google , e pare che FINALMENTE il testo nascosto nei Layers ed i css verranno penalizzati ( Sarà vero !?! - lo verificheremo presto)
Quindi quando senti dire che è stato svelato il tal algo o altro sono in parte BUFALE. Soltanto dopo svariati test si può dire con quasi certezzza di aver capito comepotrebbe funzionare un Algo di un motore
E poi... stai pur certo che .. nel caso in cui venga svelato un TALE SEGRETO .. è perchè gli stessi ingegneri di quel motore lo hanno voluto svelare perchè nel frattempo un nuovo algo è già stato messo a punto.
un
-
@paolino said:
approssimare gli algoritmi è possibile valutando un numero elevato di casi di posizionamento....
posso prendere 1000 pagine e cercare di capire perchè sono in testa nelle SERP tenendo conto che i parametri su cui si basa un algoritmo di ranking sono noti (bl, contenuti, semantica, ecc....)
capire al 100% cosa c'è sotto è impossibile anche perchè google adesso usa i dati storici e quindi io dovrei possedere la storia di un sito che è qualcosa di estremamente complesso....
quello che si fa (e lo fanno soprattutto i blackhat seo) è di capire a quali condizioni una pagina può ottenere un ranking elevato.....
l'unica cosa vera di tutto quello che si dice è che in genere gli algoritmi sono incrementali nel senso che non abbandonano mai il precedente....
un SEO che ha studiato l'evoluzione di google fin dalle origini potrà facilmente capire se per esempio google sta usando il PR o piuttosto è passato al famoso Trustrank......
però si può solo approssimare non capire esattamente come funziona l'algoritmo.....tuttavia approssimare nel mondo dei SEO è sufficiente perchè così facendo, tramite prove ed errori si può riuscire a raggiungere il ranking voluto
Aggiungo in particolare molto importante: lo scopo finale spesso NON è capire come funziona il motore, ma ottenere dei buoni risultati (il posizionamento).Da questa premessa risulta ovvio che se capisco lo 0,0001% in più dei miei competitor questo è quanto mi basta per essere soddisfatto, anche se in totale ho capito solo l'1%.
Aggiunta
Noi non sappiamo quanto sappiamo, ma lo deduciamo dai risultati ottenuti: se mi posiziono penso di sapere (abbastanza bene) come il motore funziona, se non mi posiziono penso di non sapere come funziona.
-
@Stefano said:
Aggiungo in particolare molto importante: lo scopo finale spesso NON è capire come funziona il motore, ma ottenere dei buoni risultati (il posizionamento).
Da questa premessa risulta ovvio che se capisco lo 0,0001% in più dei miei competitor questo è quanto mi basta per essere soddisfatto, anche se in totale ho capito solo l'1%.
Aggiunta
Noi non sappiamo quanto sappiamo, ma lo deduciamo dai risultati ottenuti: se mi posiziono penso di sapere (abbastanza bene) come il motore funziona, se non mi posiziono penso di non sapere come funziona.Concordo in pieno
-
@Stefano said:
Aggiungo in particolare molto importante: lo scopo finale spesso NON è capire come funziona il motore, ma ottenere dei buoni risultati (il posizionamento).
Da questa premessa risulta ovvio che se capisco lo 0,0001% in più dei miei competitor questo è quanto mi basta per essere soddisfatto, anche se in totale ho capito solo l'1%.
Aggiunta
Noi non sappiamo quanto sappiamo, ma lo deduciamo dai risultati ottenuti: se mi posiziono penso di sapere (abbastanza bene) come il motore funziona, se non mi posiziono penso di non sapere come funziona.E se per caso un sito si posiziona bene perchè è anziano ed ha contenuti di qualità? Non è forse questo che i motori tendono premiare?
-
@WebCarlo said:
E se per caso un sito si posiziona bene perchè è anziano ed ha contenuti di qualità? Non è forse questo che i motori tendono premiare?
Se queste sono le uniche cose che so, allora mi comporterò di conseguenza, e se arrivo primo per le mie key potrei anche dedurre che so tutto di google....
I motori premiano (o penalizzano) qualcosa di preciso (tu da programmatore lo sai meglio di me): l'anzianità di un sito è un dato preciso, la qualità dei contenuti no.
La "qualità" dei contenuti deve essere dedotta da parametri "oggettivabili".... la sfida di un SEO è capire quali sono questi parametri (lunghezza del testo, posizione delle key, uso del grassetto, ancora del link, title, ecc.).
-
@Stefano said:
Se queste sono le uniche cose che so, allora mi comporterò di conseguenza, e se arrivo primo per le mie key potrei anche dedurre che so tutto di google....
I motori premiano (o penalizzano) qualcosa di preciso (tu da programmatore lo sai meglio di me): l'anzianità di un sito è un dato preciso, la qualità dei contenuti no.
La "qualità" dei contenuti deve essere dedotta da parametri "oggettivabili".... la sfida di un SEO è capire quali sono questi parametri (lunghezza del testo, posizione delle key, uso del grassetto, ancora del link, title, ecc.).
Credo che il sogno di un motore di ricerca sia riuscire di operare delle valutazioni molto simili a quelle che potrebbe fare un moderatore sulla propria directory (questo sito passa perchè utile, questo sito non passa perchè è spam, etc.).
Ora finchè i motori valuteranno set diversi di parametri per valutare la bontà di una pagina, succede che se domani un esperto di un determinato argomento faccia un sito con contenuti eccezionali, il motore di ricerca non lo premierebbe, perchè uno spam engine sarebbe in grado di offrire contenuti spazzatura sullo stesso tema ma organizzati al meglio per il motore di ricerca.
Quindi l'esperto sarà segato fuori ed i suoi contenuti preziosi saranno visti dagli amici. Non sarebbe frustrante da parte vostra sapere che il vostro motore di ricerca proponga spazzatura al posto di quei contenuti preziosi?
-
@WebCarlo said:
Credo che il sogno di un motore di ricerca sia riuscire di operare delle valutazioni molto simili a quelle che potrebbe fare un moderatore sulla propria directory (questo sito passa perchè utile, questo sito non passa perchè è spam, etc.).
Ora finchè i motori valuteranno set diversi di parametri per valutare la bontà di una pagina, succede che se domani un esperto di un determinato argomento faccia un sito con contenuti eccezionali, il motore di ricerca non lo premierebbe, perchè uno spam engine sarebbe in grado di offrire contenuti spazzatura sullo stesso tema ma organizzati al meglio per il motore di ricerca.
Quindi l'esperto sarà segato fuori ed i suoi contenuti preziosi saranno visti dagli amici. Non sarebbe frustrante da parte vostra sapere che il vostro motore di ricerca proponga spazzatura al posto di quei contenuti preziosi?
E bravo WebCarlo. Sono perfettamente in linea con te. (e mi piace la prima parte del yuo discorso).
E' appunto quelo che dici che credo stia accadendo con "Jagger" - risultati effettivamente pressochè perfetti. Come se un Editore ci avesse messo lo zampino !?! ricordare il famigerato Thrust Rank ??? - Il problema però è che per ora è visibile solo su un dc. e non so come andrà a finire. Oppure rimarranno risultati certi sino a quando arriverà un altro ingegnere + bravo che saprà sfruttare i nuovi algo dei motori per fare degli spam engine in grado di TURLIPINARE i motori . E così si ricomincerà tutto di nuovo.
SEO
-
@WebCarlo said:
Credo che il sogno di un motore di ricerca sia riuscire di operare delle valutazioni molto simili a quelle che potrebbe fare un moderatore sulla propria directory (questo sito passa perchè utile, questo sito non passa perchè è spam, etc.).
Ora finchè i motori valuteranno set diversi di parametri per valutare la bontà di una pagina, succede che se domani un esperto di un determinato argomento faccia un sito con contenuti eccezionali, il motore di ricerca non lo premierebbe, perchè uno spam engine sarebbe in grado di offrire contenuti spazzatura sullo stesso tema ma organizzati al meglio per il motore di ricerca.
Quindi l'esperto sarà segato fuori ed i suoi contenuti preziosi saranno visti dagli amici. Non sarebbe frustrante da parte vostra sapere che il vostro motore di ricerca proponga spazzatura al posto di quei contenuti preziosi?
Si, certo che sarebbe frustrante, ma non ho capito quello che mi vuoi dire.Se parliamo di sogni, ognuno ha i suoi, poi ci sono tutti i limiti del caso....
Ad oggi, e sono convinto anche un domani, se l'esperto non organizza al meglio il suo sito, ottimizzandolo, e preoccupandosi anche dei motori, sarà comunque sotto le prime pagine: che abbia davanti a lui dello spam o dei competitor alla fine a lui cambia poco.... il suo sito avrà comunque una vita difficile.Di questi discorsi quello che faccio fatica a capire è: siamo adulti, lo sappiamo che il mondo non è giusto, non sempre il "più bravo" viene premiato....
Internet ha le sue regole, sul web oggi i motori sono il nodo cruciale da dove l'utente decide il suo percorso di navigazione, quindi se vogliamo lavorare sulla rete dobbiamo (è una necessità) capire come il motore organizza i suoi risultati.Un domani, quando i motori saranno meno importanti, la cosa diverrà molto più difficile.... perché le persone si rivolgeranno per la maggiorparte a siti conosciuti, a siti che hanno un brand forte, e il nuovo sito, se vorrà avere del traffico dovrà necessariamente comprare pubblicità (come succede regolarmente offline).
Il web, oggi, ti consente il "miracolo" di poter essere visibile (e quindi costruire una tua attività) a costi quasi zero, anche grazie a forum come questo. Però tutto ciò ha un "costo", ed è quello di mettere da parte l'orgoglio e studiare, imparare e capire sia che cosa vogliono gli utenti, sia che cosa vogliono i motori.
Pensare di "dover essere premiati", di "valere più degli altri": sono queste le trappole su cui un buon webmaster si blocca, e smette di crescere.
-
@WebCarlo said:
L'intuizione è una cosa e lo studio è un'altra. La seconda la escludo a priori. Non è possibile studiare una cosa che non si conosce, prima bisogna scoprirla e poi la si può studiare.
Bisogna però aggiungere che quando si possiedono buone basi di IR, si riesce comunque a comprendere la "direzione" presa da un motore di ricerca senza dover scendere nei particolari.
Ad esempio: 1) si è consapevoli che il motore ha interesse a perseguire il risultato X, 2) le proprie conoscenze di IR permettono all'analizzatore di sapere attraverso quali soluzioni informatiche il risultato X può essere conseguito e 3) si analizzano gli effetti (anche quelli collaterali) di un fenomeno per stabilire se le soluzioni di cui al punto 2 possono essere state effettivamente attivate producendo quegli effetti e quali tra esse sono più probabili.
L'errore semmai è partire dagli effetti, come fa il 99,9 degli analisti SEO sui forum internazionali. Partire dall'effetto è pericoloso perché un effetto può essere stato generato da infinite possibili cause. Al contrario, l'effetto deve essere usato solo come dimostrazione dell'esistenza di un processo che va dedotto a monte, grazie alle conoscenze di IR dell'analizzatore.
Quanti migliaia di utenti ho avuto il piacere di leggere in questi anni sui forum internazionali? Sicuramente migliaia. Ebbene, su queste migliaia ho individuato tre persone che hanno effettuato analisi scientifiche (nel senso: basate su conoscenze scientifiche e non solo sull'osservazione degli effetti). Queste persone sono Randfish (e pure Randfish ogni tanto si fa prendere un po' troppo dalle chiacchiere dei SEO), Orion e doc_z .
-
Vedi Low, quello che tu dici è frutto della tua esperienza ed è inutile che ti dica che scrivi, come agoago e tanti altri, cose interessantissime.
Però, io che non sono un SEO, continuo a vederla dal lato filosofico, lo so che sbaglio, ma forse, a differenza dei SEO qui presenti e su altri forum, sono quello che crede che i mdr si evolveranno a talpunto che trucchetti vari e conoscenze, mega studi, etc., non serviranno a niente. Perchè il motore punterà ad avere nei suoi risultati contenuti di qualità.
Se ne parlava già prima che nascesse Google, ancora nel lontano 1995, la strada che avrebbero percorso i motori di ricerca. Guarda quante cose sono cambiate, se ti ricordi una volta si usavano motori che adesso non si usano quasi più. Anzi alcuni non ci sono più, o sono stati assorbiti o inglobati in altri. Il percorso fatto è sempre stato quello, nonostante non ci siano riusciti, nel voler dare risultati di ottima qualità. E' questo quello che stanno perseguendo, mica il posizionare siti spam.
Sono convinto che le persone con le tue capacità non hanno problemi a posizionarsi bene e strabene, però credimi che ai mdr non gli state molto simpatici qualora vi posizionaste per capacità e non per contenuti (non è il tuo caso).
Secondo te per quanto tempo ancora sarà possibile posizionarsi per capacità? Gli spamengine continueranno a proliferare?
-
WebCarlo chiedi:
"Secondo te per quanto tempo ancora sarà possibile posizionarsi per capacità?"
Capisco che quando parli di capacita' intendi tecniche di posizionamento e non capacita' di saper creare contenuti.
Perche' intendi questo vero?
Il problema e' che molti seo si sono fatti la stessa domanda e non sapendo dare una risposta a questa domanda si sono lanciati sullo sviluppo di contenuti artificiali originali.Al che, se ci pensi e' anche peggio. Ora i motori devono capire chi ottimizza siti pacco, chi ha siti pacco non ottimizzati, chi siti seri ottimizzati e chi siti seri non ottimizzati.
Un domani avranno 6 casi, pacco, seri, seri artificiali, tutti e 3 ottimizzati e non.
Cosa intendo per seri artificiali? Pensa ai portali. I portali sono siti seri ma sono siti che non fanno altro che convalidare e catalogare link e descrizioni.
I motori li trattano con le pinze. Se oggi fai uno spamegnine sei bannato tempo 0, se fai un portale spam engine passano mesi. Perche' i portali sono come i siti di free hosting, una categoria valutata e gestita a parte.
Ora facciamo un distinguo tra pratico e teorico. In teoria i motori saranno sempre superati da chi fa spam, ma in pratica lo spam sara' cosi' dispendioso in termini di risorse da non convenire economicamente.
Gia oggi e' cosi'. Troppi costi, pochi benefici per gli spam egnine. Pero' molti di loro per molte key sono primi. Vero...
Ma si sono comprati all'asta domini ad alto pr, hanno un server solo per loro, molti numeri ip per i vari sottodomini, tanto lavoro di sviluppo alle spalle. Incassano 100 al giorno a fronte di un 5000 speso a monte per metterli online, e magari durano pochi mesi e poi scompaiono.
In quei pochi mesi sono stati prima di te nelle serp, ma questo non significa che ci abbiano guadagnato.
Pero' tu dici: cosa mi importa che qualche pazzo scellerato butti via quattrini per superarmi, se e' un masochista non significa che io debba perderci solo perche' lui decida di investire piu' di cosa potenzialmente possa incassare. Insomma fa arrabbiare che qualcuno ci "freghi" solo per il fatto che sperperi soldi e risorse, senza avere merito alcuno dal punto di vista dei contenuti...
Questo pero' avviene ogni giorno, ho un negozio a prezzi modici ed alta qualita', il mio vicino ha prezzi da furto e prodotti a basso costo ma investe una marea di soldi in pubblicita' ed io lo patisco. Istintivamente direi che non e' giusto ma non posso farci nulla. Libero lui di smenarci anche se poi assieme a lui falliro' anche io...
Vai per la tua strada e vedrai che alla lunga non avrai di che preoccuparti, piuttosto il problema e' per chi crede ancora che basti pagare per guadagnare, senza avere contenuti (prodotti) di qualita'.
Se tu patisci 5 loro patiscono 95 perche' erano abituati ad investire 100 ed incassare 1000. Poi 100 ed incassare 300. Ora 100 ed incassano 50.
Fin tanto che investiranno 100 saranno primi di te ma perdendoci. Prima o poi smetteranno o cambieranno strategia.
Ci sono nuove strategie per fare spam e sopravvivere ancora qualche anno, ma sono tutte a morte annunciata. Forse questa mia previsione ti fara' piacere, ma non ne sarei contento.
Sminuire allo 0 le tecniche di posizionamento a favore del reale valore di un sito portera' ad avere una catalogazione del web fotocopia (per via di tante ragioni lunghe da elencare) e cancellera' poco a poco ogni stimolo a studiare e capire i motori al fine di avvantaggiarsene.
La figura del seo perdera' di importanza, le serp saranno pressoche' statiche per le prime 50 posizioni, conteranno solo contenuti e pubblicita'.
Ci troveremo a discutere di come scrivere un testo, se con 100 o 200 parole, con tanti o pochi aggettivi, con che numero di maisucole, con che lunghezza per periodo.
Inizieremo ad usare termini desueti, scriveremo tosso al posto di tossisco perche' grammaticalmente corretto ma neno usato. L'hotel in via bertolazzi avra' piu' accessi dell'albergo in via cavour perche' meno presente nei db, cercando hotel in via....
La ricerca esasperata dell'originalita' ci portera' ad improbabili costruzioni sintattiche, periodi da traduzioni, verbi prima dei soggetti e soggetti storpiati al limite del capibile.
Inizieranno a scrivere siti con nuove forme grammaticali, elimineranno la "a" perche' tanto non serve, e scrivere fantomatica sara' "lento" mentre fntomtic sara' rock... tristezza (celentanto influisce anche sul web?)
Fntomtic sara' spiderizzato mentre fantomatica si perdera' nei meandri delle serp scontate.
Allora tu WebCarlo, giustamente incazzato come una bestia da tanto orrore, usando il search e replace (il programma piu' usato dai seo nella storia del web) cancellerai molte "a" dalle tue parole del tuo sito, ma non tenendo conto del rapporto tra 304 e 200 verrai penalizzato ed invece di salire scenderai nel limbo, in buona compagnia, staremo assieme per quanto puo' consolarti.
Quel giorno, incredibilmente, rimpiangerai i tempi di quando domandavi:
"Secondo te per quanto tempo ancora sarà possibile posizionarsi per capacità? Gli spamengine continueranno a proliferare?"
-
Sai che ci contavo in una tua risposta agoago?
Che dirti, mi hai spiazzato su tutti i fronti.Attualmente e fino a poco tempo fa l'analogia internet con la vita reale è a dir poco sorprendente:
non si va avanti per meritocrazia, ma per spinte o conoscenze.Per quanto ingiusto sia, e qui mi ricollego a quanto hai detto tu, probabilmente se anche nella vita reale si andasse avanti per meritocrazia, la vita sarebbe molto statica. Non ci sarebbe ad esempio un buffone che ci comanda.
Non ci srebbe nemmeno un incapace giocatore che picchia gli avversari nella nazionale.Eh si agoago, hai ragione. Sai che ti dico che la staticità non mi piace.