di Stefano Barni, http://www.zeusnews.it/
Prima Pagina <http://www.zeusnews.it/index.php3?ar=sezioni&numero=999> , 16-04-2003
Quella di Google è una fama guadagnata sul campo. Grazie alla
sua effettiva capacità di fornire risultati utili, cioè di
proporre agli utenti siti che riguardano effettivamente gli argomenti di
loro interesse, in poco tempo ha sorpassato la concorrenza per notorietà
e gradimento: si stima che quattro ricerche su cinque siano affidate al
suo potente e veloce indice.
Ma qualcosa rischia di incrinare l'immagine di fedele specchio della
Rete che molti ormai gli attribuiscono. Andrew Orlowski, collaboratore
di The Register, ha formulato una pesante accusa <http://www.theregister.co.uk/content/6/30087.html>
: Google
"addomesticherebbe" i risultati delle ricerche per assecondare il proprio
interesse o quello di gruppi di pressione.
All'origine della polemica vi è un articolo di Patrick Tyler,
pubblicato in febbraio dal New York Times, nel quale l'autore conia il
neologismo second superpower (seconda superpotenza) per indicare la massa
mondiale dei pacifisti, contrapposta alla superpotenza per antonomasia,
gli Stati Uniti. Nel giro di qualche tempo l'articolo e le pagine web dedicate
al diffuso
dibattito che ne segue vengono indicizzate da Google, come del resto
ci si sarebbe aspettati. Ma, sostiene Orlowski, in meno di un mese e mezzo,
quelle pagine scendono in coda nei risultati forniti da Google per "second
superpower", nonostante quell'articolo del New York Times sia stato ripreso
e commentato da diverse centinaia di migliaia di persone. Ai primi posti
ora
campeggia ripetutamente uno scritto di tale James Moore, tratto dal
suo weblog personale, in cui l'espressione "second superpower" è
effettivamente presente, ma con un significato totalmente diverso: la seconda
superpotenza sarebbe l'insieme degli utenti di Internet, grazie alla loro
capacità di autoorganizzarsi e di formare una sorta di popolo virtuale.
Strano, dal momento che il "blog" di Moore non può certamente
godere dello stesso seguito del blasonato New York Times: possibile che
Google si faccia ingannare da una presenza statisticamente trascurabile?
O potrebbe trattarsi di qualche forma di "pilotaggio"? Di fatto, affidandosi
esclusivamente a Google e ricavando dai risultati ottenuti la propria percezione
della Rete,
difficilmente si arriverebbe a capire che, almeno in origine, la locuzione
second superpower rappresentava qualcos'altro. Incidentalmente, qualcosa
di più scomodo e, per qualcuno che "conta", assai inopportuno.
Nasce così, nell'articolo pubblicato da The Register, un altro
neologismo: Googlewash, il quale, con quella concisa efficacia peculiare
della lingua inglese, allude alla presunta attitudine di Google a "lavare"
gli esiti delle ricerche prima di esporli agli utenti, filtrandoli secondo
opportunità.
Trascorre qualche settimana e Orlowski torna alla carica <http://www.theregister.co.uk/content/6/30195.html>
. Chissà perche', si domanda il buon Andrew, cercando "Googlewash"
su Google il risultato include numerosi siti che citano o commentano il
suo articolo, ma l'originale di The Register è assente? O meglio,
a ben guardare, in fondo alla lunga lista di
link, ne compare uno che dice press'a poco: "Per evitare confusione,
abbiamo omesso i link a pagine giudicate non rilevanti, in quanto probabili
doppioni di quelle già in elenco"; ebbene, cliccando proprio quel
link, ecco, confuso in mezzo ad altri, il riferimento a The Register. Anche
questo è un "problema" statistico?
La questione non è banale e sarebbe un errore liquidarla come
orgoglio ferito di un giornalista che ambisce a una maggiore visibilità.
Le obiezioni di Orlowski non sembrano del tutto infondate, perché
uno dei diversi algoritmi utilizzati da Google per attribuire rilevanza
ai siti "trovati" nelle ricerche si basa proprio sul numero di link, riscontrati
nel web, ad essi referenti. In pratica, quanto più una pagina è
linkata da altre che trattano lo stesso argomento, tanto più essa
è giudicata autorevole in
materia e, di conseguenza, tanto più elevato è il punteggio
(rank) che il motore di Google le attribuisce: il sito apparirà
nei primi posti dell'elenco proposto all'utente. Tale algoritmo, chiamato
PageRank, è stato ideato e brevettato dai fondatori di Google: essi
affermano che si tratta di un metodo di valutazione intrinsecamente democratico,
perché sono gli stessi utilizzatori di Internet ad attribuire maggiore
o minore importanza ai siti, e aggiungono che, a garanzia di imparzialità,
non è possibile modificare i punteggi che il sistema assegna automaticamente.
Ora, se tali affermazioni corrispondono a verità, l'articolo pubblicato
da The Register, che possiamo presumere linkato dalle pagine web che lo
commentano, dovrebbe effettivamente essere tra i primi siti proposti da
Google in risposta alla ricerca della parola "Googlewash". Invece, secondo
quanto afferma Orlowski, esso è addirittura confinato tra i doppioni.
Una contraddizione che forse sarebbe meno difficile da spiegare se
l'implementazione di PageRank non fosse tenuta gelosamente segreta
dai suoi stessi ideatori.
E, indagando un poco, si scoprono altre recenti polemiche nelle quali
Google si è ritrovato in una posizione scomoda.
Nell'ottobre 2002, due ricercatori dell'università di Harvard
scoprono che Google filtra i risultati delle ricerche richieste da utenti
tedeschi, svizzeri e francesi per impedire che vengano loro proposti siti
il cui contenuto razzista o, comunque, provocatorio, potrebbe essere considerato
fuorilegge nei loro Paesi. E' comprensibile il desiderio della dirigenza
di
evitare problemi legali, ma, come osserva Wired <http://www.wired.com/wired/archive/11.01/google_pr.html>
, una tale scelta
avvia Google su una china pericolosa. E, sulla vicenda, il riserbo
dei portavoce di Google è assoluto.
Ma non basta: siamo a fine dicembre 2002; il titolare del sito Emnme.com
sottoscrive il servizio a pagamento AdWords, offerto da Google a chi desidera
accrescere la propria visibilità in Rete tramite i cosiddetti sponsored
link, visualizzati in bella evidenza nelle prime pagine dei risultati.
Immediatamente dopo la sottoscrizione, Emnme.com è già ben
piazzato nei risultati delle ricerche di Google e Yahoo! (che utilizza
lo stesso motore). Per un paio di giorni tutto va a meraviglia, finché
dal Supporto AdWords giunge l'avviso che il contenuto dello sponsored link
non è coerente con gli standard previsti dal servizio. A seguito
di un rapido
controllo, il sottoscrittore scopre che non solo è stata sospesa
la visualizzazione del link a pagamento, ma, addirittura, il suo sito è
completamente scomparso <http://www.emnme.com/google>
dai risultati delle ricerche, sia in Google che in Yahoo!. Una volta modificato
il contenuto del messaggio pubblicitario, lo sponsored link riappare, ma
non i link al sito <http://www.emnme.com/google/proof.htm>
, nonostante le parole chiave ricercate siano presenti in entrambi. La
spiegazione, secondo Emnme.com, consisterebbe in un conflitto di interessi
con la Oakley, uno dei maggiori sponsor di Google.
E veniamo al caso di SearchKing, consorzio di portali che offre servizi
di ricerca e web hosting. Nel 2002, SearchKing stabilisce <http://www.pandia.com/sw-2002/28-searchking.html>
di chiedere agli inserzionisti compensi legati al rank delle proprie pagine
in Google. In pratica, quanto più una pagina di SearchKing appare
"in alto" nei risultati delle ricerche, tanto più gli inserzionisti
dovranno pagare per vedervi visualizzati i loro banner. Tutto bene finché,
ad un tratto, il rank delle pagine di SearchKing precipita sensibilmente:
ovvia la rabbia degli inserzionisti; un po' meno ovvia, forse, ma non del
tutto imprevedibile, la decisione di Bob Massa, "patron" di SearchKing,
di fare causa a Google <http://www.internetnews.com/IAR/article.php/1486741>
. L'accusa? Avere approfittato della propria posizione dominante, alterando
ad arte il ranking per danneggiarlo: in breve, concorrenza sleale.
Replicano in Google che SearchKing avrebbe sfruttato la struttura consortile
per "gonfiare" il proprio ranking utilizzando link reciproci tra i portali
membri: l'abbassamento della sua posizione in classifica sarebbe perciò
stato provocato da una modifica apportata all'algoritmo di PageRank proprio
con l'obiettivo, generalizzato, di correggere tali distorsioni. Ma l'implementazione
di PageRank rimane un segreto.
E' ovviamente molto difficile stabilire, da semplici osservatori, chi
abbia torto o ragione, chi dica la verità e chi, invece, stia tentando
di difendere con qualche bugia la propria posizione. Formulare un giudizio
sull'imparzialità degli alogritmi usati da Google, poi, sarebbe
quanto meno avventato. Tuttavia, dai fatti si ricavano indicazioni piuttosto
interessanti.
In primo luogo, in Internet esistono poli di forte aggregazione dell'interesse
degli utenti e Google, con i suoi milioni di contatti
giornalieri, è sicuramente uno dei più importanti. Lo
è a un punto tale che il suo nome è diventato un verbo: to
google, "cercare su Google", quasi sinonimo, ormai del "cercare in Rete"
tout court. Un polo di aggregazione così potente non può
non attirare l'attenzione di chi cerca opportunità di business:
un vero successo per Sergey Brin e Larry Page, fondatori e presidenti della
società Google. La quale, si stima, avrebbe un giro d'affari intorno
ai 70 milioni di dollari, derivante in parte dalle licenze
concesse sulla propria tecnologia e in parte dagli sponsored links.
Ma il business e il successo portano con sé problemi seri. E' del
tutto verosimile che, con simili cifre in gioco, e con una tale visibilità
a livello mondiale, le strategie aziendali siano sottoposte a pressioni
di ogni tipo: economiche, certamente, ma anche politiche. Bisogna ammettere
che, in tali casi, qualche compromesso può significare, per gli
utenti, più benefici che svantaggi: se, nel settembre 2002, Brin
e Page non avessero accettato che i
firewall del governo cinese modificassero i risultati delle ricerche
di argomento politico (suggerendo essi stessi, si dice, il modo per farlo),
i Cinesi, ora, non potrebbero sfruttare le capacità di Google neppure
per ricerche di altro tipo. Il sito era infatti stato oscurato dalle autorità
cinesi, come del resto altri motori di ricerca, proprio con finalità
di censura politica.
Il difficile sta, piuttosto, nel valutare quanti e quali compromessi
rappresentino un reale beneficio per gli utenti e quali, invece,
avvantaggino esclusivamente il fornitore del servizio. Non dimentichiamo
che la società Google è tuttora controllata dai suoi fondatori:
dunque, siamo in presenza di un potere enorme concentrato nelle mani di
pochi soggetti privati. Ma, anche se la struttura societaria evolvesse
nella direzione di un azionariato diffuso, il pericolo di condizionamenti
non sarebbe affatto
scongiurato: l'obiettivo diverrebbe, a quel punto, garantire agli azionisti
un dividendo interessante, con tutte le conseguenze del caso. Del resto,
una gestione governativa non potrerebbe miglioramenti: anzi, considerata
la situazione politica mondiale attuale, il rischio di pesanti manipolazioni
si farebbe davvero concreto.
Ciò premesso, è interessante soffermarsi sul potere di
cui i siti più visibili dispongono: essi sono in grado di condizionare,
a loro volta, la visibilità di altri siti e decretarne, di conseguenza,
le sorti. Chi riesce ad apparire ai primi posti nelle risposte di Google
ha una elevatissima probabilità di ricevere frotte di visitatori,
come ha intelligentemente intuito Bob Massa di SearchKing. Ma per chi ha
la sfortuna di restare indietro, diciamo oltre la terza o quarta pagina
di risultati, si materializza l'incubo dell'invisibilità, dell'oblio,
dell'inutilità. Quello di Google, a prescindere dal grado di trasparenza
con cui è esercitato, è un vero e proprio potere di vita
o di morte (virtuale, per fortuna) nei confronti di chiunque esponga contenuti
in Internet.
Ne discende una conseguenza molto importante: Google, come ogni altro
attore particolarmente accreditato, non solo descrive la Rete e permette
di conoscerla, ma, in qualche misura, la modella. Se ciò che Google
non "trova" (o si limita a valutare relativamente poco interessante) finisce
con l'essere marginalizzato, allora l'Internet che conta, quella che "appare"
e
che, in una parola, esiste, finisce là dove terminano i risultati
della ricerca. Quante idee meritevoli di successo rischiano di essere stroncate
sul nascere? E quanta spazzatura, invece, prospererà? Nell'interesse
di chi? Quanto business si può creare o distruggere in questo modo?
E quanto vale il business dei motori di ricerca? Le risposte dipendono
in larga misura dalla
consapevolezza esercitata nel nostro utilizzo dei search engine. Una
accettazione acritica e passiva dei risultati espone concretamente al rischio
che Internet ci appaia "più piccola" e, forse, diversa da quello
che è in realtà. Certamente più povera e "omologata".
Si delinea un quadro piuttosto sconsolante: a quanto pare, non è
affatto impossibile esercitare un certo potere di controllo sui contenuti
circolanti in Rete. Infatti, la teoria secondo la quale in Internet non
sarebbero possibili censure realmente efficaci proprio grazie alla sua
struttura articolata, distribuita e priva di rigide gerarchie, trova sicuramente
conferma sotto il profilo del modo in cui le informazioni vengono immesse
e mantenute in Rete, ma si scontra con la modalità ormai prevalente
di accesso
alle medesime. Si utilizzano i motori di ricerca per reperire contenuti
dei quali non si conosce l'indirizzo, o dell'esistenza dei quali non si
è certi; di conseguenza, si trovano solamente quelli che il motore
di ricerca ha indicizzato, o "ritiene opportuno" farci trovare. La situazione
dei Paesi oppressi da regimi dittatoriali è ancora peggiore, in
quanto è molto probabile che in quelle realtà, come insegna
l'esperienza cinese, il traffico che attraversa i backbones nazionali di
connessione a Internet sia
sottoposto a un attento monitoraggio da parte delle forze di polizia:
si ripropone così il tema del controllo dei contenuti attraverso
il controllo del mezzo <http://www.zeusnews.it/news/051.html>
di trasporto.
Dobbiamo insistere, dunque, sulla necessità di garantirci comunque
quella trasparenza e reale democrazia alle quali abbiamo diritto, sia come
produttori di contenuti, sia come semplici utenti. Ma quali mezzi abbiamo
a disposizione?
Uno strumento presumibilmente efficace è rappresentato dai searchbot,
programmi in grado di proporre una richiesta a più motori di ricerca
contemporaneamente e presentarne in modo integrato i risultati. Diventa
così possibile superare l'unilateralità intrinseca all'uso
di un solo motore, a prezzo di un poco di entropia in più: sotto
tale aspetto è fondamentale la capacità del searchbot di
confrontare i ranking dei motori di ricerca contattati e di eliminare i
doppioni. Un elenco di searchbot per Windows è disponibile su DigiFriends
<http://www.digifriends.com/apps/www-sbts.shtml>;
gli amici del Pinguino possono dare un'occhiata a GwSearch <http://gwsearch.sourceforge.net/>
. Vale la pena di provare anche Vivisimo <http://www.zeusnews.it/news.php?cod=685>
: un online searchbot che ha, in più, la capacità di categorizzare
per argomenti, in base ai contenuti, i risultati forniti dai motori interpellati.
Ma, in ultima analisi, l'arma migliore di cui disponiamo è,
come sempre, il nostro senso critico, soprattutto se rafforzato dalla preziosa
abitudine a non accontentarsi mai di una fonte unica di informazione. La
tecnologia, in questo caso, rappresenta soltanto un aiuto, da sfruttare
con prudenza.