Massimo Marchiori (a sinistra) con Tim Berners-Lee, inventore del Web
(alternative version)
Google
è ovunque. Ma senza Massimo Marchiori non sarebbe mai nato. Ha soli 38 anni lo
scienziato italiano che ha inventato l’Hyper
Search su cui Brin&Page, i due inventori americani di Google, hanno costruito
il loro algoritmo PageRank (il primo
della lista è il più citato).
Dopo aver vinto nel 2004 il premio TR100 della Technology Review, dato ai
100 giovani ricercatori più innovatori al mondo, Marchiori insegna ora all’Università
di Padova dove ha uno stipendio di 2000 euro al mese. È ricercatore scientifico
al W3C del MIT – il Massachusetts
Institute of Technology. Il colosso di Mountain View gli fa la corte da anni, l’ultima
offerta americana era di 600 mila dollari netti all’anno, più i benefit. Ma lui
rimane in Italia perché? «Continuo a lavorare con gli Usa, sono un’eccezione
benevola. Ai meeting del MIT al 90% si lavora in teleconferenza: dal Canada al Giappone.
Così quando mi hanno offerto il posto in un’università italiana, con la
possibilità di tirare su le nuove generazioni, l’ho fatto. Anche se ora la
voglia di restare sta scendendo sempre di più…». Condizioni di non efficienza
del mercato, pochi fondi per la Ricerca. «L’innovazione
la fa il mercato, se il mercato è innovativo c’è ricerca, l’innovazione poi dà
linfa allo sviluppo, è un circolo virtuoso. Negli Usa c’è più competizione,
anche se la qualità scolastica non è così migliore, ma c’è un mercato vivace
che determina una spinta. Fino a che non si muoverà l’ambito tecnologico, rimarremo
indietro, in una condizione stagnante: in Italia funziona il consolidamenteo
del potere acquisito, non ci sono vere regole«. Ma deve cambiare il sistema «a
prescindere dalla convenienza dei committenti, occorre fare ricerca vera: senza
l’analisi critica manca un controllo di qualità serio che determina
competizione».
Marchiori
è autore dello standard mondiale per la privacy del Web (P3P). Ha fondato il
progetto XML Query nel World Wide Web Consortium (W3C). È tra gli ideatori del
Web Ontology Language (OWL), lo standard mondiale per il ragionamento sul Web.
Ha contribuito alla svolta del Worl Wide Web verso il 2.0, ora studia il futuro
della rete, il 3.0 ovvero il web semantico.
«Mi sono laureato in matematica.
Prima di laurearmi sono stato assunto come ricercatore al CWI, un centro di
ricerca olandese simile al nostro CNR…». L’argomento della tesi verteva sulla
programmazione logica e i sistemi di riscrittura «mentre ero in Olanda scelsi
per la tesi un problema aperto,
insoluto da dieci anni». Marchiori, racconta, riuscì a risolverlo «occorreva
dimostrare che se ci sono due sistemi che “funzionano” e li combini, anche il
sistema combinato funziona». Dopo aver vinto il dottorato a Padova e Siena (dal
1994 al 1997) Marchiori sperimentò il modello in Olanda insieme al professor
Jan Willem Klop «il problema era sempre la contemporanea presenza di vari
sistemi combinati, solo che l’obiettivo era creare un’applicazione efficace in
campi diversi e maggiori: ideai la Teoria
dei vaccini, ovvero se immetti una componente malevola nel sistema,
‘quello’ si immunizza e funziona».
Quali
ricerche portarono a ideare HyperSearch? «Nel 1995 c’era ancora Altavista, il
re dei motori di ricerca. Si iniziò a capire in quegli anni che i motori
potevano diventare importanti per il futuro del Web: quando parlavo dei motori di
ricerca parlavo del fatto che il web si adatta ai motori, e le persone si
adattano al motore di ricerca, che influenza il web. Molti mi criticarono. Ma eravamo
ancora alla preistoria: in una ricerca, per capire se una pagina era rilevante si
facevano ricerche da “investigatori privati” scarsi, non Sherlock Holmes ma
Watson. Si investigavano le singole pagine, che avevano un solo angolo visuale
dell’informazione, vedevano solo il “primo piano” dell’argomento. A me sembrava
assurdo, e cominiciai a indagare il contesto, l’ambiente, le relazioni, le
interazioni: l’informazione complessiva
ovvero l’informazione hyper, l’iperinformazione». Nel prototipo di HyperSearch
però il flusso informativo veniva calcolato in modo opposto rispetto
all’attuale di Google, che ha una popolarità quantitativa «io usavo l’altro
verso, ovvero tanto più so di una cosa, tanto più sale in alto il risultato, e
il calcolo poi si estende, in base a un raggio circostante». Come si è passati
da HyperSearch a Google? «Presentai i risultati alla Conferenza mondiale del
Web di Santa Clara in California, il mio calcolo prevedeva un verso della
funzione che, in sintesi, diceva che era meglio un algoritmo qualitativo che
pubblicitario, Brin e Page (che era presente alla conferenza e mi seguì per
chiedere dei miei risultati) hanno poi, semplicemente, ruotato questo verso… al
contrario!». Comunque «è stato un salto epocale, che ha portato i motori di
prima generazione che seguivano la singola informazione, ad arrivare a quelli
di seconda generazione, che invece seguono l’ambiente».
Il
criterio sta superando la ricerca nel Web, come dicono Geert Lovink e Siva
Vaidhyanathan, ci sono molti rischi (profiling, privacy) nella Googlization? «La
qualità di Google sta scadendo, da un lato il Web si sta riadattando al motore di
ricerca per piacergli, dall’altro ci sono sempre più informazioni e il calcolo
del flusso è troppo semplice, non tiene conto di due fattori: prima il link era
una cosa seria, aveva un “costo” importante, oggi è scaduto, se ne abusa, i
calcoli che si basano sull’importanza del link impiegano formule inadatte», poi
«Google non ha interesse a cambiare la sua monopolizzazione, oggi detiene il 67%
del mercato, è un problema globale: la googlization
si sta estendendo, ma sparirà, nel senso che neanche più ce ne accorgeremo, sarà
talmente pervasiva che i rischi per la privacy, sulla profilazione dell’utente
diventeranno invisibili: DoubleClick, Gmail, Google maps, tutto gratis… Ormai anche
quando siamo fuori e navighiamo sul web siamo dentro la rete “da pesca” di
Google!».
Il
futuro della Rete? «Il Web 2.0 è nato da un’anomalia stile Matrix, è uno dei
grandi errori del web. Buona parte delle macchine sono “cieche”, non riescono a
leggere le pagine: dal punto di vista della macchina, quello che vedono su
internet traduce simboli, ed è un po’ come se uno volesse leggere il cinese
senza averlo studiato. La macchina legge caratteri e si basa su tasselli del
domino, vede certi simboli ma non la semantica: è un errore, la macchina non
capisce veramente l’informazione». È questo quello che «il web semantico cerca
di correggere. Quando la macchina sarà in grado di capire passeremo a un
livello superiore, si potrà dialogare in modo intelligente». L’anomalia del web 2.0 però ha permesso a
milioni di utenti di interagire con internet. Per Marchiori «l’errore è una
delle caratteristiche del successo, gli utenti devono solo scrivere, al di là
dell’interfaccia, caricano foto, mettono link. Quell’anomalia ha decretato il
successo del web. Così è nato il web2.0, il valore sociale dei social network, che
include la facilità e l’usability, solo che questo è un po’ come dire: basta
che sia facile, poi il problema è della macchina».
Il
web semantico «è una grande idea, ha la velocità dalla sua. Dopo il 2.0 ora si
stanno cercando sistemi ibridi, che implichino anche il costo sociale scoperto
dal web2: i nuovi sistemi semantici 3.0 considerano tutto questo come valore,
informazione compresa». Il futuro? «Ci saranno i sistemi specialistici (il
semantico puro: in medicina, Scienza, per esperti) per chi potrà “pagare” un
costo sociale superiore (quanto tempo si perde per inserire l’informazione) e
poi il web generalista. Il web 3 insomma sarà composto da isole di web
semantico all’interno del 2.0: a livello locale esistono già sistemi “websemanticizzati”
ma sono staccati dal contesto, mentre dall’altro lato ci sono i vari Facebook,
MySpace, il mondo dei network google-generalisti».
Come si trasmette l’expertise? «Scott Mc Nealy, CEO di Sun Microsystem ha detto “Il
livello di privacy elettronica è già a zero. Scordatevela”. Tutto sta nel capire quanto offri agli utenti e
quanto gli prendi, per molti non è importante sapere di essere “tracciato” fino
a che non lo sanno. Ma quanto vale il “prezzo” della privacy, questo bene
moderno e immateriale?».
storie da MM
"Dieci anni fa, eminenti accademici che mi guardano, mentre introduco
il concetto di arena e l’analisi di come il web può cambiare
influenzato dai motori di ricerca, e mi dicono che è un concetto
ridicolo, un motore di ricerca che cambia la struttura del web,
follia!"
"La differenza di mentalità: quando l’Università di Venezia mi ha
offerto di tornare, ho chiesto sia al W3C che a loro di poter
continuare a collaborare con entrambi. Al W3C mi hanno detto, non
importa dove sei, quello che conta è quello che fai. A Venezia mi
hanno detto, non importa cosa fai nella ricerca, basta che ti fai
vedere in ufficio."
"
Le facce del panel di esperti della comunità europea, quando al
meeting che doveva definire la visione strategica del futuro, tra i
focus tecnologici indicavo i MMOG (MMORPG e MMOSG). Facce dapprima
allibite, perchè nessuno sapeva cosa fossero. Poi, quando spiego la
sigla, inorridite quando sentono che la "G" sta per "Game"."