Trieste, 01.05.2004

SISSA/ISAS
Scuola Internazionale Superiore di Studi Avanzati
International School for Advanced Studies

via Beirut 4 - 34014 Trieste – Italy
Phone: +39-040-3787463 Fax:+39-040-3787528

INTERNET
Ricerche a più dimensioni

INTER-NET

L'informazione è un oggetto che gode di una strana proprietà. Sia che tenda a infinito, sia che tenda a zero, la conoscenza che se ne può trarre è la stessa: nessuna. Un libro che contenga tutte le nozioni possibili disposte in ordine casuale sarebbe assolutamente inservibile. La completezza dell'informazione coincide con l'assenza di informazione, se non si dispone di uno strumento di selezione in grado di trovare nel mare la goccia di cui si ha bisogno. L'archivio di tutte le informazioni possibili è naturalmente un'idea irrealizzabile, ma Internet ne rappresenta una buona approssimazione. L'archivio è ben lontano dall'essere completo ed è in parte strutturato, eppure sappiamo bene quanto sia difficile talvolta raggiungere l'informazione cercata, anche quando questa sia effettivamente presente. La risposta a questo problema si chiama web semantico, quello che Internet dovrà diventare nel futuro: una rete di informazioni riconoscibili per il loro significato. In questo filone di ricerca si inserisce Aim@Shape, il primo network europeo di ricerca per il web semantico multidimensionale, un progetto coordinato dalla sezione di Genova dell'Istituto di matematica applicata e tecnologie informatiche del Cnr, e che vede la partecipazione di 14 università e istituti di ricerca europei. L'informazione digitale presente sulla Rete, infatti, non contiene solo dati monodimensionali, cioè testuali. Ci sono anche (e ce ne saranno sempre di più) le immagini e i filmati in 2D e in 3D. Queste ultime, pur apparendo sul monitor del computer in tutto e per tutto identiche a quelle bidimensionali, contengono in sé le informazioni della terza dimensione: sono quelle, per intenderci, utilizzate da molti videogiochi. Come trarre da questo nugolo di pixel in movimento sullo schermo informazioni utili sugli oggetti rappresentati ? Si tratta di estrarre da informazioni di basso livello, come punti, spigoli e facce, informazioni di alto livello, come possono essere la funzione, l'uso, la dimensione, la disposizione spaziale. Per esempio se un oggetto sullo schermo rappresenta una teiera o ne ha la funzione, probabilmente nell'immagine devono essere riconoscibili un beccuccio e un manico. Dal punto di vista matematico queste sono caratteristiche topologiche misurabili e riconoscibili quindi da un software appositamente progettato". Con i motori di ricerca esistenti oggi, la ricerca di informazioni visive è ancora molto rozza. Non abbiamo speranza di trovare un filmato 3D che contenga una teiera se quest'informazione non compare esplicitamente nel nome del file corrispondente o nella pagina web che lo contiene. Peggio ancora se ciò di cui siamo in cerca è qualcosa di ancor più specifico, come "una teiera di metallo blu usata da una donna anziana per innaffiare una pianta. Si tratta di informazioni di livello alto, che però possono essere essenziali per gli scopi di chi sta compiendo la ricerca. Naturalmente non saranno solo i motori di ricerca a dover essere ripensati e potenziati. La strada da percorrere è anche quella della realizzazione semantica del file multimediale. Di un immagine possono interessarmi anche aspetti come l'ora a cui è stata ripresa, la temperatura dell'ambiente circostante, le condizioni di luce: tutte informazioni che nessun software sarà mai in grado di estrapolare a posteriori.

[TOP]

01.05.2004 Google incontra l'Accademia

GOOGLE logoPer chi usa Internet il motore di ricerca è indispensabile. Di più. È praticamente una mania. Nulla viene cercato se non attraverso quella mascherina da riempire con la parola chiave. Un indirizzo, un numero di telefono, il negozio più vicino per comrpare un elettrodomestico o il prezzo migliore per il prossimo viaggio. E se si parla di motore di ricerca non si può che pensare a Google, il sistema di scandaglio della rete più utilizzato al mondo. Che a poche settimane dal lancio del sistema di posta elettronica gratuita G-mail, fa un altro annuncio: un progetto pilota che coinvolge 17 università - per l'Italia c'è l'Università di Parma - per rendere gli studi accademici accessibili attraverso Internet. Già, perché fra le tante cose che si possono ottenere con una semplice richiesta, le pubblicazioni scientifiche sono fra quelle meno raggiungibili, più nascoste nei meandri del web. Il progetto si basa sullo sviluppo dei cosiddetti 'superarchivi' messi a punti al Massachusetts Institute of Technology e oggi presenti in più di 100 università in tutto il mondo. Si tratta di sistemi con cui vengono archiviati studi scientifici, appunti per articoli, report tecnici e altro materiale accademico. In pratica un serbatoio prezioso dove gli articoli che poi saranno pubblicati su riviste a pagamento vengono conservati prima di essere dati alle stampe. Le università che partecipano al progetto pilota dispongono tutte di questo software grazie al quale il materiale viene archiviato elettronicamente in modo tale che il motore di ricerca può smistare le varie informazioni e visualizzare i risultati più pertinenti. Spesso le pubblicazioni accademiche più interessanti restano nascoste. Un effetto anche del numero sempre crescente di documenti presenti su Internet. Trovare materiale di alta qualità è sempre più difficile. Google ha provato in un primo momento a indicizzare le pagine delle università ma l'iniziativa non ha avuto il risultato sperato: le informazioni risultavano ancora sommerse. Un aiuto al libero circolare delle idee quindi, ma non solo. La visibilità per gli atenei è importante anche in termini di pubblicità e quindi di un numero maggiore di iscrizioni da una parte e di rapporti con le industrie dall'altra. È stata questa, per esempio, la ragione principale che ha spinto la Cranfield University inglese a partecipare al progetto. Puoi anche rendere disponibile il tuo materiale su Internet. Ma poi chi lo vedrà ? Ma dal momento che praticamente tutti usano Google le ricerche saranno immediatamente disponibili. Per noi vorrà dire diffondere le informazioni sulla nostra attività e attirare quindi investimenti da parte delle industrie. Ovviamente c'è stata anche qualche riluttanza. Alcuni docenti coinvolti nel progetto pilota sono preoccupati dall'idea di dover pubblicare i propri studi prima di averli sottoposti al giudizio dei referee delle riviste specializzate. Ma certo la eco che i loro studi otterranno sarà molto maggiore. Al progetto pilota partecipano anche l'Australian National University, lo European University Institute, la Hong Kong University of Science and Technology, l'Università Minho portoghese, quelle canadesi di Calgary e di Toronto, gli atenei statunitensi di Cornell, dell'Indiana, dell'Ohio, dell'Arizona, dell'Oregon, del Wisconsin, la Purdue University di Indianapolis, l'Università di Rochester, e quella di Washington. Se tutto va come si spera, in pochi mesi Google sarà pronto nel poter offrire il servizio ai navigatori.

[UP][TOP]

INTERNET e SICUREZZA: pensando al 2025


Alcune riflessioni...

Problema: come migliorare i livelli di privacy e sicurezza delle comunicazioni su Internet ? Come assicurarsi che le informazioni disponibili in rete siano attuali e attendibili? E soprattutto: come indirizzare dall'esterno lo sviluppo di una struttura che si è fino a oggi ottimamente regolata da sé ? Per immaginare il volto dell'Internet tra vent'anni, e progettare gli strumenti che potrebbero renderla sempre più efficiente, è stato presentato Evergrow, un progetto di ricerca dell'Unione Europea, inaugurato a gennaio con una conferenza scientifica a Stoccolma. Operativo per i prossimi quattro anni, il progetto ha un aspetto originale: coordinare sistematicamente gli informatici, che raccoglieranno i dati sulla rete reale, e i fisici, che li interpreteranno, con l'obiettivo di elaborare tecnologie operative nella rete. Finora Internet si è auto-organizzata con enorme successo, a differenza di quello che accade normalmente nei sistemi ingegneristici, che vengono pianificati. La crescita futura sarà ancora basata in buona dose sull'auto-organizzazione, e questo rende difficile fare delle previsioni. Quel che è certo è che Internet continuerà a crescere sempre più (una "evergrowing network", appunto), e che sarà sempre più "intelligente", nel senso che nella sua struttura si svolgeranno dinamiche complesse, come già si vede nel caso delle reti "peer-to-peer" per la condivisione di documenti e informazioni. In questa prospettiva è sempre più necessario che un gran numero di processi, oggi svolti manualmente, diventino automatici. Noi vogliamo giocare un ruolo nell'Internet del futuro, e indirizzare il suo sviluppo attraverso 'piccoli' interventi che usino le nuove conoscenze per aiutare a determinare le direzioni da prendere. In concreto, il progetto costituirà un "Osservatorio virtuale della Rete", ovvero un sistema di una ventina di calcolatori dislocati in Europa e nel mondo, specializzati nella misura ad alta risoluzione temporale dei pacchetti di informazione che viaggiano su Internet. Questo permetterà una valutazione in tempo reale della struttura della rete e delle sue dinamiche. Inoltre fornirà un'immagine più realistica rispetto a quella attuale, che oggi è basata soprattutto sulla porzione statunitense. Con lo stesso obiettivo si utilizzerà anche la tecnologia "@home": ad alcuni volontari verrà distribuito un salvaschermo che userà i tempi morti, quelli durante i quali i computer non vengono utilizzati, per esplorare le connessioni di Internet e riferire ai ricercatori i dati da analizzare. Altre parti del progetto riguarderanno l'elaborazione di sistemi di correzione degli errori nella trasmissione dei dati: una ricerca che potrà migliorare i livelli di privacy e sicurezza delle comunicazioni e portare a una terza generazione di tecnologie "peer-to-peer". Un altro ambito di lavoro riguarda lo sviluppo di algoritmi che assicurino che l'informazione disponibile in rete sia attuale, corretta e rapidamente reperibile: in questo campo si utilizzeranno strumenti tipici della fisica dei sistemi complessi, come l'ottimizzazione statica e la teoria del controllo di sistemi aperti con dinamica complessa, per produrre programmi che correggano errori e riducano la ridondanza d'informazione. Infine, una parte del progetto riguarda la creazione di modelli dei meccanismi di mercato in rete: l'obiettivo è simulare il comportamento di un gran numero di agenti in interazione disordinata, ciascuno sottoposto a semplici regole di mercato e al suo interesse individuale. La ricerca, che coinvolge una trentina di gruppi europei (con contributi da Israele e dall'Egitto), è stata finanziata dall'Unione europea per sei milioni di euro. Per l'Italia partecipano, oltre all'Unità di Roma "La Sapienza" dell'Istituto Nazionale di Fisica della Materia, anche l'Istituto per l'intercambio scientifico di Torino, e l'Abdus Salam International Centre for Theoretical Physics di Trieste. La natura mista della ricerca, a cavallo tra teoria e applicazione, ha richiamato l'interesse di un gran numero di società private, fra cui Ericsson, Ibm, TeliaSonera e France Telecom, che hanno partecipato alla stesura del progetto. La politica relativa a brevetti e proprietà intellettuale dovrebbe comunque consentire la pubblicazione libera e senza rallentamenti dei risultati scientifici.

[UP][TOP]

Una curiosità: sulla pubblicazione nel WEB

Secondo un'indagine del Pew Internet & American Life Project il 44% degli internauti americani ha affidato i propri contenuti alla rete. Fotografie, testi… creazioni di vario genere hanno trovato il loro spazio nel mare infinito del world wide web. Molte le opportunità: blog, condivisione di file, siti personali. Internet offre alla creatività del singolo un canale nuovo per esprimersi e per trovare visibilità. La popolazione di "creativi" che si è affidata a questo mezzo è identificabile soprattutto in soggetti di ambo i sessi, ad alta scolarizzazione e con connessione a banda larga. Una variabile meno indicativa è l’età perché se anche molti di essi sono giovani, studenti, esiste anche un nutrito gruppo di 40enni e 50enni che utilizzano la rete per "pubblicare". Di questo 44% il 21% ha pubblicato foto su siti web e il 17% ha invece contribuito con contenuti testuali. Gli utenti che hanno un proprio sito personale sono circa il 13%. Ancora poco diffusa è invece la pubblicazione di file video, solo il 3% degli utenti si è cimentata in questo senso.

[UP][TOP]

Usability-Ergonomia
Dove guardano le pupille?


Quando si accede a un sito lo sguardo compie una lettura automatica delle immagini rappresentate sullo schermo. Per ben progettare una home page è utile conoscere le dinamiche che regolano questa prima impressione ottica. Il design di un buon sito Internet deve prendere in considerazione numerosi elementi: la comunicazione, il registro cromatrico e iconografico, la coerenza dei messaggi, il rapporto testo-immagini, la navigazione e l'architettura delle informazioni. Ogni elemento deve essere coordinato, studiato insieme agli altri e bilanciato. Prima di affrontare il design di tutti questi aspetti è necessario, però, capire un principio più generale, associato alla percezione visiva delle immagini sullo schermo, indipendentemente dalla struttura e dalle finalità di un sito. Ogni visitatore, infatti, di fronte a un’immagine sullo schermo, ha una reazione elementare ben precisa: il suo occhio segue quasi automaticamente un processo di scansione della nuova figura che fa capo ad alcune regole. Questa attività irriflessa è stata descritta da uno studio di User Interface Engineering che mostra quale percorso effettua la pupilla sullo schermo. I risultati hanno portato all’individuazione di sei aree ben definite sullo schermo del computer:

1) un'ampia area centrale;
2) l'intestazione centrale;
3) una colonna di destra;
4) la barra dei pulsanti del browser;
5) una colonna di sinistra;
6) la parte bassa dell'immagine (il cosiddetto footer).

Sia gli esperti sia i novizi guardano la pagina allo stesso modo. I novizi applicano una lettura classica sinistra-destra, alto-basso e dopo 3-4 pagine passano a un tipo di lettura da esperti: una scansione della pagina con sequenza centro-sinistra-destra. Il centro rimane, dunque, la parte più importante della pagina, quella in cui occorre concentrare le informazioni più rilevanti dal punto di vista della comunicazione. Il secondo dato riguarda l’osservazione specifica, che comincia a circa 2/3 dal margine superiore dello schermo. Quando il lettore trova stimoli e informazioni di interesse, agisce solitamente con uno scrolling della pagina e incomincia a leggere. È dunque sconsigliabile porre materiale cruciale nel footer (parte bassa) o nella parte sinistra della pagina. Inoltre, si deve sempre ricordare che il visitatore abituale tende all’assuefazione e potrebbe non notare i contenuti nuovi. Per contrastare questo fenomeno basta associare immagini nuove o spostare nel tempo i contenuti in differenti aree del sito. Sono intuitive come regole, ma vale la pena ricordare anche che il movimento cattura l'occhio, così come la vivacità del colore attira l’attenzione. Ancora di più attrae la forte variazione cromatica. Quando si disegna non va dimenticato che l’eccessivo sfruttamento di questi espedienti cognitivi crea forti fastidi e molto spesso induce al rigetto (su Internet la risposta negativa è ancora più accentuata). Si può dire, comunque, che la sequenza di scansione dell’immagine dall’alto a sinistra verso la parte bassa a destra è una regola generale. La stravaganza di un’impaginazione o la forza di una variazione cromatica molto accentuata possono scardinare questo principio. In questo caso, però, occorre valutare attentamente come agire: l'impatto visivo troppo forte stanca la lettura ed è adeguato soltanto in caso di eventi o promozioni eccezionali, non per affrontare la comunicazione quotidiana e strategica.

[UP][TOP]

Utenti connessi...:

CHANDRAst

Se vuoi scrivermi, basta un click!