Capitolo I: I vettori del sistema

Capitolo I: I vettori del sistema. 1

Premessa sui media. 2

Il medium Internet 6

The age  of  plenty. 9

La grammatica del Web 2.0. 13

Open API 13

XML. 14

Web Semantico. 14

Feed Rss. 15

AJAX.. 16

Folksonomy. 17

Le applicazioni del Web 2.0. 18

Social Network. 18

Wiki 19

Podcasting. 19

Blog. 20

 


Premessa sui media

L’uomo ha sempre avuto come suo istinto naturale la comunicazione. La comunicazione viene definita come un trasferimento di informazioni codificate da un emittente verso un ricevente attraverso un canale. Questo è il modello[1] più semplicistico di ciò che chiamiamo comunicazione. Numerosi sono gli studi che riguardano questo campo della teoria dell’informazione, ma non è questo il target del mio studio. Qui mi appresto solo a puntualizzare le basi teoriche che vi soggiacciono.

La comunicazione è, tuttavia, un evento estremamente improbabile[2]. Essa si realizza tramite strumenti denominati media, mezzi di diffusione che rendono meno improbabile il concatenamento comunicativo.

I media hanno attraversato la storia delle culture umane evolvendosi di pari passo:

Segni e segnali erano usati dagli esseri pre-umani che comunicavano seguendo l’istinto e i fattori ereditari. Solo l’acquisizione della capacità di apprendimento ha consentito alle prime comunità di dotarsi di un sistema standardizzato di segni.

Tra i 40.000 e i 35.000 anni fa la capacità di immagazzinare e di trasmettere ai successori le tecniche di sopravvivenza da avvio all’età della parola. L’evoluzione del linguaggio permise all’uomo di ricordare, trasmettere, ricevere, comprendere e quindi affrontare l’ambiente fisico e sociale.

 Pitture, immagini pittografiche e geroglifici rappresentano i primi tentavi di scrittura. Solo con i Sumeri nel 1700 a.C. e la loro scrittura cuneiforme si assiste alla associazione di simboli e suoni[3] cioè alla nascita della scrittura fonetica che sfocia poi nella prima forma di alfabeto greco nel 400 a.C.

Con l’invenzione della stampa nel XV secolo[4] diventò facile stampare i libri che si diffusero sempre più ampiamente nelle case[5]. La stampa comporta anche la proliferazione delle “Gazzette” e pubblicazioni di carattere informativo dedicate soprattutto ai mercanti. Tra il ‘600 e il ‘700 comincia a svilupparsi un mercato delle informazioni, tanto che la nuova società post-rivoluzione industriale scopre che l’informazione a mezzo stampa[6] è uno strumento indispensabile per il suo funzionamento.

La nuova era si aprì con il telegrafo senza fili. Nel 1884 Samuel Morse presentò la sua scoperta che consentiva la trasmissione a distanza dei messaggi utilizzando come canale l’etere.

La comunicazione di massa è un processo che dipende da un’azione complessa dei mezzi di comunicazione. I messaggi, elaborati da una organizzazione che si inserisce all’interno del processo comunicativo, vengono trasmessi da mezzi tecnici a masse molto grandi che vivono in aeree geografiche ampie, a volte anche lontane dalle fonti di emissione. Il messaggio è costituito da un determinato numero di prodotti uguali (es. giornali) diffusi in maniera simultanea ad un pubblico che fornisce il parametro audience.

Figura 1: La comunicazione di massa

 

Le grandi innovazioni tecnologiche hanno completamente trasformato il mondo della comunicazione–informazione, e la vita stessa dell’uomo: fotografia, telefono, cinema, e ancora più la radio[7] e la televisione[8].

Luhmann parlando del rapporto tra società e media ha scritto:

Fino alla stampa del libro, si era partiti ancora da un primato della comunicazione orale e si era vista la scrittura essenzialmente come mezzo con il quale annotare e tener fermi contenuti che ancora dovevano essere comunicati o, quanto meno, non si era operata una distinzione chiara tra medium della annotazione e medium della comunicazione. Comunicatio significava: produrre comunanza, rendere noto […] nel nostro secolo si perviene ad una rinnovata esplosione delle comunicazione […] la telecomunicazione rende possibile la comunicazione di immagini in movimento. La riproduzione ottica e acustica, che con la scrittura erano state separate in modo così netto, si fondono assieme. In sostanza, questa scoperta porta al fatto che tutto è comunicabile […] i nuovi media di questo secolo hanno allargato ancora una volta le universali possibilità della comunicazione. Essi rendono così più acuta la discrepanza tra comunicazione possibile e comunicazione che attualmente ha luogo.

Nell’evoluzione dei media della diffusione c’è una tendenza continua a passare da un ordine gerarchico ad uno eterarchico.

 Mentre nella costruzione della differenziazione sociale, nella fondazione degli imperi, nel predominio delle città, la stratificazione sociale poggia su un ordine gerarchico, i media della diffusione lavorano parallelamente alla delegittimazione di quell’ordine, o più precisamente lavorano ad un progetto alternativo. Nelle gerarchie è sufficiente influenzare il vertice perché si può partire con il presupposto che il vertice si imporrà. Al contrario le eterarchie poggiano su contatti immediati, che discriminano di volta in volta. In Cina e Corea, la stampa serve come strumento della diffusione nelle mani della gerarchia burocratica. In Europa la censura non si può risolvere che in un insuccesso data la molteplicità dei luoghi dove si stampa e data anche la complessità dei contenuti, costringendo tutte le gerarchie ad abituarsi a convivere con una società che comunica in modo essenzialmente eterarchico. Dal XVIII secolo si celebra questa situazione come superiorità dell’opinione pubblica.[9]

Il concetto di  opinione pubblica ci introduce al grande ruolo della comunicazione. Per parafrasare Walter Lippmann[10]il nostro mondo è troppo grande, troppo fuggevole e troppo complesso per averne una conoscenza diretta […] dobbiamo affidarci ad un modello più semplice”.

Quanto noi sappiamo dell’ambiente e del mondo in cui crediamo di vivere è composto solo in piccola parte da ciò che abbiamo visto o sentito personalmente e, per la quasi totalità, da ciò che conosciamo in maniera mediata, ovvero attraverso il racconto degli altri.

La comunicazione oggi è il principale strumento di consenso sociale e tutti, ad ogni livello, tentano di addomesticarla. Benché si voglia rivendicare l’autonomia del sistema di comunicazione di massa, in realtà esso è legato profondamente con altri sistemi con cui interagisce continuamente, sia esso economico, politico o culturale. Infatti i media sono una fonte di guadagno molto appetibile che ha un legame a doppio taglio con il sistema politico di cui vogliono essere dogwatcher, ma da cui spesso sono controllati. Non meno importante il rapporto con il sistema culturale, con la caratteristica, propria dei media di massa, di creare valori condivisi e trasmettere simboli e stili di vita dominanti.

Inoltre i media hanno una fortissima influenza sulle opinioni di “come va il mondo” espresse dall’opinione pubblica; con la prassi dell’agenda setting si va ad identificare quel fenomeno che vuole collocare nei media la capacità di stabilire a priori su cosa concentrare l’attenzione del pubblico. L’influenza dei media giudicata dai primi studi come “molto alta” è stata ridimensionata dalle ricerche degli anni ’80. Oggi non c’è per gli studiosi una vera e propria persuasione, ma i media determinerebbero la nostra agenda mentale, cioè gli argomenti di cui è necessario occuparsi, attraverso la selezione delle notizie tra gli argomenti notiziabili e la loro gerarchizzazione.

Questa caratteristica rende il sistema molto aperto alla manipolazione, specie ad opera del sistema politico dominante nel paese. Da qui il dibattito sempre molto acceso nelle democrazie sulla necessità del pluralismo informativo. L’esigenza utopica di avere tutte le informazioni rappresenta il grado massimo di una ipotetica retta che unisce il grado informativo zero ad una informazione esaustiva e precisa. La complessità, che si traduce in problema di gestione delle informazioni, è nemica della democrazia. Come ricorda Granieri[11]l’efficacia di una democrazia è sempre proporzionale alla sua capacità di gestire informazioni”. Come quando nell’agorà ateniese del V secolo a.C. la scrittura venne a sostegno della comunità, costituendo il supporto per rendere condivise le leggi, oggi si può, ad un tempo, svecchiare il modello di democrazia rappresentativa[12] e, contemporaneamente, combattere l’information overload. Rispolverare quello spirito ateniese di partecipazione popolare è ora possibile, grazie ai nuovi strumenti che piano piano stanno nascendo e prendendo piede.

 

Il medium Internet

“I media sono apparati culturali che usano tecnologie per selezionare, raccogliere, immagazzinare, inviare conoscenza, in forme rappresentative[13]

“In una società dove l’informazione e la comunicazione sono onnipresenti, la posta in gioco non è la gestione degli individui o delle collettività, ma la gestione delle loro differenze: non la gestione delle loro somiglianze, ma quella molto più complessa delle loro alterità[14]

Fino a qui ho definito i media come artefatti tecnologici che possono essere usati dai vari attori sociali per mettere in atto strategie comunicative, al fine di perseguire una serie di scopi.

I media veicolano visioni del mondo, rappresentazioni sociali della realtà di cui sono portatori. Quotidianamente li utilizziamo nei nostri processi cognitivi per orientarci e inquadrare situazioni inedite. L’importanza sociale sta nella natura educatrice dei media. Essi educano l’opinione pubblica e formano le coscienze nella misura in cui il consumo mediale influenza, stimola, interagisce con la personalità dell’individuo e il suo senso critico, le variabili ambientali e l’azione più o meno incisiva delle altre agenzie di socializzazione.

Tuttavia sarebbe sbagliato considerare i media come entità unidirezionali. Soprattutto nel medium Internet, ma anche, in maniera meno evidente, negli altri media, esiste un effetto retroattivo dell’utente sul sistema, definito feedback. Gli utenti hanno, infatti, un ruolo attivo nella fruizione e nella co-costruzione dell’universo simbolico che soggiace ad ogni sistema sociale. Essi esercitano una retroazione che rielabora e rinnova i contenuti veicolati dai media.

Ora è bene introdurre alcuni concetti base:

Ipertesto_ strumento reale o virtuale concepito per rendere agevoli le associazioni e i legami tra elementi testuali. Nel 1965 Theodor Nelson conia il termine ipertext riferendosi a “forme non sequenziali di scrittura congiunte tramite collegamenti”. Un precursore dell’ipertesto è Vannevar Bush, dal 1941 direttore dell’Ufficio per la Ricerca e lo Sviluppo Scientifico degli Stati Uniti. Egli immaginò un dispositivo ipotetico, Memex, che stabilisse collegamenti tra materiali di ricerca eterogenei per opera di associazioni.

Ipermedia_ sistema che applica metodi e tecniche ipertestuali alla gestione di informazioni di natura multimediale.

Multimedia_ ambiente in cui coesistono più codici di comunicazione in grado di contenere e elaborare differenti sorgenti di informazione e comunicazione.

Queste premesse mi permettono di potere ora parlare di Internet. Sono passati 11 anni da quando questo nuovo media è entrato nell’immaginario collettivo. Nel 2005 Mark Pesce, uno dei più stimati guru del web, ha iniziato il suo intervento all’Australian Film Television and Radio School con queste parole: “Il 18 ottobre 2004 è il giorno in cui è morta la televisione”. La sua non era una frase ad effetto[15]. Oggi chiunque può creare una Tv a costo zero[16]. Il Web ha cambiato il modo di fruire i contenuti, siano essi testi, audio o video; una sorta di jukebox aperto ai contributi di tutti, consultabile in qualunque momento, da chiunque, con qualunque strumento[17].

Il tutto inizia con la creazione di ARPANET nel 1969. Subito dopo la fine del secondo conflitto mondiale fu creata negli Stati Uniti una nuova agenzia, l’ARPA (Advanced Reserch Project Agency), che nel 1958 assunse il controllo di tutte le ricerche scientifiche a lungo termine in campo militare. Dieci anni dopo i materiali delle ricerche si trovavano in vari computer sparsi in diversi sedi sul territorio americano. Si cercò quindi un modo per collegare le varie sedi: ARPANET venne pianificata e realizzata dall’IPTO, un dipartimento che coinvolgeva molteplici centri di ricerca. ARPANET sarebbe servita per creare un network invulnerabile ad un attacco nucleare. Il primo collegamento telefonico ARPANET da computer a computer fu effettuato nell’ottobre 1969 fra l’Università della California e lo Stanford Research Istitute. Alla fine del 1972 il network contava 32 nodi. L’anno dopo viene formalizzato il protocollo di controllo trasmissione (TCP), a cui si aggiunse nel ’78 il protocollo tra rete e rete (IP) per dar origine al definitivo protocollo TCP/IP su cui ancora opera Internet. Nel 1983 il Dipartimento della Difesa crea una sua rete protetta MILNET, mentre nel 1990 ARPANET, divenuta obsoleta, viene smantellata a favore di una nuove rete creata nell’83, ARPA-INTERNET[18], che, negli anni ‘90, viene via via privatizzata con la creazione di service provider.

Un altro apporto importante viene dalla comunità di utenti UNIX, un sistema operativo sviluppato dai Bell Laboratories e rilasciato alle università nel 1974 con il codice sorgente e il permesso di implementarlo. Unix ha dato vita al movimento open source, movimento che ha tentato di tenere aperto l’accesso a tutte le informazioni relative al software, e sfociato poi nell’introduzione del concetto di copyleft[19], opposto al copyright.

L’altra origine di Internet si trova nel BBS, Bolletin Board System, sistema che consentiva al pc di trasmettere e archiviare messaggi. Il programma fu creato da due studenti[20] dell’università di Chicago, essi stessi ideatori di un programma, battezzato MODEM che permetteva il trasferimento di file tra i loro pc, distribuito in forma open surce.

Tuttavia, Internet nasce per la massa, per le imprese e per il mondo nel suo complesso, nel 1995, anno in cui Microsoft fa uscire Internet Explorer insieme con il proprio sistema operativo Windows 95. Nel frattempo il CERN[21] di Ginevra aveva sviluppato un sistema per la condivisione di informazioni in ipertesto, denominato World Wide Web, il protocollo HTTP e le prima versione del linguaggio HTML. Era il 1990. Nel 1994 la Netscape Communication creò il primo browser commerciale, Netscape Navigator. La Sun Microsystem progetta, un anno più tardi, il linguaggio di programmazione Java.

 

The age  of  plenty

Non si può considerare Internet come una semplice “rete delle reti”, né un agglomerato di siti web isolati, ma come il grado più alto raggiunto dall’uomo in materia di diffusione dell’informazione e condivisione del sapere.

Il termine Web 2.0 è l’espressione del dibattito attualmente in corso in merito alle nuove possibilità di fruizione offerte dalla Rete.

Originariamente il web era stato concepito come modo per visualizzare documenti ipertestuali statici creati con l’uso del linguaggio HTLM. Questo approccio può essere definito come Web 1.0.

Con l’utilizzo di database e sistemi di gestione dei contenuti (CMS), Internet si è evoluta con siti dinamici, ad esempio forum e blog.

Oggi, linguaggi di programmazione come Javascript, elementi dinamici e fogli di stile, permettono di creare vere e proprie “applicazioni web”. Con il nome di Web 2.0 si tenta di dare un nome ad un insieme non omogeneo di innovazioni emergenti, nuove tipologie di società e servizi in grado di offrire applicazioni web agli utenti finali.

Da un punto di vista tecnologico il Web 2.0 è del tutto equivalente al Web tradizionale[22]. La differenza sta nell’approccio con cui gli utenti si rivolgono al Web. Dal consumo si sta passando alla partecipazione, dalla fruizione passiva di contenuti altrui, all’esplosione dei contenuti generati dagli utenti, distribuiti e ri-usati in mille modi diversi.

La possibilità di creare e condividere contenuti sul Web è data da una serie di strumenti, tool, on-line che permettono di utilizzare il web come se si trattasse di una normale applicazione desktop[23], coniugata alla pubblicazione immediata del contenuto, la sua classificazione ed indicizzazione nei motori di ricerca, in modo che l’informazione sia subito disponibile a beneficio della comunità.

Figura 2: The Web 2.0 is made of people

 

Una nuova filosofia all’insegna della collaborazione, che trasforma ogni utente da consumatore a partecipante.

La maggioranza dei contenuti Internet sono generati attualmente dagli utenti, infatti il Web 2.0 descrive l’inversione del controllo dell’informazione, dei processi e dei software. Tutti abbiamo ora il nostro pulpito personale sul mondo, sia esso nella forma dei blog, wiki, o altri meccanismi.

Figura 3: La partecipazione on-line

 

Chi come programmatori, tecnici e business man ha già preso in seria considerazione le implicazioni del Web 2.0, ha pensato strategicamente anche gli aspetti sociali e i modelli di business che stanno emergendo. La trasformazione degli utenti da consumatori passivi a protagonisti attivi è quello che in gergo si definisce personal media revolution e che ha in J.D. Lasica[24] e Dan Gillmor[25] due delle principali icone. In altri termini tutti hanno la possibilità di diventare un media, a costi e con strumenti accessibili. La democratizzazione della creazione dei contenuti widepsread[26], ovvero la sistematizzazione del passaparola, è veramente ad un passo, mentre l’importanza del contenuto on-line ha sempre una maggiore influenza sul mondo off-line[27].

In questo contesto di napsterizzazione dei contenuti si devono reinventare nuovi modelli di business: trasformare cioè l’iperdistribuzione di contenuti, che avviene spesso in violazione del copyright, in un modello sostenibile.

Chriss Anderson[28] ha scritto nell’ottobre 2004 un articolo dal titolo:

La lunga coda.

Dimenticate di spremere milioni da poche hit in cima alle classifiche. Il futuro dell’intrattenimento è nei milioni di mercati di nicchia che si trovano ora nella bassofondo della grande distribuzione[29].

Anderson fa notare che con Internet non esistono più alcuni limiti storici dei mercati tradizionali: spazio e soglia di distribuibilità. Si possono cioè ospitare un numero illimitato di pezzi e offrire prodotti di nicchia che generano ritorni limitati, risolvendo al tempo stesso il problema della distribuzione, raggiungendo località geografiche e nicchie di utenza tradizionalmente irraggiungibili. Venendo a mancare questi limiti, i ritorni generati dall’insieme dei piccoli può arrivare ad essere equivalente o superiore ai ritorni generati dai grandi hits. Se la legge di Pareto dell’80/20  dice che solo il 20% dei prodotti distribuiti diventerà un successo, sul web la realtà è che il 99% dei prodotti di un negozio on-line vengono acquistati o noleggiati almeno una volta al mese. Esiste cioè una domanda per ognuno dei titoli in vendita. La logica delle grandi produzioni può essere superata: con il Web siamo entrati nell’era dell’abbondanza. L’esistenza di infinite nicchie di consumatori, caratterizzate da gusti e preferenze più disparate, fa si che l’insieme dei prodotti di nicchia finirà per produrre utili uguali o superiori a quelle dei prodotti di punta e risultare molto più qualitativi.


La grammatica del Web 2.0

Il concetto di condivisione dei dati tra le diverse piattaforme tecnologiche, sia hardware che software, sfrutta le potenzialità offerte da nuovi linguaggi che si stanno sviluppando in questi anni.

Open API

API è l’acronimo di Application Programming Interface, indica cioè un insieme di procedure disponibili al programmatore, interfacce essenziali per i computer. Alcune compagnie conservano gelosamente le loro API, ad esempio SONY e Microsoft, perché ambedue intendono restringere il numero di persone che possono scrivere applicazioni per i rispettivi sistemi operativi (o giochi se prendiamo il caso della console PlayStation). Altre compagnie distribuiscono le API pubblicamente. Una API che non richiede il pagamento dei diritti per il suo accesso e utilizzo è detta “aperta”.

Il potere delle open API sta nel fornire l’accesso ad ampi database informativi proprietari, che possono essere utilizzati per creare nuovi mix e combinazioni che altrimenti non sarebbero possibili. Amazon, Google, Yahoo!, eBay, Skype e molte altre eSociety, permettono agli sviluppatori che affollano la rete, di inventare nuove applicazioni per migliore i dati e le informazioni preesistenti. In sostanza il web diventa una piattaforma di sviluppo.

Per le persone che lavorano in azienda, il web è una piattaforma per gli affari. Per chi si occupa di marketing, il web è una piattaforma per la comunicazione. Per i giornalisti il web è una piattaforma per i nuovi media. Per i tecnici, il web è una piattaforma di sviluppo software[30].

HouseMaps.com[31] è un’applicazione che fornisce un esempio lampante del potenziale dell’interazione tra due API distinte, per fornire un servizio di ricerca di annunci immobiliari sul territorio americano. Il servizio, ideato da Paul Rademacher, incrocia la potenza di Google Maps agli annunci immobiliari di Craiglist. Esso permette di mostrare ai potenziali acquirenti l’esatta posizione della proprietà, il dettaglio, con le foto e le informazioni collegate. Utile, e sicuramente interessante.

Ringfo permette di verificare il costo e i giudizi del pubblico su un libro o cd venduto su Amazon, semplicemente componendo un numero telefonico e digitando il codice ISBN. Il servizio sfrutta le informazioni residenti in Amazon e le ridistribuisce utilizzando una interfaccia di dati XML, che vengono convertiti in suoni per dar voce alla “signorina” virtuale che risponde al telefono. Complicato? Andiamo con ordine.

XML

Le applicazioni software derivano nuove informazioni da informazioni già esistenti, riconoscendo l’argomento di un testo, o il tono di una affermazione. Devono  cioè comprendere le informazioni sulle informazioni, ciò che viene chiamato metadati.

XML è un insieme di regole per formulare dei file in formato testo che permettano di strutturare dati. Esso rende facile la generazione, la lettura e il controllo di dati tramite un computer. L’eXstensible Markup Language fa uso di tag (parole racchiuse tra parentesi angolari) e attributi per delimitare pezzi di dati, ma a differenza dell’HTML[32], ne lascia l’interpretazione all’applicazione che li legge. Lo sviluppo del linguaggio è iniziato nel 1996 e XHTML è un formato riconosciuto dal W3C, consorzio che formalizza gli standard di scrittura per il web. Il Resource Description Framework (RDF) è un XML formato testo che supporta la descrizione di risorse e applicazioni metadata come liste musicali, album di foto e bibliografie. Come l’HTML ha integrato documenti, immagini, sistemi a menu per lanciare il primo web, RDF fornisce strumenti per avvicinarsi al Web Semantico.

Web Semantico

Le pagine web non sono scritte per essere lette da un computer. Per cui, noi possiamo trovare il DVD più economico, o comprare un libro, ma se lo chiediamo di farlo autonomamente ad un computer, ciò è impossibile.

I computer necessitano di meccanismi per accordarsi sul significato dei termini in modo da comunicare. Il progetto del World Wide Web Consortium[33], ora sotto la direzione di Tim Berners-Lee, sta cercando di provvedere a creare degli standard di comunicazione bastati su RDF e XML, linguaggi metatestuali che permettono di aggiungere ad ogni informazione delle “etichette”, per avere a disposizione degli strumenti in grado di gestire la polisemia[34] e di distinguere, ad esempio, un titolo da un indirizzo web.

Elaborare ontologie è invece più difficile. Una ontologia è un documento che definisce le relazioni tra i termini e le proprietà degli oggetti stessi. Da qui l’ideazione del OWL, Ontology Web Language, che aggiunge un maggiore vocabolario a XML e RDF per descrivere le proprietà e classi di oggetti, come disgiunzione, uguaglianze, quantità, simmetrie. Ecco la scommessa del Web Semantico, cioè quello di creare un medium universale per lo scambio di informazioni/documenti, scritti con una semantica comprensibile e gestibile da parte dei computer connessi in rete.

Feed Rss

Le tecnologie per veicolare i metadati esistono. Da anni si utilizzano i Feed RSS per distribuire i contenuti via web. Acronimo di RDF Site Summary, è un linguaggio basato su XML. Lanciato per la prima volta da Netscape per gestire i contenuti del portale personalizzabile My Nescape, permetteva di visualizzare headline e link relativi a notizie pubblicate su altri siti. Benché ne esistano vari formati, tutti presentano la stessa struttura di base che si compone di un elemento, <channel>, che contiene le informazioni sulla fonte dei contenuti, ed una serie di <item> ognuno dei quali corrisponde ad un singolo elemento di contenuto (es. l’articolo di un giornale) e ne presenta le informazioni (titolo, testo, autore …).

Parlare di RSS e Syndication è la stessa cosa. Infatti RSS, per alcune interpretazioni, è anche acronimo di Realy Simple Syndication, dove per Syndication si indica un modo di trasmettere contenuti “simile al lavoro di una agenzia di stampa. Produce notizie strutturate semplicemente in titolo, testo, autore, data e ora di pubblicazione[35]”.

I file, generati automaticamente dai siti web che presentano questa caratteristica di condivisione, vengono letti o da news aggregator, software da installare sul proprio pc e che si trovano in forma freeware in rete, o da applicazioni web on-line che funzionano da aggregatori (vedi l’ultima relase di Netscape). Ad esempio un feed reader può estrarre i titoli di tutti gli elementi item per visualizzare la lista degli articoli di un giornale on-line, mentre un aggregatore estrae i contenuti del feed e li converte in linguaggio HTML presentandoli sulla pagina del proprio browser.

Fruizione di un feed RSS su un PC con FeedReader

Figura 4: Fruizione di un Feed RSS con FeedReader.

 

Un altro aspetto importante è la disponibilità di applicazioni per la lettura di feed su dispositivi mobili (cellulari, palmari), quale ad esempio mReader, che consentono la fruizione di informazioni in qualsiasi luogo e momento.

Fruizione di un feed RSS su un cellulare Nokia 3650 con mReader

Figura 5: Fruizione di un feed RSS su un cellulare Nokia 3650 con mReader

 

 

AJAX

AJAX  è un approccio di sviluppo web basato su JavaScript e sul linguaggio di programmazione XML, permettendo alle pagine di funzionare più come applicazioni desktop, che come pagine di contenuto statico. Gli utenti possono infatti interagire con le informazioni nelle singole pagine, come se stessero usando un’applicazione.

Le applicazioni web tradizionali consentono all’utente di compilare moduli, e quando questi vengono inviati, parte una richiesta al web server, che risponde bloccando o mostrando una nuova pagina. Le applicazioni AJAX inviano richieste per ottenere solo i dati che le sono necessari, mostrandoli poi usando Java nella visualizzazione browser. Come risultato si ottengono applicazioni più veloci, dato la riduzione di dati scambiati con il server, mentre anche il tempo di elaborazione si riduce poiché la maggior parte dei dati della richiesta erano già stati elaborati.

Figura 6: Interazione tra server e utente con Ajax

 

Il grande vantaggio di usare AJAX nella progettazione di “applicazioni web” sta nella velocità con la quale essa risponde agli input dell’utente.

Folksonomy

Termine coniato nel 2004 da Thomas VanderWal, la folksonomy[36] o anche tagging, è un concetto semplice: quando si carica un contenuto in Internet lo si associa ad una categoria, tag.

Possiamo pensare al tagging come ad una forma di classificazione del sapere decentralizzata, priva di un coordinamento unitario […] sono gli utenti a decidere autonomamente come classificare i concetti e dati presenti in Internet. “Taggare” dei  dati sta avendo risvolti pratici decisamente rilevanti. Anzitutto permette ai motori di ricerca come Technorati, sia di fare ricerche per categorie indicate dagli utenti stessi, sia di capire quali sono le categorie (= gli argomenti) più discussi della Rete[37].

La folksonomy è un sistema di classificazione a basso costo, un’alternativa ai più tradizionali e formalizzati sistemi di indicizzazione dal vocabolario controllato che necessitano di una organizzazione per controllare la classificazione dei contenuti.

Sono gli utenti a decidere quali tag associare ai propri post, e sono sempre gli stessi utenti ad avvisare i motori di ricerca, rendendoli di fatto più rapidi rispetto a quelli tradizionali.

I vantaggi ci sono, benché qualche limite, quale la gestione dei sinonimi, la mancanza di una gerarchia delle categorie (es. Internet>Siti Utili>Università), ed una sorta di relativismo per cui, alcuni termini, possono essere interpretati in maniera differente in base alle differenti culture/lingue.

Da un lato una grande partecipazione e il coinvolgimento degli utenti; dall’altro il potenziale disordine nella gestione dei dati e i problemi organizzativi [ma] quanti all’inizio credevano che un’enciclopedia fatta dagli utenti, gratis, senza quasi controllo, sarebbe potuta esistere e sopravvivere? Pochi. Ma Wikipedia oggi esiste e funziona[38].

 

Le applicazioni del Web 2.0

Il filo conduttore è una nuova filosofia all’insegna della collaborazione: interazione sociale mediata tecnologicamente. Questo è il Web 2.0.

Social Network

I social network, o reti sociali, consistono in gruppi di persone intenzionati a condividere pensieri e conoscenze. Si trovano on-line comunità di persone che condividono i link a siti che ritengono interessanti, oppure alle foto o video, poesie, racconti e diari di eventi, tutti contenuti multimediali che essi intendono distribuire. Questi gruppi rappresentano una preziosa fonte di informazione e al contempo divengono divulgatori specializzati di argomenti di nicchia.

Wiki

Un wiki[39] è un sito web, o una collezione di documenti ipertestuali, che permette a ciascuno dei suoi utilizzatori di aggiungere e/o modificare contenuti preesistenti. La navigazione è assolutamente non lineare, giacché ogni “pagina wiki” contiene un gran numero di collegamenti alle altre pagine.

I wiki rappresentano l’espressione più democratica per la diffusione delle conoscenze attraverso la rete. La logica che muove e sviluppa i wiki è la partecipazione degli utenti ad un obbiettivo comune, quale la realizzazione della più grande enciclopedia mondiale, la Wikipedia. La vera innovazione risiede nel fatto che tutti possono aggiungere o modificare il contenuto dei documenti, testi, immagini, video che siano. Ecco il mantra dei Wiki: “La partecipazione culturale del singolo produce un bene culturale comune, fruibile da tutti gratuitamente” .

Podcasting

Il podcasting è un sistema che permette di scaricare in modo automatico risorse audio o video, chiamate podcast, utilizzando un programma gratuito chiamato aggregatore o feeder. Il termine podcast nacque quando l’uso dei feed RSS divenne popolare per lo scambio delle registrazioni audio. Pare che il primo ad utilizzare la parola podcasting[40] sia stato il giornalista del The Guardian, Ben Hammersley, il 12 febbraio 2004, in un articolo intitolato “audiable revolution”.

Per chiarire: il broadcast indica una trasmissione radio/tv tradizionale, ascoltabile in una determinata ora decisa dall’emittente. Lo streaming indica una risorsa audio/video fruibile on-line in qualsiasi momento tramite un collegamento Internet al sito dell’emittente. Il podcasting indica una file scaricato automaticamente dal sito dell’emittente, fruibile off-line ed in condizione di mobilità con l’utilizzo di un riproduttore.

La diffusione del podcasting attira molte curiosità, sia in campo musicale, che giornalistico. RadioRai offre le proprie trasmissioni come podcast, lo stesso Repubblica Radio e molte altre emittenti nazionali.

Discorso a parte vale per i video. Il boom di un sito di video sharing come YouTube ha creato una vasta eco di studi sul fenomeno. Ian Hardy, corrispondente tecnologico per la BBC, ha scritto un articolo su quella che ha definito “viral video on-line revolution[41]” in cui riporta l’immobilismo dei media tradizionali rispetto alle grandi novità dell’on-line. Non ci sono solo storie buffe, ma anche serie (Loose Change, un documentario sul 11 settembre, vi dice nulla?). Per David Moore, curatore di Getdemocracy.com, esiste un movimento per cui le Tv e i media “imposti dall’alto” verranno scalzati da un nuovo “medium che viene dal fondo”, dove tutti sono in grado di creare il proprio canale di news locali. “User generated media”, per usare l’ormai datata espressione di Gillmor nel suo libro We, The Media.

Sempre più persone stanno guardando questi tipi di video, distogliendo i loro occhi dallo schermo televisivo e muovendoli verso lo schermo del computer[42].

L’esplosione della distribuzione dei video ha messo in luce i limiti del Web, soprattutto nel campo del costo in termini di “capacità di banda”, ovvero la difficoltà di consentire il simultaneo scaricamento di contenuti da un ampio numero di utenti. La soluzione si è trovata nell’utilizzo di BitTorrent, un software che sfrutta la tecnica del PeerToPeer, distribuendo tra gli utenti il carico[43] del servizio, e di progetti come BlogTorrent e Prodigem che permetto di semplificare il processo di creazione e distribuzione dei file.

Blog

Il blog rappresenta il vero e proprio punto di incontro tra l’utente e la moltitudine della comunità Internet. Il blogger, ha a sua disposizione una pagina da riempire, ogni qualvolta lo ritiene opportuno, con un proprio intervento, post, sia esso testo, audio, video, o si tratti semplicemente di un rinvio al contenuto di un altro sito che il blogger segnala a beneficio di coloro che lo leggeranno. Incuriosire, attirare e fidelizzare l’attenzione della comunità Internet è tutt’altro che semplice e me ne occuperò più in dettaglio nei prossimi capitoli.

 



[1] Modello di Shannon e Weaver elaborato nel 1949

[2] LUHMANN Niklas 1999, Teoria della società, p. 61.

[3] Non più ideogrammi, oggetti e concetti rappresentati iconograficamente come nella scrittura geroglifica.

[4] Di per se la tecnica della stampa non nasce in Occidente, ma in Cina intorno all’anno 1000 si usava stampare mediante tavolette di legno inchiostrate. Anche il carattere mobile, considerato la grande scoperta di Guttemberg, esisteva già. Tuttavia ogni scoperta diventa efficace solo se corrisponde ad una esigenza attuale della società. In Occidente la scoperta della stampa diventa rivoluzionaria per la quasi contemporanea affermazione delle classi borghesi e mercantili.

[5] Inutile suggerire quale portata ha questa innovazione. La diffusione di libri conduce con se una maggiore diffusione di idee e tra gli effetti di questa è da sottolineare la Riforma luterana.

[6] Nel 1660 a Lipsia si pubblicava giornalmente il Neueinlauffende Nachricht von Kriegs und Welthandeln (“ultime notizie sui fatti della guerra e del mondo”), mentre il 1702 è l’anno del Daily Courant in Gran Bretagna, una raccolta di dispacci. La rivoluzione della penny press che cambierà la storia del giornalismo è solo del 1833 quando il Sun a New York viene venduto a un penny, prezzo che permetteva una vendita per le strade, e non più solo in abbonamento, permettendo una capillarità mai raggiunta prima dai mezzi di comunicazione.

[7] 1920 prime trasmissioni radio in USA e Canada, 1921 in Italia.

[8] 1936 (2 novembre) prime trasmissioni televisive a Londra, ma il boom solo negli anni ’50-‘60

[9] LUHMANN Niklas 1999, pp. 99 - 104

[10] LIPPMANN, W. 2000. L’opinione pubblica. Donzelli, Roma

[11] GRANIERI, G. 2005. Blog Generation.

[12] I cittadini con le elezioni concedono una delega in bianco ai propri rappresentanti, su cui hanno uno scarso potere di controllo e di intervento.

[13] SALOMON, 1979. Interaction of media, cognition and learning

[14] WOLTON Dominique, 2001. Internet, et apres? Parigi, Flammarion

[15] Il dibattito sul superamento della logica dei broadcasting media prolifera in rete. I sostenitori della libera distribuzione dei contenuti tramite il file sharing sono capitanati da Mark Pesce, già creatore del linguaggio VRML per la realtà virtuale. Nel suo articolo Piracy is Good? prospetta l’uso del PeerToPeer per promuovere gratuitamente i propri prodotti. Ad esempio con la tecnologia di BitTorrent i costi di distribuzione di un telefilm sarebbero suddivisi fra gli utenti: in pochissimi scaricherebbero direttamente dai server della casa di produzione, mentre tutti gli altri scaricherebbero da chi sta scaricando. Il consumo di banda a carico del produttore sarebbe praticamente zero. I costi del telefilm potrebbero esser pagati dagli sponsor. Immaginate di poter scaricare il vostro telefilm preferito in perfetta legalità a patto di accettare un piccolo marchio Coca-Cola o Ford al posto del marchietto Rai o di Mediaset. Nascerebbe così un nuovo canale di produzione e distribuzione che mette in contato diretto produttore e consumatore, eliminando un intermediario costoso come la rete televisiva. Inoltre questo metodo eliminerebbe il rischio di monopolio culturale insito nell'attuale modello: oggi si vede in televisione soltanto ciò che viene proposto da un pugno di emittenti, più o meno accentrate nelle mani di pochi magnati non necessariamente illuminati. Il testo originale in http://www.mindjack.com/feature/piracy051305.html.

[16] Basta pensare a progetti come Internet Archive, YouTube, OurMedia, Google Video, OpenMedia e a vari blog-tv o street-tv distribuite via Web.

[17] Anything you want to see, any time, on any device è il mantra ricorrente.

[18] Nel 1979 nasce un programma di comunicazione per computer UNIX. Ha così origine una rete di comunicazione chiamata Usenet; questa rete viene unita ad ARPANET da un gruppo di studenti dell’università di Berkeley.

[19] STALLMAN Richard, programmatore del Laboratorio di Intelligenza Artificiale al MIT, fonda nel 1984 la Free Software Foundation. Inoltre crea anche il sistema operativo GNU reso pubblico in rete. LINUS Torvalds nel 1991, studente all’università di Helsinki, sviluppa proprio a partire da queste basi il sistema operativo che porta il proprio nome.

[20] CHRISTENSEN Ward e SUESS Randy, 1978.

[21] Sopratutto grazie agli studi di Tim BERNERS-LEE.

[22] L’infrastruttura di rete continua ad essere costituita da TCP/IP e il meccanismo ipertestuale è ancora il concetto base delle relazioni fra i contenuti.

[23] Writely è un editor di testi on-line con le stesse funzioni di Word.

[24] LASICA, J.D. Giornalista on-line, autore di Darknet: Hollywood's War Against the Digital Generation un libro sulla guerra del copyright e il futuro dei media, co-fondatore di Ourmedia un archivio digitale, lanciato nel marzo 2005 e supportato da Internet Archive, che ospita gratuitamente ogni immagine, testo, video o file audio.

[25] GILLMOR Dan, noto giornalista tecnologico americano del San Jose Mercury News e della Silicon Valley dot com, è anche l’autore di un popolare weblog nonchè di We, The Media un libro sulla proliferazione dei grassroots internet journalists (i bloggers) e di come essi abbiano cambiato il modo con cui sono trattate le news. Uno dei punti chiave è che pochi grandi media corporations non possono controllare il flusso di informazioni che ora vengono pubblicate in tempo reale via Internet.

[26] Letteralmente bisbiglio, cioè comunicazione informale.

[27] I media tradizionali attingono informazioni dalla rete, interi scandali nascono dalle pagine di blog pubblicati on-line, la letteratura è sterminata. Inoltre vi sono programmi, rubriche totalmente dedicati al mondo dell’on-line (es. Reporter Diffuso, rubrica di SkyTg24).

[28] ANDERSON Chriss, Editor in Chief di Wired, una delle più importanti riviste di Information Tecnology.

[29] The Long Tail. Forget squeezzing millions from a few megahits at the top of the charts. The future of enterainement is in the millions of niche markets at the shallow end of the bitstream. In http://www.wired.com/wired/archive/12.10/tail.html .

[30] MacMANUS, Richard. Read/Write Web.

[31] http://www.housingmaps.com.

[32] Hyper Text Markup Language usato per descrivere un corpo di testo strutturato disseminato di oggetti multimediali. La sua capacità è limitata alla classificazioni di blocchi di testo da visualizzare su una pagina con un’organizzazione e layout desiderato.

[34] La capacità di una parola di avere diversi significati in diversi contesti.

[35] RONCAGLIA G., Blogosfera e Feed RSS in http://lgx-serve.ciseca.uniba.it/lei/network/03-2/roncaglia.pdf

[36] Il termine si riferisce specificamente al sistema di categorizzazione creato all’interno della comunità Internet. Esso nasce dalla combinazione delle parole folk e taxonomy, e letteralmente significa “sistema di classificazione del popolo”.

[37] MONTEMAGNO Marco, 22-07-2005. Diario di rete. Ideatore di Blogosfere, network di blog professionali di informazione, è assistente alla cattedra di Teoria e Tecniche dell'Informazione On-Line presso la Facoltà di Lettere e Filosofia dell'Università Cattolica di Milano. Giornalista ed esperto di Internet, conduce su Sky la trasmissione Reporter Diffuso.

[38] ibid.

[39] Wiki deriva da una parola in lingua hawaiana “wiki wiki” che significa “rapido”. Ward Cunningham, padre, nel 1995, del primo Wiki – il Portland Pattern Repository - lo scelse come sinonimo di web-veloce. È inoltre usato come acronimo di What I Know Is che descrive la sua funzione di condivisione della conoscenza oltre che di scambio e immagazzinamento.

[40] Il termine basato sulla fusione di iPod (popolare riproduttore di file audio-video prodotto dalla Apple) e broadcasting, benché né per l’ascolto, né per la trasmissione siano necessari iPod e una trasmissione tradizionale.

[42] MOORE, David The viral video on-line revolution. And more and more people are watching this kind of video online and taking their eyes away from the TV screen and moving towards the computer screen.

[43] Quindi, più utenti scaricano, più veloce è il download.