LA STORIA DI INTERNET

I più alti ufficiali del Pentagono vissero il 4 ottobre 1957 come uno dei giorni peggiori della loro vita: l'Unione Sovietica aveva messo in orbita, battendoli sul tempo, lo Sputnik, il primo satellite artificiale della storia. Uno smacco inammissibile che denunciava un progresso tecnologico preoccupante. Ma non basta: dopo l'incidente della Baia dei Porci a Cuba, la tensione USA - URSS raggiunse i massimi livelli. Nel 1964 anche la Cina sperimentava la propria bomba atomica. Fu soprattutto in seguito a questi eventi che l'Amministrazione statunitense creò sollecitamente l'Advanced Research Projects Agency (ARPA), una struttura interna al Dipartimento della Difesa, con l'intenzione esplicita di ristabilire il primato americano nelle scienze applicate al settore militare.

I frutti imprevisti di quella scommessa bellica li godono oggi oltre 50 milioni di persone di tutto il mondo. Un risultato perverso, rispetto alla logica originaria, quanto mirabile, che sta rivoluzionando il modo di comunicare probabilmente tanto quanto solo l'invenzione dei caratteri mobili di Gutenberg nel 1438 era riuscita a fare.

Il satellite russo, in particolare, aveva rovinato il sonno a molti responsabili della Difesa americana, popolando le loro notti di incubi crescenti: "Oggi lo Sputnik, e domani?" era l'interrogativo angoscioso. I migliori cervelli della Rand Corporation, il più avanzato think-tank americano ai tempi della guerra fredda, presero così ad arrovellarsi su un'incognita apocalittica: "Come avrebbero potuto, i centri nevralgici del Paese, comunicare dopo una guerra nucleare?" La domanda era tragica e grottesca allo stesso tempo: "D'altronde, si diceva, per quanto si corazzasse una rete di comunicazione tradizionale, i suoi commutatori e i suoi cavi sarebbero stati sempre vulnerabili a un attacco atomico. Il centro di quel sistema sarebbe diventato immediatamente il bersaglio strategico principale dei nemici che, colpendolo, avrebbero messo in ginocchio irreparabilmente la nazione".

Fu Paul Baran, una delle intelligenze di spicco del centro studi, a proporre (1964) una risposta in un report dal titolo "On Distributed Communications Networks": innanzitutto la rete non doveva avere alcuna autorità centrale e avrebbe dovuto essere concepita, sin dall'inizio, in modo da operare in un contesto di instabilità. Perché questo avvenisse era assolutamente necessario che tutti i nodi fossero indipendenti, avessero una pari gerarchia e fossero capaci di originare, passare e ricevere i messaggi.
I messaggi a loro volta sarebbero stati scomposti in pacchetti opportunamente targati per non perdersi lungo la via e ogni pacchetto separatamente indirizzato verso la propria destinazione. Soltanto una volta raggiunta la meta finale i diversi moduli sarebbero stati finalmente ricomposti. La strada da percorrere era una loro scelta, suggerita da una serie di computer appositamente programmati per monitorare tutti gli snodi e incanalare i dati lungo le vie più sgombre e sicure. Se per qualsiasi motivo si fosse verificato un blocco lungo una della arterie della rete, il pacchetto sarebbe stato immediatamente re-indirizzato per una strada meno accidentata.

Come spiegò Bruce Sterling, "Fondamentalmente il pacchetto sarebbe stato scaricato come una patata bollente da un nodo all'altro, più o meno in direzione della sua destinazione finale, sino a quando non avesse raggiunto la sua giusta meta. Questo sistema di consegna piuttosto azzardato può certamente essere definito inefficiente' nell'accezione classica di questo termine (specialmente se confrontato, ad esempio, al sistema telefonico) ma è di certo estremamente resistente".

Quindi, il problema che il Dipartimento della Difesa statunitense si trovò a dover risolvere fu quello di ideare, in qualche modo, un sistema atomicamente "invulnerabile" e quindi (strutturalmente parlando) per forza di cose "acefalo". Vale a dire che la rete non poteva avere un "cervellone centrale", "quartier generale" che dirigesse e coordinasse le altre unità ad esso facenti capo. Internet, insomma, nasce come una strumento bellico che però deve per forza rinunciare alla strutturazione gerarchica militare classica. Tale organizzazione tradizionale pur essendo molto pratica ed efficiente, se applicata nell'ambito della trasmissione dell'informazione, risulta essere molto vulnerabile. Pertanto ogni unità avrebbe dovuto trovarsi "sullo stesso piano" di una qualsiasi altra componente la rete, e soprattutto avrebbe dovuto essere in grado di funzionare a prescindere dall'efficienza o addirittura dalla sussistenza dalle altre. Questo avrà delle conseguenze essenziali: ogni unità sarà dotata "una vita propria" che non verrà pregiudicata dall'eventuale morte di alcune "sorelle".

Le ricerche sulla comunicazione tra calcolatori effettuate nell'ambito del progetto portano, in conclusione, a tre concetti fondamentali:
 

Il protocollo TCP/IP, utilizzato ancor oggi, ha il compito di rendere possibile la comunicazione e lo scambio dei dati fra i vari sistemi collegati, spesso diversi tra loro per potenza di calcolo, per sistema operativo, per marca. TCP/IP divenne, quindi, lo strumento per far comunicare computer di ogni tipo.

La commutazione di pacchetto prevede che i dati diretti verso una certa destinazione vengano spezzati in piccole parti, ognuna con il proprio indirizzo di destinazione. Packet switching e routing consentono la creazione una rete dove più' utenti condividono la stessa linea di comunicazione e i dati vengono automaticamente dirottati su un percorso alternativo nel caso di computer e/o circuiti non operativi : una rete che ha l'essenziale caratteristica di poter continuare a funzionare anche in caso di attacco nucleare. In questo modo la trasmissione del messaggio sarebbe stata garantita ad ogni costo, e l'efficienza delle trasmissioni
di ordini ed informazioni alle particelle militari, assicurata.

Dunque è dalla volontà di creare un sistema a prova di guerra nucleare che inizia la storia di Internet. Quest'idea di una rete polverizzata e a prova di bomba comincia cosi a farsi strada nei corridoi delle più prestigiose comunità scientifiche. Nel 1965 ARPA sponsorizza un primo studio sui cooperative network of time-sharing computers. Nel 1968 il Pentagono stanzia somme importanti per una sperimentazione del sistema su larga scala. Il primo nodo è istallato presso la UCLA, dove il laureando Vinton Cerf (considerato dai più il padre legittimo di Internet) frequentava con profitto i corsi di computer science. I1 primo embrione della rete, che venne chiamata Arpanet, venne realizzato tra 1'ottobre e il dicembre del 1969 da una compagnia americana, la BBN, che si era aggiudicata 1'appalto da un milione di dollari promosso dall'ARPA. Il 2 settembre 1969 vennero collegati i primi quattro nodi della rete: tre realizzati in università californiane: University California Santa Barbara, Stanford University, University California Los Angeles, e il quarto localizzato nell'Università dello Utah.

I quattro computer possono trasferire dati su linee dedicate ad alta velocità; possono anche essere programmati a distanza dagli altri nodi. Scienziati e ricercatori esultano: si apre per loro una nuova era di condivisione di progetti e scoperte, impensabile sino al giorno prima. Ma già a questo punto Internet riserva la prima inaspettata sorpresa: gli utenti della rete, quasi esclusivamente scienziati od intellettuali universitari, non utilizzano la nuova risorsa a disposizione per la stesura e la condivisione di progetti e dissertazioni scientifiche, come ci si attendeva.Ben presto i "lavori collettivi", magari compilati a distanza, lo scambio e la condivisione di dati contenuti in diversi computer, e la pubblicazione di ricerche, studi e tesi personali, fanno spazio sempre di più alle chiacchiere personali e alla varia umanità: ogni utente ha un proprio account e un indirizzo corrispettivo su Arpanet, è inevitabile quindi che la rete divenga anche un enorme ufficio postale, il primo che non fa pagare i francobolli e che recapita le lettere non appena gli vengono affidate. L'utilizzo della rete comincia a sfuggire alla capacità di previsione umana gli studiosi si
scrivono: l'e-mail si impone.

Nonostante Arpanet fosse stata voluta dal Dipartimento della Difesa statunitense, l'obiettivo originario di creare un sistema di controllo rigidamente militare non venne mai realizzato. Quindi la storia di Internet nasce da un progetto ideato per difendere gli Stati Uniti dalla guerra nucleare, che invece si trasforma in un importante strumento di crescita pacifica per il mondo civile. Ben presto il progetto di rete di ARPA venne gestito più come una risorsa universitaria che come una istituzione militare. Internet è così cresciuta in maniera quasi anarchica grazie alla collaborazione fra i ricercatori che si sono occupati del progetto nel corso degli anni. L'aspetto cooperativo e volontaristico è rimasto una caratteristica tipica della Rete anche negli anni successivi. Senz'altro in principio non esistevano motivi per sospettare che Internet potesse evolversi fino a diventare una rete accessibile al grande pubblico.

Negli anni '70, Arpanet continuò a crescere e la sua struttura decentralizzata rese più facile questa espansione. Nel 1971 la rete era composta da 23 nodi, che, nel 1972 erano già diventati 37. Questo sistema permetteva, sostanzialmente ai computer di condividere dati e ai ricercatori di scambiarsi posta elettronica (e-mail). Il traffico principale su Arpanet riguardava news e messaggi personali, che miravano a semplificare la collaborazione su progetti complessi, a scambiarsi appunti sui vari studi. Arpanet, insomma, esplorava la tendenza, che poi sarà propria di Internet, di trasformarsi da uno strumento informatico classico a un mezzo di comunicazione alternativo a quelli tradizionali.

Nel marzo 1973 un'altra fondamentale innovazione: Vinton Cerf, dopo lunghi studi sui problemi di interconnessioni tra reti diverse ad Arpanet, schizzò l'architettura dei "gateway", i computer "passerella" tra un sistema e un altro. Grazie a questi collegamenti viene offerta al nuovo media una possibilità di espansione senza limiti. Arpanet è già una piccola rete di reti, una confederazione di network diversi che si danno delle regole e dei protocolli comuni per parlare tra di loro attraverso un sistema aperto a cui si possono collegare ulteriori reti di diverso tipo.

Negli anni '80 Arpanet è diventata Internet e si è espansa con un tasso di crescita fenomenale.Università, compagnie di ricerca e agenzie del governo hanno incominciato a collegare i loro computer a questa rete sempre più su scala mondiale.

Forse ciò che giustifica una così robusta crescita di Arpanet è costituito proprio dallo standard di comunicazione che computer collegati condividono. Le macchine, sia pure con sistemi operativi differenti, devono parlare la stessa lingua, che si fonda sul packet-switching. Questo idioma viene chiamato, originariamente (1970), NCP, ovvero Network Control Protocol, ma presto (1982) gli scienziati Vinton Cerf e Bob Khan ne forniscono una versione più raffinata, nota come TCP/IP (Transmission Control Protocol). Un codice di comunicazione che funziona in due fasi: seziona all'origine i messaggi in diversi pacchetti, per poi ricomporli in unità una volta arrivati a destinazione.

1983 - L'origine bellica di Arpanet è completamente superata. A ratificare il cambiamento, il ramo militare della rete si stacca da questo macrorganismo in continua espansione, andando a formare Milnet. Arpanet muore e nasce Internet. Negli anni '80 si cominciano a realizzare i presupposti che determineranno, negli anni a venire, l'esplosione della Rete. L'aumento delle
connessioni, soprattutto da parte delle università, è esponenziale.

1989 - Il protocollo TCP/IP dilaga su qualsiasi network che con Arpa confinava e che aveva finito per esserne fagocitato.

1990 - Nascono le prime associazioni per tutelare i diritti che alla cittadinanza telematica pertengono. La più nota è, di gran lunga, la Electronic Frontier Foundation (EFF), fondata da Mitch Kapor. Sul versante dei software per la navigazione e la ricerca di informazioni in Rete, le innovazioni sono fondamentali. Le principali sono:

Archie di Peter Deutsch, Alan Emtage e Bill Heelan;
Hytelnet di Peter Scott;
WAIS (Wide Area Information Servers), inventato da Brewster Kahle;
Gopher di Paul Lindner e Mark P. McCahill;
PGP (Pretty Good Privacy) di Philip Zimmerman;

Tali strumenti sono tutti contemporanei e incontrano subito un significativo successo.

1992 - Ma la vera novità viene alla ribalta un anno più tardi, ed è rappresentata dallo scheletro del World-Wide Web (WWW), un sistema multimediale ad ipertesto con tecnologia client/server, concepito al Cern di Ginevra dall'équipe guidata da Tim Berners-Lee. Il Word Wide Web (ovvero "ragnatela mondiale") è uno strumento per muoversi facilmente nella rete alla ricerca di informazione, documenti e dati, ed è d'altro canto uno strumento per la diffusione telematica di documenti elettronici multimediali, attraverso il canale di distribuzione più vasto e ramificato del mondo: Internet. Tre caratteristiche hanno fatto del WWW una vera e propria rivoluzione nel mondo della telematica:

     l'estrema facilità di utilizzazione delle interfacce;
     la sua organizzazione ipertestuale;
     la possibilità di trasmettere informazioni multimediali.

Gran parte del dell'esplosione del "fenomeno Internet" che si avrà in seguito è legata proprio alla diffusione di questo strumento. Nello stesso anno, inoltre, nasce Veronica, uno strumento di ricerca del gopherspace, opera dell'ingegno dell'Università del Nevada.

1993 - È l'anno della novità decisiva, quello in cui (sono parole dell'Economist) "ad Internet puntano delle ali multimediali". Mosaic dà un impulso straordinario al fermento della Rete: il traffico sul Web si moltiplica in progressione geometrica a un tasso annuale superiore al 300%. Mosaic è il primo software a interfaccia grafica di navigazione che permette di spostarsi facilmente sul Web, decidendo la rotta a clikkate di mouse, e potendo anche usufruire delle immagini, i suoni e i video disseminati lungo il cammino. Si fa più concreta l'idea di "cyberspazio" che lo scrittore Gibson aveva futuristicamente prefigurato nel suo libro dell'84. E tutto questo è alla portata di persone che possono avere una conoscenza e una pratica informatica anche modestissima. Insetti e rettili di tutti i tipi popolano allegramente il Web: sono Worms (vermi come il WWW Worms o W4), Spiders (ragni), Wanderers, Crawlers, and Snakes (serpenti). Tutti sistemi che passano in rassegna senza sosta il Web per indicizzare e razionalizzare le informazioni e le risorse che vi si possono trovare. L'Amministrazione Clinton e il Vicepresidente Al Gore in particolare, tagliano il nastro dell'US National Information Infrastructure Act.

1994 - Arpanet/Internet compie venticinque anni: un quarto di secolo. Prime avvisaglie di uno sbarco ormai improrogabile: i centri commerciali espongono on-line e vendono di tutto. I giornali di tutto il mondo riportano una curiosità eloquente: Pizza Hut, la più grande catena di pizzerie del mondo, consente di prenotare on-line e garantisce, in certe città, la consegna a domicilio della Margherita o della Quattro Formaggi preferita.

1995 - La National Science Foundation ritiene di aver terminato il suo compito: ha incubato, investendo miliardi, lo sviluppo della Rete, adesso cresca da sola. Il traffico è dirottato sulle dorsali private che, via via, erano venute affiancandosi a quella pubblica originaria. Il WWW diventa prepotentemente la zona più trafficata della Rete. Matricola in Borsa, Netscape di Mark Andreessen, ottiene alla quotazione un risultato record (9 agosto). Ma non basta: Internet punta ancora più in alto, e sale fino al Cielo. Anche i pescatori di anime si rendono conto delle potenzialità del media. Le vie del Signore sono infinite e cominciano a trasformarsi anche in autostrade telematiche: il Vaticano on-line tocca i 40.000 contatti giornalieri durante la prima settimana di presenza in rete.

1996 - La stampa specializzata e tutti gli addetti ai lavori cominciano a focalizzare la loro attenzione soprattutto sul rivoluzionario linguaggio JAVA e su VRML (Virtual Reality Modelling Language), ovvero l'HTML per costruire ambienti virtuali in 3 dimensioni. Il 2003 viene vista come possibile data dell'en plein. Questa la scadenza entro la quale, da strapolazioni apparse nell'estate '95 su un mensile specializzato, ogni abitante del pianeta sarà collegato a Internet sulla base dell'attuale ritmo di crescita. Straordinario e mozzafiato, se fosse vero, ma ogni previsione di questo tipo risulta assai spericolata. L'autorevole Nielsen Media Research, che fa rilevazioni sul pubblico televisivo, ha fornito i primi dati con rigorose basi scientifiche: circa 37 milioni di persone, solo tra Canada e Stati Uniti, hanno accesso alla Rete. Di questi, almeno 24 milioni hanno usato Internet negli ultimi tre mesi (una quota che rappresenta l'11% della popolazione che va da 16 anni in su). In media questi utenti sono stati collegati circa 5 ore e mezza alla settimana.

Ed ecco la notizia, per qualcuno, di notevole impatto emotivo: Internet sta "mangiando" spettatori alla televisione: le famiglie statunitensi, dopo cena, invece di passare le solite "due orette" davanti alla TV lo fanno davanti al computer collegato in rete. Il tutto con grande gioia degli psicologi, che non smettono di rimarcare il grosso lavoro cerebrale che compie il cervello umano nell'interattività telematica rispetto alla ricezione passiva che si ha davanti al televisore. E finalmente abbiamo anche il primo "identikit" preciso dell'utente tipo del WWW. Dei cibernauti veniamo sapere che sono prevalentemente maschi, bianchi, di buona cultura e robusto conto in banca. Altre quantità significative sono quelle del numero di computer host che fanno "fisicamente" parte della Rete. La progressione non ha bisogno di commenti: dai 4 nodi originari del 1969 si è arrivati agli 80.000 del gennaio '89, ai 376.000 del gennaio '91, sino a sfondare il tetto dei 9.472.000 nel gennaio '96. Naturalmente l'aumento più portentoso di cui si può dare conto è quello della provincia più fortunata del mondo Internet. Da quando, a metà del 1993, il Cern di Ginevra inventa il Word Wide Web, la rete si popola di navigatori neanche fosse una miniera d'oro.

Nel 1994 le dimensioni complessive della Rete sono raddoppiate ma, nello stesso tempo, il Web si è moltiplicato di almeno 20 volte. In soli 18 mesi gli utilizzatori hanno creato più di 3 milioni di pagine che integrano informazioni, immagini e suoni, entertainment e pubblicità. Un'esplosione non effimera, secondo il settimanale inglese: "La crescita della Rete non è il frutto del caso o della moda del momento, ma la conseguenza dello sbrigliamento della potenza della creatività individuale. Se fosse un'economia, sarebbe il trionfo del libero mercato sulla pianificazione centralizzata. In musica, il jazz che ha la meglio su Bach. In termini politici, la democrazia che schiaccia la dittatura".

Un ruolo determinante nel passaggio dal bandolo delle viuzze elettroniche alle spianate a quattro corsie delle information highway che molti preconizzano da tempo sarà dato dagli "agenti intelligenti" e dai motori di ricerca, sempre più semplici e potenti. La loro funzione è proprio quella di costituire l'antidoto più efficace contro il sovraccarico da disponibilità di informazioni. Per quanto riguarda lo sviluppo delle transazioni on-line che promettono il più grande boom negli anni a venire, tutto va di pari passo con le tecniche che ne garantiscono la sicurezza. Tecniche di codifica e denaro digitale: quando i soldi degli utenti potranno circolare in Rete senza (eccessivi) rischi, non c'è dubbio che la macchina del commercio elettronico comincerà a viaggiare a pieno regime, producendo utili che fanno già gola a molti.

Il periodico specializzato Washington Technology scommetteva, nell'ultimo numero del '95, anche sulla telefonia via Internet. E si tratta di una prospettiva tutt'altro che remota. I programmi ci sono, ma vanno perfezionati e richiedono apparecchiature informatiche di una qualche sofisticazione. Se il computer ha una scheda audio, microfono e altoparlante, una volta stabilita la connessione, ciascuno a proprio turno, come nelle walkie-talkie, parlerà e ascolterà: la parola sarà digitalizzata e spedita lungo la Rete e, dopo un intervallo di circa un secondo, sarà ascoltata dall'altro capo dell'inconsueta cornetta. La qualità sonora lascia ancora a desiderare; le imperfezioni della comunicazione sulle autostrade elettroniche non sfuggiranno certo a chi ha l'orecchio fino. Ma fare una "telefonata" in Internet è oggi una possibilità reale.

Quando si ha a che fare con la Rete, spesso succede che le novità del giorno prima sembrano ammuffite a pochi mesi di distanza. Non è ancora il caso del linguaggio HTML, materia prima indispensabile della totalità del Web, ma è certo che gli emuli che stanno venendo fuori fanno guardare alla tradizionale programmazione ipertestuale come a un vecchio amico, simpatico ma limitato. Adesso bisogna fare i conti con il più pimpante VRML, inventato dal giovanissimo Mark Pesce assieme a un gruppo di ricercatori americani per costruire in Rete spazi tridimensionali. Potrebbe essere l'inizio per un ufficio virtuale dove, in ambiente immersivo persone collegate da posti diversi e lontanissimi potranno ritrovarsi e lavorare insieme per altre cose anche più piacevoli. Sostanzialmente, la novità è che VRML aggiunge la terza dimensione all'HTML, mantiene la caratteristica di essere indipendente dalla piattaforma sulla quale si trova (Unix, Windows, Macintosh), ed è un linguaggio di descrizione più che di programmazione, rivolto agli oggetti e largamente espandibile. La rivoluzione nella rivoluzione però sembra, alla maggior parte degli osservatori, costituita dal nuovo e dirompente linguaggio di programmazione dal nome semplice e accattivante e una tazza di caffè fumante come marchio: Java. Il programma della Sun che consente di utilizzare, con relativa facilità, la rete come serbatoio di programmi e applicazioni, da usare nel momento in cui sono necessari e da far ripiombare poi nel buio cyberspace. Internet è frutto della "Guerra Fredda". Nei primi anni sessanta aleggiava nel mondo il terrore di una guerra nucleare. In questi frangenti il ministero della Difesa americano avviò un progetto che aveva il fine di preservare le telecomunicazioni in caso di guerra atomica. Come avrebbero comunicato le autorità' americane dopo una guerra
nucleare? L'America del posta nucleare avrebbe dovuto avere una rete per il controllo comando collegato tra città, stati, basi. Ma in qualunque modo la rete fosse difesa, i suoi componenti sarebbero stati vulnerabili all'impatto di bombe nucleari. Un attacco atomico avrebbe ridotto qualsiasi network al silenzio. E come sarebbe stata comandata e controllata la rete? Ogni autorità' centrale sarebbe stata il primo bersaglio di ogni attacco e non esisteva alcun mezzo per garantire la funzionalità di un centro di telecomunicazioni sottoposto ad un attacco nucleare.

L'idea partorita dalla Paul Baran nel 1964 si basava proprio su questo presupposto. Se non è possibile mantenere intatta una rete di telecomunicazioni, è necessario allora creare un'infinità di strade alternative per la circolazione dei dati , in modo che anche l'eventuale distruzione di molti dei nodi funzionanti non interrompesse il flusso delle informazioni all'interno della rete.
La struttura doveva essere in grado di resistere nel caso una guerra avesse intaccato parte della rete: non doveva essere quindi un progetto accentrato, ma costruito in modo che ciascun calcolatore fosse autonomo nella sua comunicazione con gli altri nodi.
Questa rete non avrebbe dovuto essere controllata da alcuna autorità centrale, perché questa sarebbe stato il primo bersaglio in caso di guerra. Tutti i nodi della rete sarebbero dovuti essere sullo stesso piano degli altri, ogni nodo con la propria autorità di generare, trasmettere e ricevere dati e informazioni. Tali messaggi, quindi, sarebbero stati divisi in pacchetti ed ogni pacchetto separatamente indirizzato. Ciascun pacchetto sarebbe partito da uno specifico nodo sorgente e finito ad un altro nodo di destinazione e sarebbe andato in giro attraverso la rete su base individuale. Non importava che giro facesse, ma solo il risultato finale. Il pacchetto sarebbe stato sballottato da nodo a nodo come una patata bollente, più' o meno nella direzione della sua destinazione, fino a giungere nel posto che gli spettava. Se pezzi consistenti di rete fossero stati distrutti, si poteva comunicare tramite nodi ancora attivi.

Internet nasce con il nome di Arpanet (con lo "sponsor" del Pentagono) il 2 settembre 1969, quando i primi storici quattro nodi universitari vengono connessi tra loro. Generata dal lavoro di un'agenzia del governo Eisenhower, l'ARPA, negli anni successivi perde la sua destinazione militare e si espande, divenendo una piccola rete di reti, una confederazione di network diversi che si diedero un protocollo comune per parlare tra di loro attraverso un sistema aperto a cui si potevano collegare ulteriori reti di diverso tipo.

Negli anni '80 muore Arpanet e nasce Internet, mentre si impone il protocollo TCP/IP quale "insieme di regole comuni" per far dialogare in una "lingua comune" computer di tutti i tipi.

Negli anni '90 vengono progettati e realizzati i servizi NIR : Archie, WAIS, Gopher e soprattutto il rivoluzionario WWW. Dopo essere stata per anni uno strumento di ricerca, Internet vede l'affermarsi anche dei servizi commerciali.

A tutt'oggi Internet non è posseduta, né gestita da una singola autorità e consiste in un insieme di autostrade e strade telematiche in grado di veicolare una gamma di servizi ed un patrimonio informativo enorme che fino a poco tempo fa era di appartenenza ed uso esclusivo dei centri di ricerca, mentre oggi è aperto a tutti.

Questo, a grandi linee, lo sviluppo di un internetwork che coinvolge oggi tutti i centri di ricerca, tecnologici, scientifici ed universitari d'America, d'Europa e di molti altri paesi del mondo, e che sta cominciando a coinvolgere in modo sempre più massiccio il mondo delle famiglie, delle imprese e delle aziende. Internet oggi è il luogo dove scorrono tutti i generi di informazione, non solo di tipo tecnico-scientifico, tanto da essere definita la "Information Highway". Oggi sono circa 50 Milioni gli utilizzatori della rete, ormai definita come la nuova "potenziale miniera d'oro" per le tecnologie dell'informazione del 2000. Tant'è che attualmente Internet è il più potente mezzo di comunicazione esistente, e tutto lascia credere che diventerà il medium per eccellenza del futuro.

COSA E' INTERNET OGGI ?

Host e reti in Internet

In Internet si parla di host che sono i calcolatori , e di network ( parola inglese che significa rete ) , che rappresenta l' insieme delle infrastrutture di comunicazione cui sono collegati gli host .

Per potersi scambiare pacchetti, vale a dire messaggi di una certa lunghezza massima, in Internet gli host sono contraddistinti da indirizzi. Ogni singola macchina viene identificata su Internet tramite un indirizzo formato da 4 serie di numeri, ognuno che va da 0 a 255.

L'uso di indirizzi numerici per identificare gli host e' senz'altro conveniente per i programmi , ma risulta decisamente ostico per gli utenti.

Per fornire percio' la possibilita' agli utenti di riferirsi agli host con dei nomi significativi, e' stato creato in Internet il DNS ( Domain Name System ) , che mette a disposizione un servizio distribuito ed estensibile per risolvere i nomi degli host espressi con caratteri alfanumerici in indirizzi prettamente numerici e viceversa .

I nomi di Internet

Alcuni nomi statunitensi:
- .edu per le Universita'
- .gov per le organizzazioni governative americane
- .mil per l'esercito americano
- .net per le organizzazioni che operano nelle comunicazioni
-.org per le organizzazioni ( non meglio definite)
Questo tipo di classificazione non e' stata piu' ritenuta valida con l'estensione al di fuori degli USA di Internet ; e' stata quindi creata per la definizione delle risorse Internet Internazionali una gerarchia con al vertice il codice di due caratteri della nazione . Ad esempio:
- .it per L'italia
- .fr per la Francia
- .de per la Germania
- .uk per l' Inghilterra
 

                                            IL WEB

CONCETTI GENERALI

La storia

La necessita' contingente che ha fatto nascere l' idea del WWW e' banale : poter mettere insieme documenti di vario tipo ( testo ,video , immagini , suono , ecc. ) in un unico ( iper ) testo , senza riguardo alla loro reale collocazione fisica , utilizzando un' unica interfaccia semplice ed elegante e fornendo inoltre la possibilita' di integrazione trasparente con i servizi gia esistenti , e con quelli futuri.La fortuna di World Web e' strettamente legata a quella del linguaggio che ne consente la rapida e veloce stesura di documenti contenenti informazioni: l'HTML.

I "browser" e i server

"browser" ( visualizzatori di informazioni dello spazio WEB )

Ipertesti e multimedia

Il concetto e' racchiuso nella parola stessa "multi"-"media"( o meglio nei due termini "multi" e "media" che la compongono ) .
Se si considera che "media" significa un qualunque mezzo espressivo ,dal testo, all'immagine , al video, al suono, e "multi" sottintende il concetto di molteplice unione non disgiunta di entita' differenti .

Il concetto di Link

Un ipertesto e' un testo contenente link. "Link" in inglese significa "collegamento". In effetti un "link" altro non e' che un collegamento logico con un altro "testo".

Uniform Resource Locator (URL)

Grazie all' ideazione del WWW ed al suo impatto si e' giunti con una maggiore rapidita' alla definizione di una regola che consentisse di uniformare l' indirizzamento dei singoli servizi. Questa regola prende il nome di URL , Uniform Resource Locator. Con la stessa sintassi e' in grado di indirizzare tanto un server WWW , quanto uno FTP , quanto un servizio di Telnet.

COLLEGAMENTO INTERATTIVO

Queste applicazioni consentono il collegamento su di un computer remoto, con le stesse potenzialita' di chi sia realmente seduto al terminale direttamente attaccato a quella macchina . Questo primo classico servizio e' noto come TELNET.  TELNET consente quindi in rete Internet il collegamento da una postazione di lavoro locale ad un qualsiasi computer conesso alla rete.
Per utilizzare TELNET occorre conoscere l' indirizzo IP dell' host che si vuole raggiungere ed avere un account sull' host stesso, cioe' essere abilitati dall' amministrazione del sistema remoto alla login su quell' host e conoscere la propria userid e la corrispondente password con cui presentarsi all' inizio della connessione.

FILE TRANSFER (FTP)

L' FTP si preoccupa della protezione degli accessi alle aree del sistema remoto su cui prelevare, o su cui depositare , documenti. Viene cosi ad essere richiesta ad ogni connessione FTP una login ed una password per l'accesso all' area richiesta .  Infatti FTP consente solo di scrivere o prelevare su aree disco definite.

Shareware

Il programma e' distribuito in prova per un periodo prefissato, se poi si intende continuare ad utilizzarlo occorre regolarizzare la propria posizione tramite una registrazione e l ' invio di una somma .

Public Domain

Si tratta di programmi a disposizione di tutti forniti senza necessita' di registrazione e di licenza d ' uso in formato sia sorgente che eseguibile e completi di documentazione.

Freeware

E' una forma di distribuzione simile alla precedente se non per il fatto che viene distribuito solo il codice eseguibile.

POSTA ELETTRONICA

Per milioni di utenti sparsi per il mondo Internet e' quel servizio che permette lo scambio di messaggi, senza l ' utilizzo di carta e di francobolli , in tempo reale , e consente di recuperare software e documenti , anche in formati di alta qualita', direttamente sulla propria stazione di lavoro. Per milioni di utenti Internet significa infatti posta elettronica. Il concetto e' semplice : ogni utente in Internet puo' avere un proprio indirizzo di posta del tipo : utente@indirizzo.internet , dove l' indirizzo . internet e' l' indirizzo letterale di un server in rete e l' utente e' un nome univoco all' interno di quell' indirizzo.

Mailing List

Si tratta di liste di discussione attuale in internet tramite servizio di posta elettronica. Anche qui il concetto e' semplice: tutti gli interessati ad un dato argomento si iscrivono via e-mail in una data lista di distribuzione . Da quel momento in poi, fintanto che lo vorranno, riceveranno una copia di ogni messaggio inviato alla lista e potranno a loro volta discutere mandando messaggi come se si trovassero a sedere all' interno di un forum virtuale.

NEWS

Questo strumento e' simile alle mailing list prima citate poiche' consente anch' esso la creazione di forum di discussione tematici.
La differenza consente nel fatto che mentre un messaggio inviato ad una mailing list viene inviato ai soliti iscritti alla lista stessa , un messaggio sottomesso ad un servizio news viene registrato all' interno di un'area prescelta dal mittente e messo a disposizione di chi vuole leggerlo per un numero prestabilito di giorni , trascorsi i quali viene cancellato.

GOPHER

Si tratta di un servizio ormai obsoleto ( sempre meno server Gopher infatti vengono mantenuti ed aggiornati ). Il Gopher puo' quindi essere considerato come un servizio di recupero dell' informazione a struttura gerarchica . E' stato lo strumento che ha piu' contribuito , insieme a WWW, nato successivamente , all' ampliamento dell' utenza della rete , proprio per la sua semplicita' di utilizzo , e varietà di informazioni presenti.

OPAC

L' acronimo significa Online Public Access Catalogue ovvero cataloghi in rete di pubblico accesso.

VIDEO CONFERENZA

Una delle necessita' sentita subito dall' utenza della rete e' stata quella di effettuare dibattiti a distanza che non si limitassero allo scambio di messaggi di posta elettronica ma diventassero man mano sempre più interattivi. Sono nati così tutti quei protocolli e quei prodotti atti a trasmettere in tempo reale immagini e video, cioè i tool per videoconferenza. La possibilità di vedere immagini e sentire audio in tempo reale con possibilità di intervenire nella discussione, o condividere una stessa lavagna virtuale con persone fisicamente agli antipodi, hanno fatto il successo diq uesto tool. Unico motivo che ancora tiene a freno l'esplodere di questi è il fatto che per poter ottenere una buona qualità del servizio occorre essere in possesso di una velocità di connessione non alla portata di tutti (minimo 64 kb/s, anche se una ricezione e spedizione ottimale si ha solo con velocità ben superiori).

IRC CHAT

Internet Ready Chat, o semplicemente Chat. Questo strumento consente il colloquio tra più utenti posizionando ogni interlocutore all'interno di una enorme e condivisa tavola rotonda a cui ognuno può partecipare. Uno dei software più diffusi per l'effettuazione di chat in rete è sicuramente mIRC disponibile all'indirizzo http://www.mirc.queen.it/.

REALTA' VIRTUALE (VRML)

Su unternet può essere trasportato qualunque tipo di media, sia questo suono, video o testo. Con i computer, la realtà virtuale, la visualizzazione tridimensionale di scenari inesistenti, ed esistenti, ha potuto avere luogo. Il vrml consente, la creazione dello 'spazio sulla rete e la navigazione all'interno di questo'. Il VRML, Virtual Reality Modeling Language, è un linguaggio di programmazione che consente la simulazione di mondi virtuali interconnessi tramite Internet, visualizzabili tramite pagine Web

JAVA

Java è un linguaggio di programmazione . E' stato studiato dai tecnici di SUN Microsystems al fine di arricchire Internet di nuove capacità e funzionalità: Integrato nello strumento principale della comunicazione via rete, il World Wide Web, ne aumenta il livello di interattività. La filosofia di Java si racchiude in uno slogan: indipendenza dalla piattaforma ! Non più miriadi di applicazioni scritte ad hoc per le singole piattaforme (UNIX, Windows o MAC) ma un solo codice eseguibile su tutte.

COMBINAZIONI HARDWARE E SOFTWARE

La combinazione hardware/software ottimale per la connessione alla rete dipende fortemente dalle proprie necessità e dall'eventuale esigenza di adattare una configurazione già acquistata in precedenza. Oggettivamente si ritiene che la piattaforma ottimale debba possedere almeno queste particolarità: Una memoria (RAM) Un minimo di 16 Mb è essenziale. Un video 14" in grado di visualizzare almeno la risoluzione 640x480 a 256 colori, VGA, Inoltre la presenza di una memoria video di 1 mb o più , innalza le prestazioni grafiche a tutto vantaggio della fruibilità del servizio che si sta consultando. Un hardware in grado di prevedere almeno una porta seriale (per un eventuale modem esterno) una porta parallela (per un'eventuale stampante possibilimente a colori!) Un processore in grado di supportare agevolmente l'hardware grafico installato e le applicazioni di navigazione sulla rete. Un buon punto di ingresso può essere considerato il Pentium 166MMX, anche se i vecchi 486/66 o Pentium 133 si comportano in maniera abbastanza agevole.

LA SCELTA DEL MODEM

Scegliere un buon modem, cioè lo strumento primario per poter usufruire di un collegamento ad internet di tipo non continuativo. La prima scelta da effettuarsi è relativa al tipo di connessione che si vuole utilizzare: commutata normale o ISDN.  Nel primo caso si intende utilizzare la linea telefonica analogica tipica del collegamento telefonico. Nel secondo invece si vuole usare una linea ISDN, che può essere installata a cura di Telecom Italia su richiesta, sostituendo o affiancando, la normale linea telefonica, essendo in grado di trasportare in maniera digitale sia dati che voce: in questo caso occorrerà acquistare una opportuna scheda di connessione (e siglare un appropriato contratto col provider!). Un ultimo fattore da tenere presente è se il modem in esame è esterno, cioè collegabile al computer tramite un cavo e la porta seriale dello stesso oppure interno, cioè inserito come una scheda all'interno del 'case', l'involucro del PC stesso.

LA SCELTA DEL PROVIDER

Un provider può essere scelto a scapito di un altro per svariati motivi, della presenza sul territorio nazionale, alla dislocazione geografica del proprio conto di partenza più vicino, all'assistenza e professionalità dello staff tecnico. Un punto comunque non deve mai essere sottostimato: la tipologia di connessione che lo stesso è in grado di dimostrare avere verso l'estero e verso gli altri provider nazionali. Una persona che per lavoro è portata ad assentarsi spesso dal proprio luogo di residenza è sensibile a quel fornitore di collettività che è in grado di garantirgli una possibilità di connessione da un numero più alto possibile di città sparse sul territorio nazionale (e non solo) alla tariffa urbana. Chi invece intende abbonarsi e ritiene di utilizzare la connessione sempre dalla stessa postazione, può rivolgersi tranquillamente ad un qualunque dei provider che gli consentono la connessione tramite una telefonata a tariffa urbana. Il provider deve dimostrare di avere una buona banda verso l'estero e poter garantire il  traffico nazionale tramite appropriati "gateway", oltre che una politica di rapporto modem/numero-utenti che non vada a scapito del servizio reso. Un ottimo rapporto è 1/5 uno buono è 1/8, 1/10, mentre occorre tenere presente che esistono provider con rapporti di 1/40 !

SLIP (Serial Line IP) e PPP (Point to Point Protcol)

E' il collegamento più diffuso ad internet proposto dai provider e prevede la connessione  tramite una linea telefonica commutata (quella di casa, per intenderci!). Con i modem omologati presenti attualmente sul mercato nazionale è possibile       raggiungere al massimo velocità di trasferimento dati di 33.6 kb/s. La connessione avviene normalmente tramite la verifica di una coppia di chiavi (userid e password) fornite dal provider al proprio cliente

ISDN

Ha le stesse caratteristiche fondamentali del collegamento SLIP/ PPP, con la variante che la connessione avviene su linea digitale ISDN con velocità minima di 64 kb/s incrementabile di 64 kb in 64 kb. I costi a listino sono generalmente maggiori rispetto ad una connessione SLIP/PPP, ma non se ne differenziano poi molto. Richiede una scheda particolare (di poco più costosa di un Modem classico) e l'attivazioneda parte Telecom della linea ISDN. Inoltre ogni connessione è, come per la connessione SLIP/PPP, soggetta alla tariffazione a scatti del fornitore.

APPROFONDIMENTI SULLA POSTA ELETTRONICA

Perchè utilizzare la posta elettronica? Principalmente per tre motivi: perchè fa risparmiare tempo, perchè fa risparmiare carta, perchè fa risparmiare soldi.

STMP

Il semplice protocollo di trasferimento postale, STMP (Simple Mail Transfer Protocol), utilizzato da TCP/IP, e quindi da Internet, per lo scambio di posta tra macchine è, come dice la parola stessa, molto semplice. Questo standard specifica l'esatto formato dei messaggi che si scambiano la macchina spedente, client, e quella ricevente, server, per effettuare il trasferimento di una e-mail, dal mittente al destinatario. Il processo si può suddividere logicamente in 5 fasi ripetibili:
1. Il client chiede la connessione al server remoto ed aspetta la sua identificazione.
2. Ricevuta la risposta del server che asserisce di essere pronto per instaurare una sessione di trasferimento di posta, il client invia un messaggio di saluto ("HELO") che sta a significare : "O.K. ciao , cominciamo il lavoro !";
3. Comincia quindi il trasferimento vero e proprio del, o dei, se più di uno, messaggi, e-mail, tra client e server; quest'ultimo in questa fase effettua tutti i controlli del caso: se l'utente ha un destinatario ha un indirizzo di posta su quella macchina ,se il mail è stato spedito senza errori,ecc.,rispondendo nel caso di successo dell'operazione con un messaggio del tipo :"250 OK".
4: Opzionalmente a questo punto il client può richiedere al server di scambiarsi i ruoli per ottimizzare la sessione stabilita e quindi trasferire gli eventuali messaggi in coda tra la macchina che attualmente svolge funzioni di server e quella client;
5: La sessione viene quindi conclusa e la connessione terminata con un messaggio di tipo:"QUIT".
Quando si utilizza un client di posta locale (come Netscape,Eudora,Microsoft Outlook Express o altri) è necessario appoggiarsi ad un server SMTP di interfaccia che svolga la funzione di client e server verso tutti gli altri presenti su Internet.

POP

Il POP ,Post Office Protocol, si preoccupa di gestire il trasferimento degli e-mail tra il server SMTP.

MAILING LIST E LISTSERV

Il concetto di mailing list è molto semplice: un sito centrale mantiene in maniera automatica una lista di persone interessate ad un dato argomento (con i loro relativi indirizzi di posta elettronica) e la loro referenzia con un nome di piacere (il cosiddetto nickname). Ogni messaggio recapitato all'indirizzo unico della lista, viene inviato automaticamente a tutti gli indirizzi scritti alla lista. In tal modo si crea una vera e propria conferenza globale. Listserv consente principalmente due tipi di operazione: la gestione delle mailing list con la conseguente memorizzazione dei messaggi spediti alle stesse, e l'archivazione di file,

LA RICERCA DI PAGINE WEB

Nuovi strumenti di ricerca di indicizzazione di server WWW sono in continuo sviluppo, proprio in rapporto all'enrome espansione del contenuto dell'informazione disponibile e dalla sua difficoltà di reperimento.

Infoseek
Questo servizio http://www.infoseek.com/, reso disponibile dalla Infoseek Corporation fornisce una ricerca full text su un indice formato da pagine WWW, articoli NEWS ed elenchi di indirizzi di posta elettronica. Offre inoltre una suddivisione per categoria merceologica dei siti indicizzati. Infoseek fornisce il motore di ricerca per lo spazio Web non italiano a VIRGILIO     (http://www.virgilio.it/), attualmente il più grosso catalogo nostrano di risorse Internet.

WebCrawler
WebCrawler, http://webcrawler.com/, è stato il primo motore di ricerca full text su internet.

Lycos
Lycos, http://www.lycos.com/, è unoi dei cataloghi di Internet più famosi, inizialmente prodotto presso la Carnegie Mellon University.

Yahoo!
Yahoo (http://www.yahoo.com/) è insieme a Lycos probabilmente il più antico e famoso catalogo di risorse in rete. La definizione catalogo è infatti la più appropriata per questo strumento in quanto sin dall'inizio si è configurato come un indice di risorse suddivise in categorie di rilevanza, ricercabili per parola chiave ma soprattutto suddivise per area tematica.

Altavista
Altavista (http://www. altavista.digital.com/), attualmente il più potente ed aggiornato motore di ricerca presente su Internet, Digital Equipment infatti non ha lesinato fondi per la costituzione di questo progetto, ormai punto di riferimento per tutti i naviganti della rete.

Virgilio
Se Altavista rappresenta la potenza dei motori di ricerca in ambito mondiale, lo stesso posto a livello nazionale può essere assegnato a Virgilio (http://www.virgilio.com/), una iniziativa di Telecom Italia.

Cusi
L'idea di base del servizio fornito da CUSI , è quella di fornire la possibilità all'utente di interrogare vari cataloghi e database sparsi per il WEB direttamente da una interfaccia. Il servizio è offerto da Altair all'URL: http://www.altair.it/cusi.html.

Savvy Search
Http://www.cs.colostate.edu/^dreiling/smartform.html. La differenza tra CUSI e SavvySearch risiede nel fatto che mentre CUSI prevede l'interrogazione di un catalogo per volta, SavvySearch, invia richieste parallele a differenti cataloghi