13 aprile 2005, mercoledì
FROM CAAD TO BIT
Alla base del computer vi è il "calcolo"
anche se oggi in realtà il computer si utilizza più spesso per
altre applicazioni.
Esiste sin dall’antichità un rapporto tra strumento di calcolo
e oggetto da misurare. La ricerca dell'uomo verso la razionalizzazione del
calcolo ha origini molto antiche, infatti questa lezione, che ha lo scopo
di evidenziare le evoluzioni di questa ricerca, potrebbe essere intitolata
"dalla groma al computer"
BABBAGE E LA MACCHINA DA CALCOLO
Nei primi dell’800 con la rivoluzione
industriale e lo sviluppo del mondo scientifico, nasce la necessità
di avere un calcolatore meccanico, conseguenza del fatto che tutto si sta
movendo verso una meccanizzazione.
La prima macchina manuale per effettuare calcoli è stata inventata
nell'800 da Charles Babbage (1792-1871) che associa dei movimenti meccanici
ai calcoli. Questa macchina diede la possibilità di incrementare il
lavoro industriale attraverso l’automatizzazione. Le macchine tessili,
ad esempio, possono essere considerate come un sistema di programmazione legato
al calcolo.
BOOLE ED IL LINGUAGGIO BINARIO
Nella metà del 1800 George Boole scopre e codifica un linguaggio di 2 entità, lo 0 e l’ 1, dando vita alla logica binaria. La sua scoperta tuttavia non fu subito attuata, ancora non si immaginava la sua futura importanza.
DALLA SCHEDA PERFORATA AL CIP
All'inizio del '900 il calcolo e la catalogazione diventano importanti in
America per le statistiche.
Nasce l'IBM (International Business Machine). L’industria americana
inventa la scheda perforata (anni '30) un tentativo meccanico e non ancora
elettronico di razionalizzazione dei dati.
Verso il 1920-30 ci sono delle sovrapposizioni
tra il mondo elettronico ed il mondo di calcolo attraverso due passaggi o
salti:
- il passaggio da un sistema meccanico ad uno elettrico. L'elettricità
sta diventando il nuovo catalizzatore (è stata definita infatti la
II Rivoluzione Industriale);
- l’utilizzo della LOGICA BINARIA di Boole: dire e scrivere tutto solo
attraverso 0 e 1 per realizzare il grande computer che usa l’impulso
elettrico. Il sistema binario è adatto perché gioca su due elementi
che rappresentano la presenza o l’assenza dell’impulso elettrico.
Ancora adesso i computer sono sostanzialmente basati sulla logica binaria.
Questo tipo di computer occupa molto spazio, interi piani di un edificio in
quanto basato su grandi valvole.
Nel 1948-49 si ha un’altro passaggio importante: la valvola viene sostituita
dal transistor, un modo più compatto per far passare i cavi elettrici,
che riducono di circa 10 volte le dimensioni dei computer (metà anni
'50 ca). Il computer è ancora destinato solo al business finanziario
e militare (alle piccole élite).
Negli anni '60 viene inventato il SILICIO e il MICROCHIP, che riducono ancora
di più le dimensioni. Inoltre vengono inventati i circuiti stampati.
Nel 1965 esistono gli elementi base della tecnologia, infatti l’energia
elettrica viene sfruttata per un circuito stampati, si ha la commercializzazione,
la diffusione e la formalizzazione del sistema.
IL PERSONAL COMPUTER
Negli anni '60 c'è anche la presa di coscienza della libertà
dell'individuo , la società è diventata "di massa".
Cominciano infatti i primi assemblaggi di computer per hobby. I primi database
venivano incisi con i mangianastri delle videocassette. L’ evoluzione
ha quindi una totale deviazione grazie alla nascita del personal computer.
Jobs, un visionario, e Wozniak, un ingegnere, iniziano a lavorare insieme
e inventano qualcosa di completamente nuovo: essi volevano creare un computer
del tutto personale, legandosi alla politica di minare il potere dal basso.
Nel 1976-77 nasce il primo personale computer, che riesce ad essere commercializzato.
Le nuove macchine da loro ideate rappresentano una direzione opposta all'IBM.
Tutto nascerà nel garage di casa fino alla presentazione dell'APPLE
1: questo aveva solo una circuit board, uno schermo e una tastiera (ancora
non era previsto un sistema di inserimento dei dati).
Nasce l'Apple 1, Apolusion e l'Apple 2, un sistema programmabile dotato di
:
-set di istruzioni codificato
-applicativi
La nascita dei personal computer da vita a fenomeni di grande portata.
Nel '77-'78 entra in società con Jobs e Wozniak una terza persona che
dà il supporto finanziario e nasce la prima linea Apple come computer
per tutti e non per un'élite. La società avrà un enorme
successo in borsa facendo aumentare i guadagni a livello esponenziale. Inoltre
i computer non sono più oggetti rigidi e amovibili ma quasi portatili.
La produzione in serie dei pc comincia con l'apple 2.
Le grandi corporation cominciano ad entrare in campo verso il 1982 quando
la IBM commercializza il suo primo PC, entrando quindi nella nuova logica
del personal.
BILL GATES E L’MS-DOS
I personal computer realizzati erano diversi tra loro, a secondo delle regole
che il programmatore stesso decideva di inserire per impostarlo e istruirlo.
Ogni programmatore lo faceva in modo diverso.
Bill Gates, che era all'epoca un giovane studente di Harward, elabora un sistema
operativo standardizzato (DOS), un linguaggio per dare comandi al PC. L'intuizione
è quella di aver reso indipendente questo sistema dalle macchine stesse.
Questo linguaggio si basa su informazioni standard, scrivendo su una base
hardware un linguaggio semplice ed unificato. Quindi l’idea di un linguaggio
comune diventa la base di ciò che si svilupperà. Il sistema
di Gates è diversissimo fin dall'inizio dall'Apple.
Il salto lo si ha quando nel 1980 l’IBM,
che vendeva soltanto grandi computer, decide di commercializzare il PC.
Gates voleva vendere il programma ma il padre gli consigliò di farsi
dare una quota ad installazione, tenendo per sè i diritti.
Quindi l’IBM compra il codice creato da Bill Gates sulla base della
“royal bit”.
Nei primi pc vengono introdotte delle informazioni di base (ROM) e una memoria
modificabile (RAM): il pc diventa quindi ancor più modificabile.
Nel 1982-83 il Pc diventa una presenza importante e un bene di consumo.
Lo sviluppo del sistema è cresciuto vertiginosamente, offrendo processori
sempre più sofisticati e potenti.
Gordon Moore nel 1965, osserva che la velocità dei computer aumenta
ogni anno più del doppio, con una legge non lineare, ma esponenziale,
diminuisce l’ingombro ed i costi in rapporto alla qualità. Questo
andamento sarebbe continuato nel futuro. Si prevede che la legge di Moore
durerà almeno per altre 2 decadi.