Per iniziare, mi sembra il caso di chiarire il significato di alcuni
termini tecnici del settore, spesso "maneggiati" senza cognizione di causa,
spesso in grado di scoraggiare chi per la prima volta si accosta per caso
ad una rivista di computer. Innanzitutto un minimo di storia dell'elaborazione
dei dati, che offrirà anche l'occasione per familiarizzare con quei
termini di lingua inglese che sono oramai parte integrante di queste discipline.
Sebbene i primi progetti siano del 1840, il primo elaboratore elettromeccanico
(Z3) venne realizzato nel 1941 in Germania e conteneva ingombranti
relè (apparecchio costituito da 2 sistemi, il secondo del
quale si attiva solo quando il primo raggiunge un valore prefissato, secondo
una legge detta "del tutto o nulla") nella sua parte per così
dire strutturale o fisica (hardware) : questi vennero sostituiti
negli U.S.A. da tubi termoelettronici e nacquero così gli elaboratori
elettronici (o computer, oggigiorno "personali" o "PC") della
1ª generazione (1946-58). Al di là dell'hardware, la
parte programmabile, che è poi quella per noi più importante,
prende il nome di software, a sua volta distinguibile in software
di sistema o di base (comprendente il sistema operativo di cui parleremo
oltre) e in software applicativo (i "programmi", come li chiamiamo
comunemente). Nella seconda generazione di elaboratori (1958-64)
l'hardware venne sostituito ancora, stavolta dai moderni e microscopici
transistori (per chi abbia nozioni di fisica, si tratta di triodi
a semiconduttore, principalmente silicio, l'elemento base di molti componenti),
ma fu il software a subire la grande rivoluzione. Bisogna infatti pensare
che fino a quell'epoca, sfruttando i 2 diversi stati fisici di relè
o transistor e l'analogia acceso/spento=0/1, la programmazione avveniva
con il linguaggio di macchina, dando cioè informazioni
(lettere e cifre) sotto forma di scrittura posizionale, usando le
sole cifre 0 e 1 (con le stesse regole che noi usiamo comunemente sul sistema
decimale, usando le dieci cifre da 0 a 9 per rappresentare i numeri): ogni
unità di rappresentazione prendeva il nome di bit (da binary
digit o simbolo binario), che venivano raggruppati in gruppi di 8 o
byte, a loro volta raggruppati in "parole". In tale modo però
le informazioni subivano un "allungamento" che rendevano questo codice
di difficile uso per i programmatori e pertanto vennero introdotti i linguaggi
simbolici: la comunque ancora necessaria routine della traduzione
(da linguaggio simbolico a linguaggio di macchina) venne automatizzata
introducendo i cosiddetti sistemi operativi (spero di non essere accusato
di fare pubblicità occulta se citerò quale esempio le varie
versioni di Microsoft Windows), che contengono inoltre le varie utilities
con strabilianti funzioni di controllo di quanto attraverso le interfacce,
entra (input, tramite tastiere alfanumeriche, mouse meccanici
o ottici, joystick, track-ball, microfoni, etc.., tutti termini
che approfondiremo in seguito) ed esce (output, sotto forma di scritte
su schermi video o monitor, stampa, registrazione, segnali audio
da casse stereofoniche, etc..) da dispositivi esterni al computer: non
bisogna stupirsi se all'origine di questo sviluppo si trova il principio
di retroazione avanzato da C.E.Shannon nella teoria dell'informazione
del 1949, alla base anche della cibernetica (a titolo di esempio
cito il DataGlove, il famoso guanto per la realtà virtuale),
della bionica e della teoria degli automi. Infine la 3ª
generazione di computer, quella a noi più vicina, da semplici
strumenti di calcolo i computer diventano veri e propri sistemi e gli elaboratori
elettronici digitali (basati come si è detto sul linguaggio di macchina,
sequenziale, precisissimo ma per questo "lento") vengono affiancati da
quelli analogici (basati su variabili continue, come la tensione
elettrica o voltaggio, anzichè discontinue come erano le cifre 0/1:
velocissimi ma meno precisi). Ad ogni modo sono i primi che trovano largo
impiego nella gestione amministrativa (e che quindi possediamo come PC),
mentre i secondi trovano impiego solo nei simulatori e nei calcolatori
più complessi. Per file (lett.archivio) si intende un insieme
organizzato di dati registrati su supporto magnetico (hard-disk,
floppy-disk, tc.).Nell'ambito di un file i dati sono organizzati
in articoli (o record). Dalla tecnologia dei CD (compact-disc),
i ben noti dischi per la riproduzione musicale (incisi, anzichè
coi classici solchi degli LP, secondo l'oramai chiarito linguaggio
digitale, che qui diventa una successione di incavo microscopico o pit=1
e assenza di incavo o land=0) derivarono poi : 1) le memorie
di massa a disco magnetico degli hard-disk (dischi rigidi
o fissi di memoria variabile fino a diversi gigabyte, installati nel core
dei computer) e dei floppy-disk (dischetti flessibili asportabili:
quelli attuali hanno dimensioni di 3,5 pollici e possono contenere fino
a 1,44 megabyte (MB) di dati; i loro apparati di lettura e scrittura sono
detti driver); 2) le memorie a dischi ottici (così
chiamati perchè "letti" e "scritti" da dispositivi ottici equipaggiati
con laser di ridotta potenza) degli altrettanto ben noti CD-ROM (compact
disc read only memory, non più modificabili dopo l'incisione
e per questo dette anche "memorie non volatili") e le memorie a nastro
usate per le copie di sicurezza (memorie di back-up) dei contenuti
dell'hard-disk. ROM è un'altro dei termini più usati, spesso
in contrapposizione a RAM (acronimo di Random Access Memory, o memoria
ad accesso casuale), che a differenza dei ROM, consentono, oltre alla lettura,
anche la sovrascrittura : tutte queste creazioni sono in parte frutto dei
progressi dell'alta tecnologia (high-tech). L'unità centrale
del computer è costituito dal microprocessore, un chip (piastrina
di silicio di meno di 1 cm² su cui sono ricavati un'infinità
di microcircuiti integrati o transistori) installabile nei dispositivi
esterni mediante la ben riconoscibile doppia fila di "piedini" (pin):
a titolo di esempio si possono citare i ben noti Intel 80286, 80386,
80486, Pentium, etc... (altri produttori sono IBM, Motorola,
Hewlett Packard). Lasciando da parte i joystick e i track-ball
(i cui impieghi sono limitati ai videogiochi o videogames per la
estrema semplicità d'uso che palesa la prontezza di riflessi dell'operatore),
il principale accessorio per spostare sul video un cursore luminoso (quadratino,
freccia, lineetta verticale o orizzontale che sia) è il mouse,
che può essere meccanico (il più comune), cioè basato
sullo scorrimento sul tappetino ruvido di una sfera posta all'interno della
scatoletta, od otticoi (così chiamato per il sistema di "lettura",
che richiede tappetini grigliati), la cui maggior precisione ne fa uno
strumento utile ma limitatamente diffuso (ad es. nel campo della grafica).
Altra unità periferica di input importante per l'editoria individuale
(Desk Top Publishing) è lo scanner (a trascinamento
del foglio o a piano fisso), in grado di leggere testi (risparmiando il
lavoro di "battitura" sulla tastiera) ma soprattutto di "digitalizzare"
immagini grafiche complesse. Tra le unità periferiche di output,
importantissimi sono chiaramente lo schermo video (display), la
cui risoluzione è indicata col numero di pixel (da picture
element, cioè di unità elementari, o raggruppamenti di
punti-fosforo, visualizzabili) per unità di superficie. Importante
è anche munirsi di una protezione dalla quantità di
raggi catodici che oltrepassa lo schermo, inconveniente eliminato negli
schermi piatti a cristalli liquidi (diffusi soprattutto nei portatili e
negli schermi a sfioramento tattile o touchscreen). Altra unità
di output basilare è ovviamente la stampante : sostituite (tranne
che negli uffici pubblici per esigenze di sicurezza) le vecchie e rumorose
stampanti a matrice di punti (dot matrix) o "ad aghi", oggigiorno
la scelta è tra stampanti a getto d'inchiosto (ink-jet printer)
e le oramai solo di poco più costose, (ma in compenso incredibilmente
veloci, silenziose ed efficienti !) stampanti laser. In entrambi
i casi la risoluzione viene misurata in dpi (acronimo di dot
per inch ovverò punti per pollice) e, se nelle ink-jet varia
tra 180, 360 e 720, in alcune laser raggiunge i 2000. Venendo ai software,
l'elaborazione dei testi (videoscrittura) viene realizzata coi cosiddetti
word processor, dotati di un menù di opzioni, di un menù
di aiuto (help) e di funzioni automatiche di editing per l' "abbellimento"
dei documenti (sottolineatura, giustificazione, marginatura e centratura
dei testi, spaziature automatiche, inserimento tabelle, vari stili di caratteri
o font - le 3 più usate sono senz'altro Times New Roman,
Courier New e Arial - di altezza anch'essa regolabile, scorrimento
o scrolling di righe o pagine, etc..). La successiva coniugazione
del trattamento automatico dell'informazione per mezzo di computer (infor-matica)
e delle telecomunicazioni portò infine alla nascita della telematica
e dei vari servizi Teletext, Videotex, Bureaufax e
Posta elettronica (canonizzati in Italia rispettivamente coi nomi
Televideo, Videotel, Telefax e Postel). Uno
degli apparecchi di base è il modem (abbreviazione di modulatore-demodulatore),
in grado di fare da "interprete" bidirezionale (a seconda che il messaggio
sia in input o in output) tra il linguaggio di macchina (digitale) del
terminale domestico e quello analogico della rete telefonica. La posta
elettronica consiste nell'assegnazione all'utente di una casella postale
elettronica (mailbox o più comunemente e-mail) e nell'invio
ad uno o più (mailing list) destinatari contemporanei il
messaggio, testo, immagini o archivio dati (database), eventualmente
richiedendo un "avviso di ricevimento" (acknowledgment): nel caso
di Postel i più avranno senz'altro notato che i destinatari, se
non abbonati, ricevono la corrispondenza su documento cartaceo nelle apposite
buste bianco/verdi. Lungi da me la pretesa di aver esaurito l'argomento
(altrimenti i corsi di laurea in ingegneria informatica non durerebbero
5 anni !), ma spero almeno di avere dato un'idea di come siamo arrivati
e quali sono i principi su cui si basano le più comuni macchine
della rivoluzione multimediale.