CICLO 2 - (lez. 7-8-9-10)
Ciclo 1 (lez. 1-2-3-4-5-6)
Ciclo 3/4 (lez. 11-12-13-14-15-16)
Ciclo 5/6 (lez. 17-18-19-20-21)
7) IL COMPUTER
Dentro il Computer/ Hardware e Software
La parola Computer, calcolatore è legata alla preistoria, perché fa riferimento al mondo del calcolo, che ha subito una razionalizzazione, in quanto si è sempre cercato di individuare un rapporto tra lo strumento di calcolo e l'oggetto da misurare. L’abaco è andato avanti fino al medioevo e oltre, ma nella prima parte del 1800, Charles Babbage inventa una macchina che associa alcuni movimenti meccanici con la possibilità di effettuare un calcolo. Questo lanciò lo sviluppo industriale nel campo tessile, perché permetteva di realizzare cicli produttivi automatizzati nell'industria. Le macchine tessili, e in special modo i telai, rappresentano i primi esempi di programmabilità, in quanto costituiti da programmi basati su operazioni sequenziali, con variabili.
Piccola considerazione: alcune sperimentazioni teoriche che nascono fine a sé stesse, negli anni possono essere riutilizzate e approfondite da altri studiosi, che ne comprendono le potenzialità e arrivano poi ad un risultato concreto. E' il caso della teoria della relatività di Einstein, il cui apporto pratico verrà scoperto solo dopo alcuni anni e quasi per caso, studiando l’evoluzione di un’ eclissi di sole e scoprendo che i raggi solari, in questa situazione, non seguono la legge di Newton bensì quella di Einstein.
La stessa cosa accade alla logica binaria, che nasce a metà dell'800 per merito di George Boole, un matematico che scopre e codifica un linguaggio astratto fatto di due entità: tutte le relazioni si basano sullo zero e sull'uno (lingaggio binario).
All'inizio del 1900 il calcolo e le catalogazioni diventano importanti in America: nasce l'IBM (Industy Business Machine), un'industria che, attraverso le schede perforate, ha il fine di ottimizzare una grande quantità di dati statistici, tramite un tentativo meccanico e non elettronico. La vera rivoluzione avviene però intorno agli anni 1920 con l’ introduzione dell’ elettricità, associata al mondo del calcolo.
Intanto viene realizzato il primo grande computer che usa l’impulso elettrico: ciò porta a prendere in considerazione il sistema binario di Boole, adatto a questo scopo, proprio perché gioca su due elementi che rappresentano la presenza o l’assenza dell’impulso elettrico. Questo tipo di computer occupava molto spazio, interi piani di un edificio, perchè basato su grandi valvole che permettevano o meno il passaggio di elettricità. Altro fondamentale passaggio avviene nel 1948-49, quando la valvola viene sostituita dal transistor, un nuovo sistema, più compatto, di far passare gli impulsi elettrici. Questo dà la possibilità di ridurre notevolmente le dimensioni degli apparati. Il simbolo del mondo dei transistor è la radio portatile a transistor, ed il calcolatore passa dai palazzi agli armadi di una stanza.
Nel 1960, il transistor viene a sua volta sostituito dal chip, grazie all’ausilio della tecnologia del silicio e dei circuiti stampati. Nascono i circuiti integrati, su cui vengono impostati i microchip. I computer realizzati in questo periodo sono grandi macchine per grandi calcoli: in realtà, questa evoluzione assumerà grande valore grazie alla nascita del personal computer. L’evoluzione del computer, da sistema di calcolo a sistema di controllo e ricerca militare, ci fa capire come il mondo computerizzato, in quegli anni, fosse legato all’establischment, e sarebbe rimasto tale se non fossero intervenute altre forze.
Il 1968 si pone come momento di ricerca personale, dove la parola chiave è libertà, contrapposta al potere classico. Ciò porta ad un importante cambiamento per tutta la società.
La libertà, come valore, viene amplificato dagli strumenti di comunicazione di massa; si affacciano personaggi chiave nel mondo politico che sembrano incarnare questo nuovo ideale di libertà, JFK, Martin Luther King etc... In Usa prendono vita gruppi di giovani, accomunati da due passioni: la tecnologia (e il bricolage), e la cultura della contestazione.
Un primo esperimento è l'"ALTAR" di Ed Roberts, un hobbista che, comprando e rimontando pezzi elettronici, arriva a realizzare un rudimentale computer fatto in casa.
Un passo decisivo verso la nuova direzione presa, si ha quando iniziano a collaborare Jobs, un visionario, e Wozniak, un ingegnere; insieme fondano la comunità dei computer, e investono per portare i computers alla portata di tutti. Nel 1976-77 nasce il primo Personal Computer, che riesce ad essere commercializzato. Nascono l'Apple 1 e poi l'Apple 2. La nascita e la diffusione del Personal Computer dà vita a fenomeni di grande portata. Questi personaggi diventano ricchi, le loro società fanno il salto in borsa. Le nuove macchine, da loro ideate, rappresentano una direzione opposta all'IBM.
I personal computers realizzati, erano diversi tra loro, a secondo delle regole che il programmatore stesso decideva di inserire per impostarlo e istruirlo. Ogni programmatore lo realizzava in modo diverso. L'intuizione geniale di Bill Gates fu quella di inventare un linguaggio che si basava su informazioni standard, scrivendo su una base hardware un linguaggio comune, semplice ed unificato: il DOS.
Il vero salto si ha quando nel 1980 l’IBM, che vendeva soltanto grandi computer, decise di commercializzare il PC. L’IBM compra il codice creato da Bill Gates, sulla base della “royal bit” (Bill Gates prende una percentuale su ogni macchina venduta).
8) SCHERMI E INTERFACCE
Il PC nasce dal basso ed è inspiegabile senza una serie di fenomeni: gli hobbysti, l'hippy tecnology. Inizialmente il linguaggio, usato dal computer, sembra appartenere più al mondo industriale che al mondo della IT (information tecnology).
Il DOS, infatti, basato su un sistema di comandi certi, da digitare in modo esatto, è un linguaggio analitico, certo, oggettivo, costituisce cioè "una base certa di comunicazione".
A questo punto entrano in gioco nuovi fattori; all'inizio gli schermi del PC erano dei semplici terminali, fatti per riprodurre lettere e numeri. Intorno al 1983-1984 arriva una nuova generazione di Computers e schermi, che possiedono delle particolari caratteristiche: la base del sistema operativo diventa grafica, ciò permette di garantire l'indipendenza del software dall'hardware, cioè dalla macchina in cui il sistema viene installato...
si può quindi programmare una macchina legata ad un sistema operativo che interagisce con la grafica dello schermo, attraverso l'uso di un Mouse. Si tratta del primo Mac, un computer di 128 K di memoria eppure di grande importanza per l'evoluzione del campo.
Per la prima volta, ci si preoccupa di come l'utente possa entrare in rapporto con il PC in maniera "più amichevole", più intuitiva: il Pc diventa una presenza importante e un bene di consumo, per questo si cerca di farlo diventare più diretto, grazie all’apporto della grafica, e non attraverso un sistema di comandi dati attraverso la tastiera, ma con un'interfaccia grafica, grazie al puntatore (mouse) e ad uno schermo "bitmappato", cioè creato come una matrice di pixel, che permette la realizzazione di grafici.
Qualunque schermo prodotto dopo il 1984, è uno schermo grafico, cioè ha la capacità di acquisire immagini bitmap.
La rivoluzione avviene su tutti i livelli: hardware e software; per rendere possibile ciò, è chiaro che muta anche il sistema operativo; occorre un pacchetto esplicativo più avanzato del DOS, un programma ospitato all'interno del computer, il QUICKDRAW, un sistema di informazioni, che gestisce routine grafiche, e che ospita a sua volta dei sottoprogrammi come Mac Paint, Mac Dry, Finder. L'introduzione del sistema a icone è la vera novità. Si possono comunicare le informazioni attraverso l'uso di icone, che sono delle metafore, nel senso che, attraverso immagini opero semanticamente, do dei comandi.
Ciò determina una semplificazione logica, ed un risparmio di tempo. Il sistema ad icone è importante, non tanto come fatto grafico in sè, quanto piuttosto perchè le icone sono dei simboli, metafore, ed i messaggi dell'era informatica sono soggettivi, iconici e metaforici. Ciò comporta:
- che ogni utente gestisce l'immagine del desktop come meglio crede
- che il processo diventa personalizzato, si diversifica il modo per ottenere lo stesso fine.
Diventando il nuovo sistema iconico, diventa metaforico e quindi soggettivo, per cui si avvicina alla modalità della Information Tecnology. Alla fine degli anni ottanta, questo sistema logico viene messo a punto dal gruppo Xerox, un laboratorio di fotocopie, e viene poi comprato dalla Apple, che lo porta a termine, realizzando un nuovo computer di "Elite" LISA, formato da mouse, tastiera e schermo Bitmappato ad alta risoluzione.
L'introduzione del mondo della grafica, come interfaccia per il trattamento del dato informatizzato, porta allo sviluppo di programmi per la gestione del dato grafico; il fatto permette di poter modificare anche il dato grafico attraverso l'uso della logica binaria: è il primo approccio al mondo dei raster basati sulla manipolazione grafica.
Lo sviluppo di questo mondo, che segna il passaggio dalla logica testuale a quella ipertestuale, ha inciso molto sull’uso del PC oggi.
La possibilità di scambiare informazioni tra sistema operativo e computer cresce sempre. Il grande miracolo, nei primi anni 80, era quello di avere un disegno grafico bitmap all'interno di un word processor. C'era il Quickdraw che permetteva di tagliare e copiare un'immagine, e portarla all'interno di un word processor. Fotografare ciò che c'è sullo schermo (nel sistema windows è il tasto stamp) è possibile grazie al fatto che ci si muove in ambienti che hanno alla base finestre orientate o bitmap, dove tutto ritorna ad essere immagine raster.
Quickdraw 1983 informazioni di tipo raster, e più avanti anche informazioni di tipo vettoriale.
What you see is what you get: quello che vedi nello schermo lo puoi stampare. Si usavano stampanti bitmap che riproducevano il formato dello schermo (risoluzione a 72 dpi), e che di base usavano il linguaggio quickdraw.
Postscript 1985: invece di relazionare le stampanti con un linguaggio di derivazione quickdraw, cioè di derivazione grafica, fatta per gli schermi, viene creato un linguaggio indipendente, dove qualunque cosa che mando alla stampante esterna il programma la configura per quella stampante, cioè un linguaggio apposito per le stampanti chiamato postscript: questo linguaggio traduce le informazioni alla stampante, e permette alla stampante di lavorare al massimo della sua risoluzione, indipendentemente da dov'è prodotto il file di partenza. Ad esempio con una stampante postscript che lavora a 1200 dpi, avrò una stampa molto maggiore rispetto ad una stampante che lavora a 300 dpi. A livello pratico serviva per fare delle prove di stampa con stampanti meno potenti, per poi portare il prodotto finito a stampare con stampanti ad alta definizione.
Cresce la quantità di informazioni scritte nelle rom, tramite acquisizioni successive. La conseguenza di ciò è la rivoluzione del Desktop Publishing
Hypertalk 1987, creazione di Sistemi ipertestuali: la capacità di costruire degli step di informazioni.
Quicktime 1990, gestisce immagini in movimento, non più solo raster ma filmati. Ad esempio in un word processor importo un filmato, e questo è possibile, perché costruito a livello superiore, di sistema operativo.
Html 1994: evoluzione dei sistemi ipertestuali. Permette di copiare un'indicazione html ed incollarla in un word processor per diventare un link attivo.
9) DENTRO I BITS
L'Information Tecnology è legata all'elettronica, al computer etc., ma ha anche una logica, e per questo può prescindere dall'elettricità e dall'elettronica.
Proviamo ad immaginare una maniera di gestire informazioni, ipotizzando che l'elettronica non ci sia. Ci sono alcuni codici differenti per riuscire a comunicare dati significativi e strutturali. Immaginiamo di essere ai tempi di Leonardo, senza l'elettricità, e immaginiamo di dover comunicare dei dati a distanza, da un punto A a un punto B, in tempo reale, per esempio un suo disegno. Come faccio tecnicamente? La base è avere un codice: un dato diventa informazione, applicando ad esso una convenzione. Nel codice la convenzione è il livello fondamentale, è il primo livello. Trascurando il problema del colore, ciò è possibile con l’uso delle coordinate, creando un sistema cartesiano.
Cominciamo a creare una scacchiera 6x6. La matrice non è un semplice contenitore di dati, poichè in ogni casella ci possono essere 2 tipi di dati: numeri costanti (immessi dall'operatore) o risultati di un calcolo. Il risultato concettuale importante di una logica di questo tipo, la stessa del foglio elettronico messa in pratica con il programma lotus prima e excel dopo, è la funzione. Sovrappongo una griglia di riferimento al disegno da trasmettere. Devo decidere la grandezza: più è fitta, più dati devo inviare e maggiore sarà la definizione del disegno.
Quindi, trasmetto le coordinate dei punti, che mi compongono l'oggetto, da un'altra parte dove c'è una griglia uguale a quella sovrapposta e dove si ricostruirà l'oggetto in questione, tramite le coordinate.
|
a |
b |
c |
d |
e |
f |
1 |
|
|
|
|
|
|
2 |
|
|
|
|
|
|
3 |
|
|
|
|
|
|
4 |
|
|
|
|
|
|
5 |
|
|
|
|
|
|
6 |
|
|
|
|
|
|
L'immagine diventa una mappa di Bit, da cui il nome Bitmap. Questo tipo di logica elementare è quella che viene definita logica raster, sui cui presupposti si basano tutti gli odierni programmi di elaborazione di immagini, primo tra tutti Adobe Photoshop.
Questa logica è utilizzata sostanzialmente per trasmissioni di immagini attraverso il concetto di punti, detti bits.
Risoluzione dello schermo: lo schermo del computer ha una risoluzione di 72 DPI /inch (numero di pixel per pollice).
Il numero di DPI consigliato è variabile, a seconda della destinazione dell'immagine: 72 DPI, se la destinazione è lo schermo del computer, 150 DPI per stampanti media risoluzione, 300 DPI, per stampa a buona risoluzione grafica.
Per stampare un'immagine di 72 dpi, opero un'interpolazione e la passo a 300 dpi: il computer ha sovrapposto una griglia molto più densa interpolando i punti, e mettendo accanto altri punti che secondo lui sono quelli mancanti. Il file aumenta notevolmente.
Come si fa con il metodo di Leonardo a trasmettere i colori? Devo codificare una convenzione, e avere un codice di riferimento. Il colore è, infatti, codificato attraverso il sistema RGB (red, green, blue), che permette, attraverso una combinazione percentuale di questi tre colori primari, di ottenere il colore desiderato all'interno dell'infinita gamma di colori esistenti.
La complessità del codice permette una maggior precisione nella trasmissione della tonalità di colore.
Si hanno gruppi costituiti da 8, 16, 256 colori, fino a milioni di campioni di colore.
Ad ogni punto corrisponde un codice di colore, e quindi, maggiore è il numero dei colori di riferimento, più definito sarà il colore.
Resa del colore, profondità dell'immagine: questo parametro non ha a che vedere con la risoluzione (che è meccanica), ma con l'accuratezza della ripresa. L'unità di misura è il Bit (8-16-32).
Le nuove strumentazioni, in questo campo, hanno ampliato notevolmente le potenzialità e l'accuratezza in fase di rilievo e ripresa dei dati architettonici.
I formati digitali per le immagini:
I formati di immagini nel Web sono Gif e Jpg: Essi si basano su palette di colori limitate (8-16-64 colori); questo comporta che si invia in rete più velocemente, anche se con minor precisione;
Se inviassi per esempio un'immagine con una risoluzione a 256 colori, il file peserebbe di più:
1) Il Gif è un formato che consente anche tecniche di animazione.
2) Il Jpg è un formato di file molto diffuso. Qui c’è un’idea di compressione delle informazioni che fa variare il formato del file.
10) ARCHITETTURA
le nuove presenze delle Superfici
Noi viviamo quotidianamente in un mondo in cui il concetto di proiezione e la presenza dello schermo, costituiscono un dato fondativo; lo schermo come "paesaggio originario, primitivo della mente", una presenza che per le nuove generazioni è sempre esistita, mentre per la generazione precedente lo schermo, così come il computer, è stato vissuto come "arrivo" dall'esterno, una sorta di EVENTO!
Il mondo proiettivo dei computer, che riduce tutto a superficie, crea una bidimensionalità del tutto nuova, concettualmente diversa dalla vecchia idea di superficie e di decorazione. Normalmente la parola superficie, lega con superficialità, ha, cioè, in sè una tara negativa, di non profondo, una sorta di "peccato d'origine". Questo diventa più grave se lo si guarda con un respiro storico.
- La rivoluzione del Movimento Moderno, nata sulla spinta della rivoluzione industriale, ha portato ad un'architettura, che affonda il suo ragionamento e la sua novità su meccanismi spaziali, organizzativi e funzionali, rifiutando il superficiale e di conseguenza l'orpello e la decorazione fine a sé stessa; guarda alla macchina, al suo funzionamento, al suo modo di esistere e lo traspone in architettura.
Oggi, chi si occupa di superfici, di bidimensionalità rompe un taboo, e il mondo degli schermi fa parte della nuova "visione del mondo".
Prende forma un territorio di indagine che studia come questa bidimensionalità influenzi la ricerca architettonica contemporanea, e come il paesaggio mentale dell'informatica possa tramutarsi in ricerche architettoniche, che hanno a che vedere con la superficie.
Negli anni sessanta, era evidente che alcuni elementi del paradigma industriale stavano dando segni di crisi. All'interno del movimento moderno, dal punto di vista linguistico, il problema della superficie viene completamente eluso, perché tutti i parametri si concentrano sul funzionamento della macchina architettura.
Robert Venturi: i suoi ragionamenti individuano due modi di fare architettura, quello dell'architettura duck (Bauhaus come architettura che rivela sè stessa), e quello dell'architettura decorated shed (architettura maschera, realizzazione di scatole su cui, poi, applicarvi una facciata o un segno).
Per la prima volta, entra in gioco la "piattità". Robert Venturi è l'elemento di coagulo nello screditare, nella nuova società di massa, la vecchia logica del rapporto forma-funzione.
Si riconsidera la figura dell'architetto come decoratore di superfici e come comunicatore.
Queste nuove teorie contrastano nettamente con la tradizione del Bauhaus, e con il Decostruttivismo, che ha a che vedere con spazialità e connessioni di tipo dinamico.
Ad un certo punto c'è l'avvento dell'elettronica e degli schermi proiettivi, e Venturi li inserisce nei suoi discorsi: anche l'elettronica si relaziona con l'iconografia e con la superficialità.
Ebbene non è detto che trattare di superfici significa essere superficiali: Alice Imperiale paragona questo atteggiamento all'epidermide umana... una serie di strati, via via più profondi, in cui ciò che affiora è lo strato superficiale, che a sua volta racconta uno o più strati profondi; una cosa è, quindi, rivelare alcuni fatti superficiali, altra è mostrare una superficie, che è solo una veste. Parliamo di "pelle concettuale", costituita cioè da diversi strati, ben strutturata.
Diverso è l'apporto che architetti come Jean Nouvel, Toyo Ito e Herzog & De Meuron danno al tema della superficialità. Questi architetti partecipano costruttivamente al formarsi di meccanismi, che hanno a che vedere con l'influenza che il mondo degli schermi e del bitmap ha sull'architettura.
Herzog & De Meuron si formano con Aldo Rossi e con la sua impostazione rigorista. Questa impostazione, accoppiata ad una grande conoscenza tecnologica, crea la loro architettura. Riprendono la decorated shed di Venturi, ma con una nuova coscienza di ricerca di espressività del materiale, non attraverso una semplice applicazione decorativa. Il materiale è usato al massimo delle sue capacità superficiali, in maniera assolutamente innovativa, su involucri stereometrici: questa scatolarità deriva ,un pò dalla impostazione rossiana, e un pò dal fatto che la superficialità si esalta su forme semplici. Le prime occasioni progettuali che hanno sono molto minimali. Sono i campioni di questa nuova idea di superficie, realizzata con tecniche innovative, dell'attenzione data ai materiali trattati decorativamente (Dominus Winery,Yountville, California).
Naturale è la loro evoluzione: nello Stadio a Monaco, invece, c'è un uso di un procedimento serilitografico, immagini con forte carica simbolica sono trasferite sulla superficie. La pelle è concepita come un tessuto che racconta una storia: pelle come elemento mutante, e come tale entra in rapporto con l'informazione che muta.
Altro personaggio significativo è Jean Nouvel, che più di una volta ha lavorato sul tema della superficie:
- Istituto del mondo Arabo: qui realizza un'architettura spaziale, i volumi si decompongono in rapporto al sito; tuttavia, realizza anche una parete decorativa bidimensionale ma interattiva, evoca il mondo geometrico, algebrico e decorativo arabo, e allo stesso tempo, crea una parete diaframmata che modula la luce all'interno, una parete bidimensionale che crea un ambiente sensibile.
- Fondazione Cartier : è interessante per come si muove sul tema della bidimensionalità: una successione di schermi, effetto pubblicitario e illusionistico insieme, usando il vetro come catalizzatore della nuova architettura.
Il mondo della superficie e dello schermo è diventato parte integrante del fare architettura, considerandola in maniera diversa da come la pensava Venturi, non come mero elemento da trattare o come semplice elemento comunicativo. Evoca un nuovo mondo, un mondo bitmappato e programmabile. All'interno di un canone tipico dell'architettura industriale, Nouvel opera, inoltre, una trasformazione: la trasparenza, catalizzatore del paradigma industriale e dell'architettura di Gropius, oggettiva pur nella rottura con i canoni prospettici del passato, diventa soggettiva, decorativa, illusionistica, giocando sul valore in sé, in quanto valore di schermo. - Torre Agbar: qui, crea "un'architettura pixelata" con semplici effetti di variazione di posizione e colore delle aperture. Si ha una trasposizione dell'estetica del pixel e della bidimensionalità, evidente maggiormente nell'atrio, dove il misticismo di Ronchamp si trasforma nell'idea di essere parte e all'interno di uno schermo.
Anche le architetture di Toyo Ito esprimono la nuova bidimensionalità, non superficiale e decorativa, ma profonda, che diventa struttura dell'architettura stessa. In questo elenco di architetture significative della nuova bidimensionalità possiamo far rientrare anche la biblioteca di Arets a Utrecht, dove il gioco delle superfici serigrafate con alberi, non è puramente decorativo, ma espressione dell'impianto spaziale interno. Il tema della superficie è il tema dell'edificio stesso, e lo rappresenta in pieno.
In conclusione, ci interessa capire come all'interno del gioco delle superfici, in un'idea di pixelamento, si faccia architettura che evochi non solo l'elettronica, ma sia fatta con l'elettronica stessa, che non usi tecniche tipo la serilitografia ma sia data dall'elettronica stessa: si apre un'idea di progettazione molto più estesa, più totalizzante, perché il mondo digitale entra in contatto con la vita reale.