Home page

Libro del mese   

        Ricerche


Computer > Complessità.

COMPLESSITÀ

 

Anni Trenta

Il concetto di complessità era vicino alla concezione originaria di una macchina di Turing: la complessità maggiore è rappresentata dallo stesso nastro (o sequenza di schede), piuttosto che dallo stato mentale interno della macchina.
1948

Von Neumann a un simposio afferma che qualcosa di complicato come il cervello non potrebbe mai essere progettato; dovrebbe evolversi. Per costruire un cervello artificiale bisogna prima di tutto far crescere una matrice di neuroni artificiali.
"Parti dell'organismo possono comportarsi in modo antagonistico le une nei confronti delle altre, e nell'evoluzione questo assume a volte un carattere distruttivo piuttosto che evolutivo. Io penso che queste cose siano correlate".
Si può costruire una macchina 'principale' che può essere utilizzata per sfruttare certe tendenze all'auto-organizzazione di un vasto numero di macchine 'secondarie' collegate fra loro. Von Neumann era convinto che la selezione tra processi distruttivi a livello di base (intrinsecamente incomprensibili) portasse alla comparsa di comportamenti comprensibili a livello della macchina principale.

Boole e von Neumann Hanno dimostrato, ciascuno nel suo campo, che ci si può basare, a livello digitale, su fenomeni indeterminati dal punto di vista individuale, per produrre risultati logicamente certi.
1944 Nel trattato sulla Teoria dei giochi, von Neumann pose le fondamenta di una concezione unitaria della teoria dell'informazione, dell'economia, dell'evoluzione, e dell'intelligenza, le cui implicazioni continuano tuttora ad emergere.

1945

Grazie a von Neumann i termini organo, neurone e memoria, fino allora comuni solo tra i biologi, entrano per la prima volta a far parte del linguaggio dell'Informatica.
Paul Baran In quali termini pensava la rete di computer che stava progettando alla RAND? Il modello era la rete neurale in grado di apprendere da sola: "Era possibile favorire la comparsa di un sistema adattivo implementando delle regole di autoapprendimento a ogni nodo, affinché il traffico complessivo venisse incanalato in modo efficace nonostante le modificazioni dell'ambiente, senza che fosse necessaria un'unità di controllo centrale - che avrebbe rischiato di essere troppo vulnerabile".
 

La rete ARPANET fu costruita sul modello del datagramma, dove ogni singolo pacchetto è instradato indipendentemente dagli altri verso la propria destinazione. La rete a datagramma ha la forza della semplicità e la capacità di adattarsi automaticamente ai cambiamenti nella topologia della rete.

  Il paradosso fondamentale dell'Intelligenza artificiale è: sistemi sufficientemente semplici per essere compresi non sono abbastanza complicati da comportarsi in modo intelligente; e sistemi sufficientemente complicati per comportarsi in modo intelligente non sono abbastanza semplici da poter essere compresi.