martedì 16 settembre 2008

Lo spirito nella macchina


L'avevo detto, e lo faccio.
Le Intelligenze Artificiali.
Davvero si può restare indifferenti davanti un argomento simile?
È affascinante.
Almeno, per chi affronta la cosa da un punto di vista perlomeno parascientifico.
Pensate.
Una macchina che prende decisioni.
Scommetto che la maggior parte di voi non si fiderebbe, vero?
E probabilmente sbaglierebbe.
Se un giorno alle macchine sarà permesso di prendere le proprie decisioni, noi umani anzitutto non potremo fare alcuna congettura sul risultato: sarà impossibile indovinare come tali macchine potranno comportarsi.
È solo molto probabile che, dato come assunta questa possibilità, il destino della razza umana sarà in breve alla mercè delle macchine.
Voi obietterete: l’uomo non sarà mai così stolto da consegnare tutto il potere alle macchine.
Ma non sto suggerendo che gli umani volontariamente consegneranno il potere alle macchine o che le macchine di proposito si impossesseranno del potere.
Quello che ipotizzo è che la razza umana si lascerà scivolare verso una posizione di totale dipendenza dalle macchine, per cui non avrà alternativa che accettare tutte le decisioni prese dalle macchine.
La società ed i suoi problemi diventano sempre più complicati, e le macchine sempre più intelligenti/efficienti, le persone lasceranno che le macchine prendano sempre più le decisioni per loro, semplicemente perchè decisioni fatte dalle macchine porteranno migliori risultati che quelle fatte dagli esseri umani.
Si arriverà prima o poi ad uno stadio in cui le decisioni da prendere per mantenere il sistema saranno così complicate che gli esseri umani non saranno in grado di farle in modo intelligente.
A quel punto le macchine avranno effettivamente il controllo.
Le persone non saranno semplicemente in grado di spegnere le macchine, perché ne saranno così dipendenti da far risultare lo spegnimento un suicidio.
Fantascienza?
Proprio sicuri?
Ma potrà mai una macchina diventare autocosciente?
Cito da Terminator 2 - Judgment Day: “Los Angeles, anno 2029. Tutti gli elicotteri da guerra ed i caccia bombardieri saranno completamente autonomi ed equipaggiati con processori neurali in grado di controllare la guida e prendere decisioni di comando. Uno di essi, Skynet, comincerà ad apprendere con una velocità esponenziale e diventerà autocosciente alle 2:14 del 29 Agosto.”
La presa di coscienza di Skynet e il successivo attacco contro l’uomo segnano l’inizio di una guerra tra robot e umani, che costituisce la scena iniziale del film.
I film di fantascienza hanno spesso ritratto le macchine intelligenti come macchine pericolose, capaci di rivoltarsi contro l’uomo tramando piani diabolici. L’esempio più significativo di macchina con queste caratteristiche è rappresentato da HAL 9000, protagonista di 2001: Odissea nello spazio.
Nel film, HAL controlla l’astronave e intrattiene l’equipaggio durante il lungo viaggio verso Giove: parla dolcemente con gli astronauti, gioca a scacchi con loro, fornisce giudizi estetici e riconosce le loro emozioni dall’espressione del volto e dall’intonazione della voce.
Tuttavia, HAL trama per eliminare l’equipaggio allo scopo di perseguire un piano elaborato al di fuori degli schemi precedentemente programmati.
La duplice connotazione che spesso viene attribuita alle macchine della fantascienza rappresenta chiaramente l’espressione dei desideri e dei timori che l’uomo ha nei confronti della sua stessa tecnologia.
Da un lato, infatti, l’uomo proietta nel robot il desiderio irrefrenabile di immortalità, incarnato in un essere artificiale potente e indistruttibile, le cui capacità intellettive, sensoriali e motorie sono molto più accentuate rispetto a quelle umane. Dall’altro lato, però, incombe la paura che una tecnologia troppo avanzata (e pertanto misteriosa per la maggior parte delle persone) possa sfuggire di mano e che la macchina artificiale possa prendere il sopravvento sull’uomo, ritorcendosi contro lo stesso creatore (vedi anche: Frankenstein, HAL 9000, Terminator, e gli agenti di Matrix).
I recenti progressi della tecnologia informatica hanno fortemente influenzato le caratteristiche dei robot della nuova fantascenza. Ad esempio, le teorie informatiche sul connessionismo e sulle reti neurali artificiali (mirate a replicare alcuni meccanismi di elaborazione tipici del cervello) hanno ispirato film come Terminator, in cui le macchine, oltre ad essere potenti ed intelligenti, sono anche in grado di apprendere sulla base della propria esperienza.
Terminator rappresenta il prototipo di robot indistruttibile (o quasi), capace di camminare, parlare, percepire e comportarsi come un essere umano.
Terminator è il prodotto di una tecnologia più evoluta di quella attuale: è dotato di batterie con autonomia di 120 anni, circuiti di alimentazione alternativi, sofisticati strumenti di analisi del mondo esterno e sistemi di autoriparazione.
Ma la caratteristica più peculiare di Terminator, è che può apprendere! Ciò deriva dal fatto che egli è controllato da un processore neurale, ossia da un computer che può modificare il suo comportamento sulla base della esperienza acquisita.
Quello che rende il film più intrigante da un punto di vista filosofico è che tale processore neurale è talmente sofisticato che, ad un certo punto, comincia ad apprendere a velocità esponenziale, fino a diventare autocosciente. In questo senso, il film solleva un interrogativo importante: potrà mai un essere artificiale, se pur sofisticatissimo, diventare autocosciente?
E come possiamo verificare che un essere sia autocosciente?
Nel 1950, il pioniere dell’informatica, Alan Turing, si pose un interrogativo simile ma relativo all’intelligenza e, al fine di stabilire se una macchina possa essere ritenuta intelligente quanto l’uomo, propose un famoso test, noto come test di Turing: un esaminatore ha davanti a sé due terminali, uno connesso con un computer e l’altro connesso con un umano. Utilizzando i terminali, l’esaminatore pone delle domande e osserva le rispettive risposte sul terminale corrispondente. Se dopo un tempo ragionevole l’esaminatore non è in grado di determinare chi è la controparte, allora diciamo che la macchina ha superato il test di Turing.
Attualmente, nessuna macchina è in grado di superare il test di Turing.
L’11 Maggio 1997 per la prima volta nella storia, un computer denominato Deep Blue batte in torneo il campione del mondo di scacchi Garry Kasparov. Come tutti i computer attuali, tuttavia, Deep Blue non comprende il gioco degli scacchi, ma applica solo delle regole per trovare la mossa che conduce ad una posizione per esso più vantaggiosa, secondo un criterio di valutazione programmato da esperti.
Insomma, se accettiamo la visione di Turing possiamo affermare che Deep Blue gioca a scacchi in modo "intelligente", ma possiamo altrettanto affermare che esso non comprende il significato delle mosse effettuate, esattamente come un televisore non comprende il significato delle immagini che visualizza.
Il problema di stabilire l’esistenza di una coscienza in un essere intelligente è ancora più complesso.
Infatti, se l’intelligenza è l’espressione di un comportamento esteriore che può essere misurato mediante dei test, l’autocoscienza è l’espressione di uno stato interno del cervello che non può essere misurato.
Da un punto di vista puramente filosofico, non è possibile verificare l’esistenza di uno stato cosciente in un altro essere (sia esso umano, che artificiale), poiché questa è una proprietà che può essere osservata solo da chi la possiede.
In poche parole: non potendo entrare nella mente di un altro individuo, non possiamo essere certi della sua coscienza.
Tale problema è affrontato in modo approfondito e stimolante da Douglas Hofstadter e Daniel Dennett, nel libro The Mind’s I.
Con l’avvento delle reti neurali artificiali, il problema della coscienza artificiale pone interrogativi ancora più sottili, perché le reti neurali, replicando il comportamento elettrico del cervello, forniscono un supporto adatto alla realizzazione di un meccanismo di elaborazione simile a quello adottato dal cervello umano.
Ed ecco che ha le caratteristiche per diventare autocosciente.
Se cade anche la barriera della diversità strutturale tra cervello biologico e artificiale, la questione sulla coscienza non può che diventare religiosa.
Ossia, se si crede che la coscienza umana sia determinata da un intervento divino, allora è chiaro che un sistema artificiale creato dall’uomo non potrà mai diventare cosciente.
Se invece si crede - seguitemi - che la coscienza sia uno stato elettrico neuronale sviluppato spontaneamente dai cervelli complessi (come quello dell’uomo), allora la possibilità di realizzare una coscienza artificiale rimane aperta.
Se sosteniamo l’ipotesi della coscienza come caratteristica fisica del cervello, allora la domanda che viene da porsi è: quando un sistema artificiale potrà sviluppare una coscienza di sé?
Non lo sappiamo, ma possiamo determinare una condizione necessaria: per poter sviluppare autocoscienza, una rete neurale artificiale deve avere una complessità almeno paragonabile a quella del cervello umano.
Il cervello umano è composto da circa 10 alla dodicesima neuroni, e ciascun neurone effettua in media 10 alla terza connessioni (sinapsi) con altri neuroni, per un totale di 10.000.000.000.000.000 (dieci alla quindicesima) sinapsi.
In una rete neurale artificiale, una sinapsi può essere efficacemente simulata con un numero rappresentabile su 4 byte di memoria.
Da cui: la quantità di memoria richiesta per simulare 10 alla quindicesima sinapsi è di 4x10 alla quindicesima byte (cioé: 4 milioni di gigabyte). Diciamo che per simulare l’intero cervello umano siano necessari 8 milioni di gigabyte, includendo la memoria necessaria a memorizzare i valori di uscita dei neuroni ed altri stati cerebrali interni. Allora, la domanda diventa: quando tale quantità di memoria sarà disponibile su un computer?
Durante gli ultimi 20 anni, la capacità della memoria RAM nei computer è cresciuta in modo esponenziale, decuplicando circa ogni 4 anni. Nel 1990, un PC era dotato tipicamente di 1 Megabyte di memoria RAM. Nel 1998, una configurazione tipica prevedeva circa 100 Mbyte di RAM, e così via.
Invertendo la relazione, è possibile prevedere l’anno in cui sarà disponibile una data quantità di memoria, sempre che la crescita segua lo stesso andamento rilevato negli ultimi anni.
Per conoscere l’anno in cui un computer disporrà di 8 milioni di gigabyte di RAM (cioé 8x10 alla quindicesima byte), è sufficiente un’equazione, il cui risultato è: 2029: la stessa data predetta nel film Terminator!
Calmi.
La data ricavata si riferisce solo a una condizione necessaria, ma non sufficiente, per lo sviluppo di una coscienza artificiale. Insomma, l’esistenza di un computer potente dotato di milioni di gigabyte di memoria RAM non è sufficiente da sola a garantire che esso diventi “magicamente” autocosciente.
Ci sono altri fattori altrettanto determinanti, come il progresso delle teorie sulle reti neurali e sulla conoscenza dei meccanismi del pensiero, per i quali è impossibile fare delle previsioni precise.
Inoltre, la stessa quantità di memoria potrebbe essere raggiunta mediante una rete di computer o sfruttando lo spazio di hard disk attraverso meccanismi di memoria virtuale. Comunque si modifichi il calcolo, tuttavia, l’idea portante rimane invariata e la data ottenuta potrebbe essere anticipata solo di qualche anno.
Infine, dopo tutto questo discorso sulla coscienza artificiale, qualcuno di voi potrebbe domandarsi: perché costruire una macchina tanto intelligente da sviluppare autocoscienza?

A parte i problemi etici, che potrebbero influenzare il progresso in questo settore, la motivazione più forte è probabilmente dettata dal desiderio dell’uomo di scoprire nuovi orizzonti e allargare le frontiere della scienza.
In secondo luogo, la costruzione di un cervello artificiale basato sullo stesso principio di funzionamento del cervello umano (lo scambio di informazioni tra neuroni) potrebbe fornire la possibilità di trasferire la nostra mente su un supporto hardware più duraturo, aprendo una via verso l’immortalità, uno dei sogni più antichi dell’uomo.
O dei suoi incubi.
Liberati da un corpo fragile e degradabile, gli esseri umani dotati di un corpo sintetico più potente e di un cervello artificiale in grado di essere duplicato, potrebbero rappresentare il prossimo gradino evolutivo dell’uomo.
Questa nuova specie, risultato naturale del progresso umano potrebbe cominciare l’esplorazione dell’universo alla ricerca di altre civiltà, sopravvivere alla morte del nostro sistema solare, controllare l’energia dei buchi neri, e viaggiare alla velocità della luce trasmettendo le informazioni necessarie alla sua replicazione su altri mondi.
Sarebbe bello poter restare in finestra a spiare l’evoluzione umana, potendo contare su ritmi vitali infinitamente dilatati.
Ma temo che non sia concesso all’uomo, e chissà, forse per un buon motivo... che a noi tutti sfugge.

7 commenti:

Larsen ha detto...

basta legare il principio di "autocoscienza della IA" alle 3 leggi della robotica...

- Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.

- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contrastino con la Prima Legge.

- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e/o la Seconda Legge.

dove con Robot si puo' intendere "IA"...

spasquini ha detto...

Bellissimo!
A me piacerebbe trasferire il mio cervello su una macchina. Un bell'androide in stile Terminator, ma con meno muscoli ... diciamo tipo Link dell'Agenzia Alfa.

Immagina però i disturbi tipici dell'uomo: nevrosi, psicosi, deliri vari, su una macchina che pesa 300kg, che ha una forza ed una resistenza enormi ...

Rabbrividisco.

E soprattutto controllabile, perchè un circuito elettronico, anche se neurale, potrebbe essere "inibito" dall'autorità ... mmh ... ne potrebbe venir fuori un bel racconto, forse ne parleremo al Raduno.

CyberLuke ha detto...

Larsen, quello che sembrano tre leggi inattaccabili su un romanzo di fantascienza, nella realtà incontrerebbero tali e tanti conflitti da renderle inapplicabili.
Tutti i racconti di Asimov sulle Tre Leggi si basano appunto sui casini provocati dalla cieca applicazione di esse dalle macchine, che se dalla loro hanno la potenza della logica dall'altra non posseggono la mediazione del cuore. :)
Quanto allo scenario prospettato da Spasquini, è solo uno dei tanti aspetti di un'ipotetica società "ibrida" composta di umani e super-umani.
Che ci porterà, inevitabilmente, a nuove discriminazioni e quindi nuovi conflitti.
Prepariamoci.

spasquini ha detto...

Quello che la gente non capisce è che una vita senza conflitti, è falsa.
I conflitti ci devono essere, ma devono essere risolti in modo che sia soddisfacente da entrambe le parti.

Basta far capire alle macchine che a volte ci sono soluzioni meno efficaci, ma più soddisfacenti per un umano.
Agli umani basta stare senza far niente per un po' per capire il vaore del fare da soli ... ;)

CyberLuke ha detto...

Già, ma le macchine potrebbero (e avranno) una scala di valori significativamente differente dalla nostra.
Ad esempio, potrebbero mettere l'efficienza al primo posto, mentre l'uomo, che so, l'amore, o la birra.
Pensare di creare delle macchine intelligenti a nostra immagine e somiglianza, è un'utopia e anche abbastanza inutile.

spasquini ha detto...

Divertiti con uno script di Intelligenza Artificiale: http://www.icogno.com/

CyberLuke ha detto...

Uhm... carino!
Ma le facce che fa la tipa sono fantastiche!... :D
Ne voglio uno con la mia faccia e che risponde alle account...

Related Posts Plugin for WordPress, Blogger...