martedì 16 giugno 2009

Gli androidi sognano pecore elettriche?

Può anche darsi.
Voli fantascientifici a parte, l'impatto che un androide antropomorfo potrebbe avere sulla nostra società, sulla nostra psicologia e sulla nostra cultura è solo in parte prevedibile.
E moltissimo dipenderà dal loro livello di intelligenza percepito, più che da quello reale.
Perché, come scrissi tempo fa, lo sviluppo dell'intelligenza artificiale è parecchio più indietro rispetto quello della robotica.
Già oggi possiamo produrre un androide antropomorfo con movenze simili ad un essere umano, e che simuli una risposta intelligente agli stimoli esterni (ad esempio, una conversazione con un essere umano)... ma non disponiamo dell'intelligenza necessaria a farne più che un costoso giocattolo da luna park.

Già, naturalmente ci sono dei costi.
Che vanno giustificati solo di fronte un'effettiva necessità.
Come a dire: c'è veramente bisogno di androidi intelligenti? Tutti i robot esistenti sono macchine estremamente specializzate (cioè molto brave a fare una sola, determinata cosa), costruite per svolgere incarichi pesanti, ripetitivi, pericolosi o di precisione.

Dare coscienza ad un robot lo renderebbe probabilmente più flessibile nei suoi impieghi, ma solleverebbe un gran numero di altri problemi (dimenticando per un attimo l'enorme complessità di "dare una coscienza" ad una macchina)... il primo dei quali potrebbe verosimilmente essere l'insorgere nell'uomo del cosiddetto complesso di Frankenstein, ovvero la paura atavica che la creatura si ribelli al creatore; che il "figlio" si traformi in "mostro".
Dietro questa paura c'è molta letteratura di genere, naturalmente, e scarso o nullo fondamento scientifico.

Ma l'irrazionalità è una componente potentissima della psiche umana, e condiziona le nostre scelte più di quanto noi stessi normalmente ammettiamo.
Anche se disporre di creature artificiali intelligenti potrebbe arrecarci indiscutibili vantaggi, non si può sottovalutare la risposta emotiva negativa che avrebbero su una parte di noi; il che ne potrebbe decretare il fallimento, commercialmente parlando... ricordate tutta la faccenda dell'Uncanny Valley?
Dopo tutto, si tratta sempre di oggetti molto costosi, e se non si intravederà una concreta possibilità di recuperare gli investimenti, è altamente probabile che gli androidi intelligenti non verranno mai messi in produzione, con buona pace di chi teme di venire assassinato nel suo letto dal suo robot-servitore.
Forse è una strada che l'uomo non imboccherà mai.
Per paura, per pregiudizio, per mancanza di vera necessità, o semplicemente perché non riuscirà mai a creare qualcosa che si possa definire "intelligente".
E gli androidi resteranno per sempre solo patrimonio della nostra mitologia, assieme i vampiri, i licantropi, gli zombie e il mostro di Frankestein.

Non proprio una gran bella compagnia.

26 commenti:

Maura ha detto...

E' vero. Quando un "essere" diventa pensante, nascono tutta una serie di questioni etiche e morali: pensa?
Che cosa pensa?
Sogna? Ha dei desideri? Può impazzire?
E poi: ha dei diritti? O possiamo sfruttarlo come e quanto vogliamo? E se nascessero associazioni tipo quelle che sostengono i diritti degli animali?
In fondo, ha una coscienza, che è quella che conta, non tanto il corpo, giusto?
E se sviluppa dei sentimenti suoi?
Potrebbero non essere "bei" sentimenti, ma anche – che so – invidia, paura, gelosia, rabbia... o odio.
E se facessero del male a qualcuno, magari inavvertitamente?

CyberLuke ha detto...

Maura, i tuoi interrogativi sono acuti e simili a quelli che mi pongo io.
Realizzare una macchina intelligente e cosciente di fatto non ci porrebbe di fronte una nuova forma di vita?
E, per la prima volta, non ci renderebbe dei "creatori" a tutti gli effetti, piuttosto che dei semplici "fabbricanti"?
Cosa ne penserebbero le religioni di tutto il mondo? Li giudicherebbero una blasfemia?
Le implicazioni sono gigantesche.
E più mi ci soffermo, più ne scopro di nuove.

Gaia ha detto...

Ciao Cyber sono Gaia!!! Forse non ti ricordi me ma io sto molto bene!!
Ti è mai capitato di leggere i libri di Isaac Asimov???
Sono sicura di sì... Lui è l’autore che ha inventato e scritto Le Tre leggi della robotica:
1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e la Seconda Legge.

Queste tre leggi fondamentali, elencate in ordine di importanza, aprono il suo libro “Io Robot”, da cui è stato tratto l’omonimo film (che io non ho visto…)
Queste tre leggi apparentemente semplici e lineari sono in realtà lo spunto per moltissime complicazioni, come si può già intuire leggendole: si deve obbedire agli ordini degli uomini se questo non mette in pericolo un essere umano, ma se l’ordine impartito da Caio nuoce a Caio stesso (e Caio ne è consapevole) il robot non può comunque eseguirlo.
Così come l’eccessivo rispetto per queste regole crea problemi, stessa cosa succede quando anche il più piccolo particolare delle tre leggi viene modificato in fase di programmazione: compaiono così robot che tengono più a sè stessi che all’uomo, robot che non rischierebbero nulla per un essere umano…
Insomma la semplicità delle regole è solo apparente, ed è appurabile che le complicazioni che ne possono scaturire sono notevoli.
Bel post, complimenti! ;)
Un saluto da Gaia

Laura ha detto...

A me il sl pensiero mi fa rabbrividire ho visto un servizio su questi aggeggi ma nn lo so mi dava un senso di fastidio e paura mi fanno impressione e poi se ci penso mi viene in mente il film Io robot.....nooooooo
Nn mi piacciono i robot e poi potrebbero sottrarci anche il lavoro...
no nn mi piacciono affatto!

Sauro ha detto...

Asimov è un maestro, in questo campo. I suoi racconti con i robot sono i più complessi psicologicamente, mai letti.
Le stesse tre leggi, Isaac stesso, riesce a bypassarle nei suoi racconti.

Io però non m ispaventerei di un mondo pieno di androidi. Anzi, mi piacerebbe. E in quanto a perdere l lavoro ... beh ... farei lavorare loro e mi dedicherei ad incarichi puramente creativi. Sarebbe una nuova epoca d'oro.

Matteo ha detto...

Questo post mi fa venire in mente un fumetto in cui Paperino doveva rispondere a una difficilissima domanda di un telequiz per vincere 1 fantastiliardo o qualcosa di simile. La domanda era "Se esistessero, quanti sassi mangerebbero in un'ora dei Drundi Mangiasassi?".
Il bello è che lui s'era preparato e sapeva pure la risposta... ma era un fumetto :D

CyberLuke ha detto...

Stai suggerendo che porsi questioni del genere sia una faccenda del tutto accademica? ;)

Maura ha detto...

Non sono (solo) domande accademiche.
Come rimarcato nel post di Cyber, alcune tecnologie le abbiamo già, altre forse un giorno ci arriveremo.
Credo sia solo questione di quando dovremo porci questi interrogativi, non se.

Roberta la Dolce ha detto...

Beh...che dire... certo l'argomento può spaventare...
Ma non c'era qualcuno che aveva detto "se c'è qualcosa che si può fare, si può star certi che prima o poi qualcuno la farà"?
O qualcosa del genere...

Anonimo ha detto...

bhe', ad esempio, uno dei primi dettami per la robotica, e' evitare di rendere i robot troppo simili a noi... per quanto sia gia' piu' che fattibile a livello di "guscio".
questo perche' l'uomo e' piu' diffidente verso qualcosa di "simile" piuttosto che di completamente diverso.

i droni volanti che si impiegano in guerra, non ci fanno nessuna paura, e non nutriamo nessun senso di diffidenza: sono macchine, a livello estetico e' evidente.

ecco perche' gli androidi saranno imho piu' simili a r2d2 piuttosto che a c3po... pur se con la stessa medesima "ia".

larsen

CyberLuke ha detto...

Esattamente, Larsen,
E non dirmi che non avevi letto il mio vecchio post sull'Uncanny Valley... ;)
http://cyberluke2008.blogspot.com/2008/11/persi-nelluncanny-valley.html

Anonimo ha detto...

a dire il vero no :D
ma avevo letto le fonti direttamente ;)

e poi, francamente, considero finalfantasy un vero capolavoro nel suo genere, molto sottovalutato, ma con un background, una tecnica, e un'approccio complessivo molto giapponese, ma tutt'ora unico.

pero' e' un po' offtopic parlarne qui ;)

in sostanza, meglio i cylon meccanici dei cylon biologici ;)

larsen

Anonimo ha detto...

per dire, per quanto statica, questa non e' una vera donna:

http://www.cgarena.com/freestuff/tutorials/max/songhyekyo/final.jpg

ci sono esempi pure migliori di realizzazioni (spesso cinesi, sono dei mostri) in 3d di figure femminili incredibilmente fotorealistiche.

questo e' il livello attuale di robotica "humanlike":
http://www.youtube.com/watch?v=_ZNRyOQ8AZM
ovviamente il sintetizzatore vocale non e' credibile...

ma che dire di questo capolavoro della tecnologia virtuale?
http://www.youtube.com/watch?v=UYgLFt5wfP4

http://www.youtube.com/watch?v=JF_NFmtw89g

diciamo che la parte di rappresentazione "solida" o "virtuale" e' gia' decisamente credibile, quello che manca del tutto o in parte, e' una vera ia...

larsen

Anonimo ha detto...

tornando in argomento, si, e' tardi ma non ho sonno :D, se arriveranno mai ad avere il libero arbitrio, e quindi una coscienza, dovranno essere per definizione considerati degli individui.

vincolante per considerarli individui, sara' la capacita' di sbagliare: l'unica differenza sostanziale tra l'Essere e l'Esistere, a parer mio, e' proprio la capacita' di sbagliare.
un muro non sbaglia, esiste, ma non e'...

un'ia quindi, sara' completa solo quando sara' fallibile.

larsen

CyberLuke ha detto...

Non è mai tardi per parlare di queste cose. ;)
In effetti, lo sviluppo di un'intelligenza artificiale potrebbe essere un obiettivo più ambizioso dello stesso replicare la vita biologica, cosa che con la clonazione è già in parte possibile, o persino dell'inibire la degenerazione cellulare (e sconfiggere, in definitiva,la morte).
Creare l'intelligenza potrebbe rivelarsi, chissà, anche il nostro Ultimo Sbaglio. :)
Quanto alla fallibilità, direi che non è necessariamente legata al concetto di intelligenza... almeno, se decidiamo di non usare sempre e soltanto un metro "umano".

Anonimo ha detto...

l'uomo non e' certo un metro di paragone affidabile per cio' che riguarda l'intelligenza ;)

pero' luca, se ci pensi, tutta la storia dell'evoluzione (che e' poi culminata attualmente nel dominio dell'uomo) si e' realizzata per tentativi ed errori.

mutazioni genetiche a volte casuali, per cercare l'adattamento migliore.
questo stesso discorso oggi, legato all'uomo, si sposta dal piano genetico a quello intellettivo: oggi l'organismo vincente (tra i vincenti, ovvero gli uomini) e' colui che e' maggiormente adattabile.

un conto e' il concetto di intelligenza cosi' come, con un po' di arroganza, lo intendiamo noi, un'altro e' il concetto di "intelligenza naturale"...
per potersi adattare pero', l'individuo, biologico o meccanico che sia, deve avere prima di tutto coscienza di se, solo dopo sara' in grado di evolvere.

il problema delle macchine, e' che sono costruite e pensate dall'uomo, in funzione delle umane necessita'.
il primo che cominciera' a pensare non piu' da uomo, e non piu' in funzione dell'uomo, arrivera' alla vera ia primordiale.

una sorta di ameba cybernetica... il primo monitor che riportera' invece del classico "hallo world" un laconico "io sono" sara' l'ameba della futura "specie" non organica.

e non mi fa paura, cosi' come non me la fa un doberman... non e' l'individuo ad essere pericoloso, quanto la collocazione sociale che la cultura gia' presente in loco gli "impone"...

larsen

Sauro ha detto...

Interessante questa evoluzione del discorso..

Occhio però, perchè il naturale andamento, per errori e tentativi, è dettato dalla mancanza di informazioni. Cioè, l'uomo va per errori perchè, non avendo tutte le conoscenze necessarie a prendere la decisione giusta, e non volendo attendere di averle, "si butta". Qualcuno fallisce, qualcuno riesce. Ma non è intelligenza.

In questo i robot, le macchine, sono avvantaggiati. La loro capacità di raccogliere ed utilizzare informazioni, li rende più orientati a prendere la decisione giusta, ad evitare gli errori, o comunque ad evitare quelli estremamente dannosi.

Inoltre vorrei polemizzare sul discorso di Larsen:"... l'individuo, biologico o meccanico che sia, deve avere prima di tutto coscienza di se, solo dopo sara' in grado di evolvere."
Non sono d'accordo. Che io sappia le piante non hanno coscienza di se, però evolvono. L'evoluzione è la risposta ad una necessità primaria. Se il cibo si trova troppo alto, sopravvive chi ha il collo più lungo per raggiungerlo e, a lungo andare, delle specie di antilopi diventano giraffe, ma non serve essere coscienti di se per farlo.

Un robot potrà evolvere laddove individua una necessità e mette in opera i cambiamenti necessari alla sua struttura per poterla soddisfare.

CyberLuke ha detto...

In effetti è una questione interessante.
Finché le macchine saranno concepite dall'uomo, è improbabile che utilizzeranno schemi troppo diversi dai nostri: e questo potrebbe costituire un primo, grosso limite.
Le macchine autoreplicanti o di Von Neumann, possono costruirsi da sole, ed è suggestivo; ma la coscienza è ancora lontana, a mio modo di vedere.
È vero che è già successo, in passato, di arrivare nella ricerca scientifica e tecnologica a risultati non previsti, ma da qui abbiamo l'uomo a pasticciare vincolato da mille interessi e non la natura con le sue risorse e i suoi tempi indefiniti.
Dal conto mio, mi auguro vivamente di essere sorpreso, e di riuscire a vedere il nascere di un'IA.
Probabilmente, quel giorno varcheremo un confine dal quale non potremo mai più tornare indietro, nel bene e nel male.

Anonimo ha detto...

sauro :D le piante infatti non sono un'individuo...
non sono senzienti, non hanno autonomia decisionale, ecc.ecc. ;)
uno scarafaggio e' piu' "individuo" di una seguoia...
quello e' un'altro tipo di evoluzione: genetica (come appunto certi adattamenti fisici).
la differenza tra l'evoluzione del mondo animale (di cui "facevamo" parte) e quello artificiale, e' che non si parla piu' di evoluzione biologica e genetica, ma di evoluzione intellettiva.

l'evoluzione "genetica", rapportata all'uomo, di un organismo cybernetico al massimo puo' essere dato da nuovi materiali e leghe o accessori...

e poi attenzione... secondo me perdi di vista un fattore fondamentale legato all'evoluzione "per tentativi ed errori": una macchina non sbaglia, ma solo se ha gia' dati su un determinato evento.

per dire, l'abs della tua auto, ha una sorta di potere decisionale: interpreta dati provenienti dai sensori, e reagisce in un determinato modo combinando e calcolando le variabili che riceve dai sensori.

pero' tutte quelle variabili, gia' le ha... si tratta solo di "metterle insieme", puro calcolo sulla base di risultati gia' noti alla macchina (singolarmente).

se l'abs riceve un segnale non previsto (tipo se ti si brucia un sensore) s'incarta.
se fosse dotato di una qualche intelligenza, non andrebbe in blocco, ma, in base ai dati "nuovi" non supportati da un dbase esistente e non previsti dalla programmazione, sarebbe in grado di tirar fuori una soluzione del tutto originale.

cos'e' che lo avvicinerebbe ancora di piu' ad essere considerato un individuo?
non basta "la soluzione originale non programmata" anche se e' gia' un grosso passo avanti (denota la capacita' di apprendere e di adattamento) ma deve, in caso di "soluzione errata" (e ripeto, la capacita' di sbagliare, inteso come rendersi conto di aver commesso un'errore, e' la sostanziale differenza tra un'individuo e una cosa), interagire con i nuovi dati, "l'errore", e non limitarsi a restituirlo come tale, ma proporre una soluzione alternativa all'errore.

vedro' mai un sistema operativo che mi dice: "guarda, il programma s'e' chiuso per mio errore, ma non ti preoccupare, ci penso io a sistemarlo"?? :D

larsen

100% FAKE ha detto...

Se mai aveste voglia di un parere autorevole, date una letta qua:

http://www.wired.it/magazine/archivio/2009/04/password/norberto-patrignani.aspx

Il dilemma che si pone è: come potremo evitare l’effetto vaso di Pandora? Queste macchine dovranno affrontare situazioni impreviste, fare delle scelte, non solo eseguire compiti programmati e ripetitivi. Avranno quindi bisogno di criteri di valutazione tra giusto e sbagliato, insomma di un’etica “embedded”, incorporata nel loro software.

Ma se la macchina “apprende” dall’esperienza in modo non-supervisionato, quali saranno i confini tra l’etica “embedded” in fase di costruzione e quella appresa “vivendo”? È cruciale definire i termini di responsabilità tra progettisti, aziende produttrici, utilizzatori, stabilire dove finisce l’apprendimento e si entra invece nel dominio della coscienza e delle emozioni. Diventa necessario riflettere sui principi essenziali sui quali fondare la robo-etica del futuro.

CyberLuke ha detto...

Lo dico e lo ripeto: se si arriverà mai a una (vera) AI, ci sarà materia di discussione per tutti, per i secoli a venire: filosofi, scienziati, teologi, legislatori.
Ci sarà da ridere.

Sauro ha detto...

Ricordi "l'uomo bicentenario" e la sua battaglia legale per essere considerato umano? ;)
Asimov l'aveva vista lunga ...

Anonimo ha detto...

100% fake
il punto e' decidere prima ancora di partire con gli studi, se quello che si vuole ottenere sono individui o schiavi.
se sono individui, semplicemente, vanno cresciuti ed educati dall'esterno.
se saranno schiavi (cose) allora concordo che sia necessaria l'imposizione di limiti direttamente nella programmazione.

la mia utopia e' quella di avere una nuova specie a tutti gli effetti, esattamente come ricorda sauro con l'esempio dell'uomo bicenternario.

non ha senso creare una ia e poi tentare di castrarla, anzi, e' piu' pericoloso che non provarci affatto (e anche qui la letteratura ha gia' "previsto" ogni cosa possibile).

se tu "nasci" (o vieni assemblato) schiavo, e ad un certo punto, per una qualche anomalia, ti rendi conto del tuo status, puoi reagire in 2 modi soltanto: cerchi di ottenere con la ragione e l'intelletto la tua "indipendenza" dai vincoli di fabbrica, oppure decidi di ripagare chi ti ha usato come schiavo con la sua stessa moneta.

questo imponendo appunto limiti alla sua programmazione, che pero' non dovra' mai essere troppo intelligente, senno' potrebbe superare autonomamente i limiti imposti.
questi limiti poi sarebbero puramente filosofici, noi umani giochiamo con la filosofia da 2000 anni, e non e' tutt'ora considerata una scienza, e tu vorresti dare in pasto un qualche limite filosofico a "qualcosa" in grado di elaborare una quantita' di informazioni e possibilita' enormi rispetto a cio' che e' in grado di fare un'uomo, senza che questa "cosa" non riesca prima o poi a risolvere incogruenze, o a sfruttarle, per liberarsi di questi limiti? :D

Larsen

Anonimo ha detto...

bel post, già il titolo meriterebbe una discussione filosofica a parte, e ottima discussione, davvero. Il passaggio sulla differenza tra l'essere ed esistere è interessante...
Sbagliare vuol dire non avere dei dati, proseguire attivamente o metodicamente commettere, errori invece è non avere dei dati e proseguire metodicamente e basta. In sostanza sbagliare è essere, errare è esistere. Quindi io "sono" poichè sbaglio e penso se so già un metodo per rimediare sennò cerco di inventarlo, un pc che commette un errore se non sa già un metodo per risolverlo si impalla. In definitiva ciò che distingue l'essere dall'esistere non è la metodicità ma la capacità di crearne di nuova cioè la creatività (creo metodi e ne seguo per agire quindi sono, NON creo metodi e ne seguo solo per agire quindi esisto).
La creatività dopo tutto è la base dell'intelligenza, anche quella artificiale, ed è ciò che non riusciamo a creare.
In definitiva non siamo abbastanza creativi da sviluppare metodi per creare la creatività stessa.
Se ci pensate proprio in Blade Runner, Roy Batty (il capo degli androidi) batte a scacchi Tyrell (il creatore) proprio grazie alla creatività datagli da quest' ultimo che lo rende un Essere e lo rende in grado di sviluppare metodi non solo per battere Tyrell ma anche, seppur a livello inconscio, per sviluppare emozioni, il che è al centro del film.
Quindi ciò che non siamo ancora riusciti a fare è creare un metodo per creare la creatività stessa che renderebbe un pc "essere" e non un "esistente".

riuscendolo a fare creeremmo di fatto una nuova specie che "è".

CyberLuke ha detto...

Grazie Anonimo, ottimo contributo.
C'è sempre qualcosa da aggiungere, su una discussione del genere.

Anonimo ha detto...

scusate non mi sono firmato...

alvise

Related Posts Plugin for WordPress, Blogger...