Pagine
▼
domenica 22 luglio 2007
lunedì 16 luglio 2007
REDONDO BEACH
Stasera sarò al concerto di Patti Smith, la poetessa del punk. Dopo Taj Mahal e Jerry Portnoy, altre onde sonore per corteggiare le orecchie e distrarmi il cuore.
Chiunque vogia contattarmi nell'arco delle prossime 24 ore, telefoni pure al mio attuale manager e mentore Puck il Nano.
Alla prossima, con nuovi aggiornamenti dal fronte psicofantagruelico.
mercoledì 11 luglio 2007
ODDITIES DELLA SETTIMANA (11/07/07)
Ancora Oddities.
Questa volta il clan più eterogeneo al mondo candida Philip Morris e l'amabile Uomo Lineolum.
A presto, miei cari.
Questa volta il clan più eterogeneo al mondo candida Philip Morris e l'amabile Uomo Lineolum.
A presto, miei cari.
sabato 7 luglio 2007
POSSONO LE MACCHINE PENSARE?
Per Intelligenza Artificiale si intende l’abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana, servendosi di algoritmi che consentano alla macchina di mostrare un’abilità “intelligente” in specifici ambiti.
Dopo le prime macchine calcolatrici di Blaise Pascal e Charles Babbage (rispettivamente XVII e XIX secolo), bisogna aspettare fino al Novecento per disporre di congegni di calcolo e programmazione sufficientemente potenti da permettere delle sperimentazioni sull’intelligenza delle macchine.
Negli anni Trenta venne costruito ABC (l'Atanasoff-Berry Computer), il primo esempio di computer digitale. Nel 1946 J. Presper Eckert e John Mauchly presentarono ufficialmente ENIAC, concepito come calcolatore moderno. La sua mansione iniziale, infatti, era quella di risolvere i problemi di calcolo balistico per il lancio dei proiettili nell’artiglieria.
ENIAC era una macchina di nove metri per trenta, con un peso di trenta tonnellate. Sprigionava così tanto calore che, alla sua prima attivazione, causò un black out nel quartiere ovest di Filadelfia.
Ma il punto di svolta risale solo al 1950, quando la rivista Mind pubblicò uno scritto di Alan Turing in cui venne indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente.
Il test di Turing, conosciuto anche come Gioco dell’imitazione, consisteva essenzialmente nel rispondere alla sua domanda iniziale : “Possono le macchine pensare?”
I protagonisti del test sono tre persone: un uomo (che chiameremo A), una donna (B) e un interrogante (C). Scopo del gioco è che l’interrogante scopra chi sia l’uomo e chi la donna, attraverso una serie di domande che dovrà porre agli altri due giocatori.
L’interrogante viene chiuso in una stanza e le risposte di A e B vengono dattiloscritte, in modo che nulla possa avvantaggiare il giocatore C nel capire chi sia l’uomo e chi la donna.
Il ruolo di A è quello di ingannare l’interrogante.
B, invece, ha il compito di aiutarlo.
Il test di Turing si basa sulla sostituzione di una macchina ad A. Se l’interrogante non si accorge di conversare con una macchina allora tale macchina è da considerarsi intelligente, in quanto in grado di formulare ragionamenti concatenati tra loro ed esprimerli esattamente come un essere umano.
Inizialmente, quindi, l’idea di Intelligenza Artificiale era collegata alla semplice produzione di espressioni logiche.
Sull’efficacia di questo test si mossero le opinioni di diversi pensatori, e lo stesso Turing ne riformulò i criteri originali in quanto inadeguati o troppo facilmente soddisfatti da programmi evidentemente non pensanti.
Tra le creature artificiali che superarono il famoso test spicca ELIZA, il primo tentativo di creare l’illusione di un dialogo tra esseri umani.
Il programma per computer ELIZA , concepito nel 1966 da Joseph Weizebaum, era in grado di simulare una conversazione tra una psicoterapista (ELIZA, appunto) e il suo paziente (un essere umano).
Il programma sconvolse l’opinione pubblica a tal punto che alcuni pensarono che dietro la macchina ci fosse effettivamente un vero psicoterapista, tanto le risposte erano verosimili e opportune.
Ma la realtà dei fatti fu che Weizebaum scelse la psicoterapia per non preoccuparsi di dare alla macchina una vera e propria coscienza. La seduta terapeutica è una di quelle situazioni ideali in cui l’interlocutore può rispondere con una semplice affermazione contenente l’input della domanda iniziale.
Il programma accetta come input una frase, e ne restituisce un’altra scomponendo e riformulando la frase in origine.
L’operazione può essere spiegata in questi tre punti:
1) consultando un apposito database, la macchina tenta di capire la struttura della frase dell'utente;
2) per ogni tipo di struttura-input esiste una serie di strutture-output, ossia di tipologie di risposta.
Il programma ne sceglie una;
3) scelta la struttura della frase, il programma utilizza i termini dell'input per generare la frase vera e propria.
Ecco un esempio di conversazione con ELIZA.
paziente: gli uomini sono tutti uguali
ELIZA: in che senso?
paziente: ci fregano sempre in qualche modo
ELIZA: puoi fare un esempio specifico?
paziente: un mio amico mi ha fatto venire qui
ELIZA: un tuo amico ti ha fatto venire qui?
paziente: dice che sono quasi sempre depressa
ELIZA: mi dispiace sentire che sei depressa
paziente: è vero, sono infelice
ELIZA: credi che venire qui ti aiuterà a non essere infelice?
paziente: ho bisogno di aiuto, questo è sicuro!
ELIZA: cosa intendi come aiuto?
paziente: forse potrei riuscire ad andare d'accordo con mia madre
ELIZA: parlami di tua madre
In seguito ad Eliza vennero creati diversi programmi per simulare il pensiero umano.
Tra tutte tengo a segnalare l’intelligenza artificiale ALICE, frutto degli studi del Dr. Richard Wallace per l’ Artificial Intelligence Foundation. (in allegato, una mia intervista al programma ALICE).
ALICE è un chatterbox (un computer in grado di chattare) e risponde alla sigla Artificial Linguistic Internet Computer Entity. Ha vinto l’edizione del 2001 del Loebner Prize, il più ambito riconoscimento per gli scienziati che lavorano alle capacità di dialogo e apprendimento tra computer.
L’esperimento si è svolto secondo le vecchie regole del test di Turing. Da una parte otto computer e due uomini. Dall’altra una giuria di esseri umani esperti di informatica. Obiettivo, beffare la giuria confondendola su quale interlocutore fosse umano e quale invece un dispositivo elettronico.
ALICE ha vinto il premio in quanto miglior computer in grado di conversare in modo più simile a un essere umano. Ma ciononostante solo un membro della giuria l’ha effettivamente scambiata per una mente umana. Secondo l’uomo d’affari Hugh Loebner, organizzatore dell’evento, c’è ancora parecchia strada da fare.
Osservando le risposte di ELIZA agli input esterni, o di altre macchine analoghe create successivamente (come nel caso di ALICE), siamo ancora lontani nel trovare una risposta alla domanda iniziale: possono le macchine pensare?
Interessante è la presa di posizione del filosofo John Searle, oppositore storico della branca dell’Intelligenza Artificiale denominata “forte”.
Per John Searle nessun computer può pensare alla pari di un essere umano. La mente umana e il cervello elettronico non sono paragonabili, in quanto la capacità di una macchina di eseguire una procedura non implica il fatto che tale macchina sappia effettivamente cosa stia facendo. Il computer, a differenza dell’uomo, non necessità di comprendere un linguaggio o dei codici per poter comunicare.
L’esperimento di Searle, mirato a confutare le teorie del test di Turing, prende il nome di Stanza Cinese, e venne esposto al pubblico per la prima volta nell’articolo “Minds, Brains and Programs” del 1980.
Searle supponeva l’esistenza di un computer in grado di comportarsi come se capisse il cinese. Prese in considerazione una macchina in grado (come ELIZA) di captare input esterni e riformularli in modo da dare delle risposte. In questo caso, la macchina avrebbe preso dei simboli cinesi in ingresso e avrebbe consultato un proprio database al fine di produrre simboli cinesi in uscita.
La macchina, quindi, avrebbe senza problemi superato il test di Turing, rispondendo alle domande di un essere umano in piena conoscenza della lingua cinese.
Secondo i sostenitori dell’Intelligenza Artificiale Forte il computer è in grado di capire la lingua cinese, proprio come farebbe una persona, in quanto non c’è alcuna differenza tra il comportamento della macchina e quello di un uomo che conosce il cinese.
Ma per John Searle la macchina, a differenza della mente umana, non possiede intenzionalità.
Nell’esperimento Searle si immagina di sedersi all’interno di una stanza (che rappresenta il computer) e di poter ricevere dall’esterno dei foglietti con caratteri cinesi. Dentro la stanza ci sono dei grossi volumi contenenti delle regole di sintassi cinese per poter costruire una risposta. Dall’esterno Searle riceve dei fogli con sopra scritti degli ideogrammi. Pur non comprendendo la lingua cinese, con l’ausilio di questi libri di regole l’uomo nella stanza sarebbe comunque in grado di ordinare gli ideogrammi in un ordine di senso, tramite una regola di associazione di simboli. Esattamente come si comporterebbe una macchina.
Il calcolatore, in sostanza, è per Searle un semplice manipolatore di simboli, che non è in grado di capire quello che sta dicendo.
Ma a questa teoria non mancarono le critiche.
Per prima cosa, è vero che l’uomo nella Stanza non capisce il cinese. Però lo capiscono l’uomo e la Stanza considerati assieme come sistema. L’uomo, in sostanza, agirebbe come un singolo neurone del cervello: come singolo non è in grado di capire, ma può contribuire alla comprensione del sistema complessivo. Esattamente come un singolo neurone non sarebbe in grado di pensare pur contribuendo attivamente alla funzione complessiva del cervello umano.
Searle replicò spiegando come il sistema in questione possa essere proprio all’interno dell’uomo. Basterebbe semplicemente che l’uomo nella Stanza si mettesse a imparare a memoria quei libri di regole. Arriverebbe così a rappresentare da solo l’intero sistema, pur continuando a non comprendere la lingua cinese.
La risposta di Searle, quindi, viene spiegata dalla netta differenza tra sintassi (l’insieme delle regole che stabilisce la posizione delle parole nella frase) e semantica (il significato della frase stessa, o delle singole parole).
Per il filosofo, in definitiva, solo le proprietà fisico-chimiche del cervello umano hanno poteri causali in grado di riprodurre i fenomeni intenzionali della nostra mente. Quindi, soltanto riproducendo quegli stessi poteri causali, possiamo ottenere gli stessi effetti di una mente umana.
Questa possibilità, nel caso si riuscisse ad ottenerla nella pratica, potrebbe soddisfare il nostro quesito d’origine? Possono le macchine pensare?
Nel 1949 catturò l’attenzione tra gli scienziati la dichiarazione del famoso neurochirurgo Sir Geoffry Jefferson:
«Fino a quando una macchina non potrà scrivere un sonetto o comporre un concerto suggeriti da emozioni realmente provate, e non per una scelta casuale di simboli, non potremo ammettere che una macchina eguagli il cervello umano; cioé che non solo scriva queste cose, ma che sappia di averle scritte. E' certo che nessun meccanismo potrebbe provare piacere (e neppure manifestarlo artificialmente, un facile espediente) verso i propri successi e angosce quando gli saltano le valvole, né animarsi davanti alle lusinghe, o rattristarsi per i propri errori, o essere affascinato dal sesso, o incollerirsi o deprimersi quando non può ottenere ciò che desidera».
Ne “I cinque di Cambridge” di John L. Casti, viene raccontata una cena tra Alan Turing, Wittgestein, Schrödinger e Hadane. La discussione prende origine proprio in risposta alle dichiarazioni di Jefferson, riportate dalla BBC.
Ecco un estratto della spiegazione di Turing raccontata da Casti:
“ (…) lasciatemi chiarire la costituzione fisica del cervello. Credo che dopo capirete come la struttura del cervello possa venir catturata nella struttura di una macchina calcolatrice. E forse a quel punto potremo discutere con più profitto sul modo in cui un simile congegno possa realmente essere capace di vero pensiero. (…)Il cervello umano è costituto da un numero molto elevato di elementi chiamati neuroni: diecimila milioni o più, secondo le stime di alcuni. Questi neuroni sono collegati l'uno con l'altro da una rete estremamente fitta di 'fìli' chiamati assoni e dendriti.(…) La maggior parte dei neurofisiologi e degli psicologi ritiene che le combinazioni create nel cervello da queste scariche dei neuroni abbiano una parte importante nella base dei processi di pensiero e, di conseguenza, nel comportamento degli esseri umani.(…) Warren McCulloch, neurofisiologo dell'Università dell'Illinois, e Walter Pitts, ricercatore di matematica dell'Università di Chicago, pubblicarono un articolo straordinario sul modo in cui il funzionamento di un gruppo di neuroni connessi ad altri neuroni poteva venire replicato utilizzando elementi puramente logici. Il modello considera che un neurone venga attivato e scarichi poi in direzione di un altro neurone, nello stesso modo in cui una proposizione in una sequenza logica può implicare la verità o falsità di altre proposizioni. In più, in termini tecnici possiamo raffigurare l'analogia tra neuroni e logica mediante segnali che passano - o non riescono a passare - attraverso un circuito elettrico. Basta un passo molto piccolo, almeno in linea di principio, e questa struttura logica sviluppata da McCulloch e Pitts può essere applicata agli elementi materiali di una macchina calcolatrice elettronica."
E, qui di seguito, la replica di Wittgenstein :
“Di certo, non vorrà dire che le configurazioni di dati immagazzinati nelle varie caselle postali della macchina o nelle combinazioni dei neuroni APERTI/CHIUSI nel cervello possano essere interpretati come pensieri! Supponga di avvertire il profumo del pane fresco in forno o di avere in mente un'immagine del volto di sua nonna. Se ora le aprissi la testa e osservassi tutti questi neuroni APERTI o CHIUSI nel suo cervello, certamente non sarei in grado di dire: 'Ah, qui c'è la configurazione A, per cui Turing sta pensando a una fetta di pane fresco. Ed ecco che arriva la configurazione B, per cui la mente di Turing si è modificata, e ora sta pensando a una visita a casa della nonna. (…) Non posso osservare i fenomeni mentali altrui. Né posso osservare i miei, nel senso proprio di "osservare". Dunque, a che punto ci troviamo? Nella nebbia più fitta, ecco dove. In una bella confusione che non può essere risolta né con l'introspezione, né con l'analisi del comportamento. E nemmeno con una teoria del pensiero. L'unica soluzione può venire da una ricerca concettuale, un'analisi del modo in cui facciamo uso di parole come 'intenzione', 'volontà' e 'speranza'. Queste parole traggono il loro significato da una forma di vita, da un gioco linguistico, molto diverso dalla descrizione e spiegazione dei comuni fenomeni fisici della vita di ogni giorno.(…) La stessa cosa (…) deve valere per una macchina calcolatrice. Se tolgo il coperchio della macchina e guardo ogni riquadro del suo nastro, la configurazione dei dati formata dai simboli scritti su quei riquadri sicuramente non mi può dire che cosa sta pensando la macchina. In effetti, non riesco proprio a capire come lei possa dire che si tratta di 'pensiero'. E' necessario un essere umano all'esterno della macchina, perché quelle configurazioni possano essere interpretate come pertinenti a qualcosa.”
Il dibattito è ancora aperto. Possono le macchine pensare?
Secondo l’opinione di alcuni fisici, per valutare se una macchina sia effettivamente in grado di pensare come un essere umano è prima necessario entrare nei meccanismi reali della mente umana, capire come funziona.
Solo quando si acquisisce una teoria sufficientemente precisa sul funzionamento della mente è possibile considerare tale teoria come un programma, e paragonarla così al programma di funzionamento delle macchine.
Newell e Simon, inventori del programma GPS (“risolutore generale di problemi”), non mirarono semplicemente a realizzare qualcosa capace di risolvere problemi, ma semmai si servirono della macchina per confrontare le tracce dei passi del suo ragionamento con quelle dei soggetti umani sottoposti ai medesimi problemi da risolvere.
Nel 1960 lo scienziato Arthur Samuel presentò ufficialmente il primo programma in grado di giocare a dama.
Il programma era capace di “ricordare” le varie posizioni incontrate e di imparare dalle conseguenze delle sue scelte. La macchina si scontrò con avversari umani, riuscendo a sconfiggere un famoso giocatore in una partita del 1962.
Ma nonostante il successo, è difficile parlare di vera e propria intelligenza. I programmi di gioco, infatti, si limitano a sfruttare soltanto le loro potenzialità di calcolo. Nella dama le possibilità di scelta rientrano comunque in un numero finito, seppur grande. La loro capacità di gioco dipende dall’apprendimento automatico. Ecco perché è nella dama e negli scacchi che i robot vanno per la meglio, mentre si mantengono ancora piuttosto mediocri a bridge e a poker dove è fondamentale l’intuito del giocatore.
L’invenzione di Stanton si basò sugli studi di John Von Neumann, pubblicati nell’articolo Theory of Games and Economic Behaviour. In questo testo Neumann spiegò come molti giochi, ad esempio gli scacchi, fossero basati su un algoritmo, il minimax, che permette di scegliere qual è la mossa migliore.
Von Neumann fu una figura ambigua nella storia del Novecento. Artefice della bomba atomica e creatore dell’architettura del computer moderno (EDVAC) , Neumann ipotizzò la futura progettazione di sonde spaziali robotiche intelligenti e autoreplicanti. Le sonde in questione, che ispirarono le terribili “Autofac” di Philip K. Dick, erano simulazioni di organismi, capaci di attraversare le distanze galattiche e di attraccare ai pianeti di sistemi solari lontani, utilizzando i materiali rinvenuti per replicare se stesse. Una logica analoga al funzionamento dei virus.
L’astronave replicante avrebbe potuto esplorare una costellazione dopo l’altra, continuando a viaggiare e a riprodursi grazie alle risorse ritrovate sul percorso, con il rischio di espandersi fino a colonizzare l’intero universo.
L’idea delle sonde autoreplicanti influenzò il fisico americano Frank Tipler, il quale ipotizzò la loro effettiva realizzazione in corpi da soli 100 grammi. Questo perché la macchina in questione dovrebbe avere come minimo le capacità intellettuali di un uomo. E il nostro cervello è costituito da 100 miliardi di neuroni.
Ognuna di queste cellule è collegata alle altre per mezzo di una fitta rete di sinapsi, che permettono al nostro cervello di contenere una quantità di informazioni elementari (paragonabili ai bit elettronici) in un numero 10 mila volte maggiore rispetto al numero complessivo dei neuroni stessi. Attraverso una serie di calcoli, Tipler auspica un futuro con calcolatori quantistici capaci di codificare un bit per atomo. Considerando che un corpo di cento grammi ha una quantità di atomi pari a 10 alla ventiquattresima, si potranno quindi codificare in un solo ettogrammo di materia un miliardo di volte le informazioni semplici contenute in un cervello umano.
Il paragone tra cervello umano e cervello elettronico attraverso calcoli matematici ha a sua volta influenzato Vitali Valtsen, un ricercatore dell’Accademia delle scienze di Mosca, che avrebbe messo a punto il primo microprocessore basato sulla stessa architettura dei neuroni che costituiscono il cervello dell’uomo.
Il neuro-chip, alla base del microprocessore ,sarebbe in grado di apprendere come un bambino. Pertanto necessita di essere educato, al fine di trasformarlo in un essere intelligente.
Nonostante gli scetticismi degli scienziati più autorevoli riguardo gli studi di Valtsen, è comunque auspicabile una situazione in cui la macchina venga messa nella condizione di imparare, superando una vera e propria “infanzia” che le consenta di mettere in moto processi di apprendimento e adattamento all’ambiente esterno.
Nell’Intelligenza Artificiale moderna, infatti, vengono prese in considerazione due evoluzioni parallele delle macchine. Una prima evoluzione, che da dispositivi semplici porti alla creazione di macchine via via sempre più complesse. E una seconda, che faccia crescere intellettualmente la macchina dandole modo di apprendere nozioni necessarie a una propria autonomia decisionale.
Ma possono le macchine pensare? Nonostante le incessanti scoperte in campo elettronico e i continui dibattiti etici e scientifici, è ancora difficile rispondere alla domanda.
E se la scienza ufficiale non ha ancora trovato una soluzione al quesito, forse la fantascienza può offrire delle soluzioni e degli scenari alternativi.
Qui di seguito, per concludere, l’animata conversazione tra il simulacro elettronico di Abramo Lincoln e il cinico signor Barrows, uno speculatore edilizio in carne ed ossa.
Lincoln: (…) che cos’è un animale?
Barrows: Posso dirle subito che lei non lo è. Un animale ha una eredità biologica e una costituzione che a lei mancano. Lei ha valvole, cavi, interruttori. È una macchina. Come un…una gru girevole. Come una macchina a vapore. Può una macchina a vapore considerarsi avente diritto alla protezione offerta dalla clausola della Costituzione che lei ha appena citato? Ha il diritto di mangiare il pane che produce, come un bianco?
Lincoln: Può una macchina parlare?
Barrows: Certo. Radio, fonografi, registratori, telefoni… continuano a blaterare come folli.
Lincoln: Allora, signore, che cos’è una macchina?
Barrows: Lei è una macchina. Queste persone l’hanno costruita. Appartiene a loro.
Lincoln: Allora, signore, anche voi siete una macchina. Perché anche lei ha un Creatore. E, come ‘queste persone’, Egli vi ha creato a sua immagine e somiglianza. Credo che Spinoza, il grande sapiente ebreo, pensasse la stessa cosa degli animali; ossia che erano macchine astute. Ritengo che il punto critico sia l’anima. Una macchina può fare tutto ciò che fa un uomo… penso che su questo sarete d’accordo. Ma non ha un’anima.
Barrows: L’anima non esiste. Si tratta di una semplice fantasia.
Lincoln: Allora, una macchina è la stessa cosa di un animale. E un animale è uguale all’uomo. Non è così?
Barrows: Un animale è fatto di carne e sangue, e una macchina è fatta di cavi e tubi, come lei. Dove vuole arrivare? Sa benissimo di essere una macchina; quando siamo entrati era seduto al buio a rifletterci sopra. E allora? Io so che lei è una macchina, ma non è questo che mi interessa. Ciò che m’interessa è sapere se funziona o meno. E per quanto mi riguarda non funziona abbastanza da interessarmi.
(da Philip K. Dick - “L’androide Abramo Lincoln”. Traduzione di G. Montanari. Edizioni Fanucci)
Dopo le prime macchine calcolatrici di Blaise Pascal e Charles Babbage (rispettivamente XVII e XIX secolo), bisogna aspettare fino al Novecento per disporre di congegni di calcolo e programmazione sufficientemente potenti da permettere delle sperimentazioni sull’intelligenza delle macchine.
Negli anni Trenta venne costruito ABC (l'Atanasoff-Berry Computer), il primo esempio di computer digitale. Nel 1946 J. Presper Eckert e John Mauchly presentarono ufficialmente ENIAC, concepito come calcolatore moderno. La sua mansione iniziale, infatti, era quella di risolvere i problemi di calcolo balistico per il lancio dei proiettili nell’artiglieria.
ENIAC era una macchina di nove metri per trenta, con un peso di trenta tonnellate. Sprigionava così tanto calore che, alla sua prima attivazione, causò un black out nel quartiere ovest di Filadelfia.
Ma il punto di svolta risale solo al 1950, quando la rivista Mind pubblicò uno scritto di Alan Turing in cui venne indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente.
Il test di Turing, conosciuto anche come Gioco dell’imitazione, consisteva essenzialmente nel rispondere alla sua domanda iniziale : “Possono le macchine pensare?”
I protagonisti del test sono tre persone: un uomo (che chiameremo A), una donna (B) e un interrogante (C). Scopo del gioco è che l’interrogante scopra chi sia l’uomo e chi la donna, attraverso una serie di domande che dovrà porre agli altri due giocatori.
L’interrogante viene chiuso in una stanza e le risposte di A e B vengono dattiloscritte, in modo che nulla possa avvantaggiare il giocatore C nel capire chi sia l’uomo e chi la donna.
Il ruolo di A è quello di ingannare l’interrogante.
B, invece, ha il compito di aiutarlo.
Il test di Turing si basa sulla sostituzione di una macchina ad A. Se l’interrogante non si accorge di conversare con una macchina allora tale macchina è da considerarsi intelligente, in quanto in grado di formulare ragionamenti concatenati tra loro ed esprimerli esattamente come un essere umano.
Inizialmente, quindi, l’idea di Intelligenza Artificiale era collegata alla semplice produzione di espressioni logiche.
Sull’efficacia di questo test si mossero le opinioni di diversi pensatori, e lo stesso Turing ne riformulò i criteri originali in quanto inadeguati o troppo facilmente soddisfatti da programmi evidentemente non pensanti.
Tra le creature artificiali che superarono il famoso test spicca ELIZA, il primo tentativo di creare l’illusione di un dialogo tra esseri umani.
Il programma per computer ELIZA , concepito nel 1966 da Joseph Weizebaum, era in grado di simulare una conversazione tra una psicoterapista (ELIZA, appunto) e il suo paziente (un essere umano).
Il programma sconvolse l’opinione pubblica a tal punto che alcuni pensarono che dietro la macchina ci fosse effettivamente un vero psicoterapista, tanto le risposte erano verosimili e opportune.
Ma la realtà dei fatti fu che Weizebaum scelse la psicoterapia per non preoccuparsi di dare alla macchina una vera e propria coscienza. La seduta terapeutica è una di quelle situazioni ideali in cui l’interlocutore può rispondere con una semplice affermazione contenente l’input della domanda iniziale.
Il programma accetta come input una frase, e ne restituisce un’altra scomponendo e riformulando la frase in origine.
L’operazione può essere spiegata in questi tre punti:
1) consultando un apposito database, la macchina tenta di capire la struttura della frase dell'utente;
2) per ogni tipo di struttura-input esiste una serie di strutture-output, ossia di tipologie di risposta.
Il programma ne sceglie una;
3) scelta la struttura della frase, il programma utilizza i termini dell'input per generare la frase vera e propria.
Ecco un esempio di conversazione con ELIZA.
paziente: gli uomini sono tutti uguali
ELIZA: in che senso?
paziente: ci fregano sempre in qualche modo
ELIZA: puoi fare un esempio specifico?
paziente: un mio amico mi ha fatto venire qui
ELIZA: un tuo amico ti ha fatto venire qui?
paziente: dice che sono quasi sempre depressa
ELIZA: mi dispiace sentire che sei depressa
paziente: è vero, sono infelice
ELIZA: credi che venire qui ti aiuterà a non essere infelice?
paziente: ho bisogno di aiuto, questo è sicuro!
ELIZA: cosa intendi come aiuto?
paziente: forse potrei riuscire ad andare d'accordo con mia madre
ELIZA: parlami di tua madre
In seguito ad Eliza vennero creati diversi programmi per simulare il pensiero umano.
Tra tutte tengo a segnalare l’intelligenza artificiale ALICE, frutto degli studi del Dr. Richard Wallace per l’ Artificial Intelligence Foundation. (in allegato, una mia intervista al programma ALICE).
ALICE è un chatterbox (un computer in grado di chattare) e risponde alla sigla Artificial Linguistic Internet Computer Entity. Ha vinto l’edizione del 2001 del Loebner Prize, il più ambito riconoscimento per gli scienziati che lavorano alle capacità di dialogo e apprendimento tra computer.
L’esperimento si è svolto secondo le vecchie regole del test di Turing. Da una parte otto computer e due uomini. Dall’altra una giuria di esseri umani esperti di informatica. Obiettivo, beffare la giuria confondendola su quale interlocutore fosse umano e quale invece un dispositivo elettronico.
ALICE ha vinto il premio in quanto miglior computer in grado di conversare in modo più simile a un essere umano. Ma ciononostante solo un membro della giuria l’ha effettivamente scambiata per una mente umana. Secondo l’uomo d’affari Hugh Loebner, organizzatore dell’evento, c’è ancora parecchia strada da fare.
Osservando le risposte di ELIZA agli input esterni, o di altre macchine analoghe create successivamente (come nel caso di ALICE), siamo ancora lontani nel trovare una risposta alla domanda iniziale: possono le macchine pensare?
Interessante è la presa di posizione del filosofo John Searle, oppositore storico della branca dell’Intelligenza Artificiale denominata “forte”.
Per John Searle nessun computer può pensare alla pari di un essere umano. La mente umana e il cervello elettronico non sono paragonabili, in quanto la capacità di una macchina di eseguire una procedura non implica il fatto che tale macchina sappia effettivamente cosa stia facendo. Il computer, a differenza dell’uomo, non necessità di comprendere un linguaggio o dei codici per poter comunicare.
L’esperimento di Searle, mirato a confutare le teorie del test di Turing, prende il nome di Stanza Cinese, e venne esposto al pubblico per la prima volta nell’articolo “Minds, Brains and Programs” del 1980.
Searle supponeva l’esistenza di un computer in grado di comportarsi come se capisse il cinese. Prese in considerazione una macchina in grado (come ELIZA) di captare input esterni e riformularli in modo da dare delle risposte. In questo caso, la macchina avrebbe preso dei simboli cinesi in ingresso e avrebbe consultato un proprio database al fine di produrre simboli cinesi in uscita.
La macchina, quindi, avrebbe senza problemi superato il test di Turing, rispondendo alle domande di un essere umano in piena conoscenza della lingua cinese.
Secondo i sostenitori dell’Intelligenza Artificiale Forte il computer è in grado di capire la lingua cinese, proprio come farebbe una persona, in quanto non c’è alcuna differenza tra il comportamento della macchina e quello di un uomo che conosce il cinese.
Ma per John Searle la macchina, a differenza della mente umana, non possiede intenzionalità.
Nell’esperimento Searle si immagina di sedersi all’interno di una stanza (che rappresenta il computer) e di poter ricevere dall’esterno dei foglietti con caratteri cinesi. Dentro la stanza ci sono dei grossi volumi contenenti delle regole di sintassi cinese per poter costruire una risposta. Dall’esterno Searle riceve dei fogli con sopra scritti degli ideogrammi. Pur non comprendendo la lingua cinese, con l’ausilio di questi libri di regole l’uomo nella stanza sarebbe comunque in grado di ordinare gli ideogrammi in un ordine di senso, tramite una regola di associazione di simboli. Esattamente come si comporterebbe una macchina.
Il calcolatore, in sostanza, è per Searle un semplice manipolatore di simboli, che non è in grado di capire quello che sta dicendo.
Ma a questa teoria non mancarono le critiche.
Per prima cosa, è vero che l’uomo nella Stanza non capisce il cinese. Però lo capiscono l’uomo e la Stanza considerati assieme come sistema. L’uomo, in sostanza, agirebbe come un singolo neurone del cervello: come singolo non è in grado di capire, ma può contribuire alla comprensione del sistema complessivo. Esattamente come un singolo neurone non sarebbe in grado di pensare pur contribuendo attivamente alla funzione complessiva del cervello umano.
Searle replicò spiegando come il sistema in questione possa essere proprio all’interno dell’uomo. Basterebbe semplicemente che l’uomo nella Stanza si mettesse a imparare a memoria quei libri di regole. Arriverebbe così a rappresentare da solo l’intero sistema, pur continuando a non comprendere la lingua cinese.
La risposta di Searle, quindi, viene spiegata dalla netta differenza tra sintassi (l’insieme delle regole che stabilisce la posizione delle parole nella frase) e semantica (il significato della frase stessa, o delle singole parole).
Per il filosofo, in definitiva, solo le proprietà fisico-chimiche del cervello umano hanno poteri causali in grado di riprodurre i fenomeni intenzionali della nostra mente. Quindi, soltanto riproducendo quegli stessi poteri causali, possiamo ottenere gli stessi effetti di una mente umana.
Questa possibilità, nel caso si riuscisse ad ottenerla nella pratica, potrebbe soddisfare il nostro quesito d’origine? Possono le macchine pensare?
Nel 1949 catturò l’attenzione tra gli scienziati la dichiarazione del famoso neurochirurgo Sir Geoffry Jefferson:
«Fino a quando una macchina non potrà scrivere un sonetto o comporre un concerto suggeriti da emozioni realmente provate, e non per una scelta casuale di simboli, non potremo ammettere che una macchina eguagli il cervello umano; cioé che non solo scriva queste cose, ma che sappia di averle scritte. E' certo che nessun meccanismo potrebbe provare piacere (e neppure manifestarlo artificialmente, un facile espediente) verso i propri successi e angosce quando gli saltano le valvole, né animarsi davanti alle lusinghe, o rattristarsi per i propri errori, o essere affascinato dal sesso, o incollerirsi o deprimersi quando non può ottenere ciò che desidera».
Ne “I cinque di Cambridge” di John L. Casti, viene raccontata una cena tra Alan Turing, Wittgestein, Schrödinger e Hadane. La discussione prende origine proprio in risposta alle dichiarazioni di Jefferson, riportate dalla BBC.
Ecco un estratto della spiegazione di Turing raccontata da Casti:
“ (…) lasciatemi chiarire la costituzione fisica del cervello. Credo che dopo capirete come la struttura del cervello possa venir catturata nella struttura di una macchina calcolatrice. E forse a quel punto potremo discutere con più profitto sul modo in cui un simile congegno possa realmente essere capace di vero pensiero. (…)Il cervello umano è costituto da un numero molto elevato di elementi chiamati neuroni: diecimila milioni o più, secondo le stime di alcuni. Questi neuroni sono collegati l'uno con l'altro da una rete estremamente fitta di 'fìli' chiamati assoni e dendriti.(…) La maggior parte dei neurofisiologi e degli psicologi ritiene che le combinazioni create nel cervello da queste scariche dei neuroni abbiano una parte importante nella base dei processi di pensiero e, di conseguenza, nel comportamento degli esseri umani.(…) Warren McCulloch, neurofisiologo dell'Università dell'Illinois, e Walter Pitts, ricercatore di matematica dell'Università di Chicago, pubblicarono un articolo straordinario sul modo in cui il funzionamento di un gruppo di neuroni connessi ad altri neuroni poteva venire replicato utilizzando elementi puramente logici. Il modello considera che un neurone venga attivato e scarichi poi in direzione di un altro neurone, nello stesso modo in cui una proposizione in una sequenza logica può implicare la verità o falsità di altre proposizioni. In più, in termini tecnici possiamo raffigurare l'analogia tra neuroni e logica mediante segnali che passano - o non riescono a passare - attraverso un circuito elettrico. Basta un passo molto piccolo, almeno in linea di principio, e questa struttura logica sviluppata da McCulloch e Pitts può essere applicata agli elementi materiali di una macchina calcolatrice elettronica."
E, qui di seguito, la replica di Wittgenstein :
“Di certo, non vorrà dire che le configurazioni di dati immagazzinati nelle varie caselle postali della macchina o nelle combinazioni dei neuroni APERTI/CHIUSI nel cervello possano essere interpretati come pensieri! Supponga di avvertire il profumo del pane fresco in forno o di avere in mente un'immagine del volto di sua nonna. Se ora le aprissi la testa e osservassi tutti questi neuroni APERTI o CHIUSI nel suo cervello, certamente non sarei in grado di dire: 'Ah, qui c'è la configurazione A, per cui Turing sta pensando a una fetta di pane fresco. Ed ecco che arriva la configurazione B, per cui la mente di Turing si è modificata, e ora sta pensando a una visita a casa della nonna. (…) Non posso osservare i fenomeni mentali altrui. Né posso osservare i miei, nel senso proprio di "osservare". Dunque, a che punto ci troviamo? Nella nebbia più fitta, ecco dove. In una bella confusione che non può essere risolta né con l'introspezione, né con l'analisi del comportamento. E nemmeno con una teoria del pensiero. L'unica soluzione può venire da una ricerca concettuale, un'analisi del modo in cui facciamo uso di parole come 'intenzione', 'volontà' e 'speranza'. Queste parole traggono il loro significato da una forma di vita, da un gioco linguistico, molto diverso dalla descrizione e spiegazione dei comuni fenomeni fisici della vita di ogni giorno.(…) La stessa cosa (…) deve valere per una macchina calcolatrice. Se tolgo il coperchio della macchina e guardo ogni riquadro del suo nastro, la configurazione dei dati formata dai simboli scritti su quei riquadri sicuramente non mi può dire che cosa sta pensando la macchina. In effetti, non riesco proprio a capire come lei possa dire che si tratta di 'pensiero'. E' necessario un essere umano all'esterno della macchina, perché quelle configurazioni possano essere interpretate come pertinenti a qualcosa.”
Il dibattito è ancora aperto. Possono le macchine pensare?
Secondo l’opinione di alcuni fisici, per valutare se una macchina sia effettivamente in grado di pensare come un essere umano è prima necessario entrare nei meccanismi reali della mente umana, capire come funziona.
Solo quando si acquisisce una teoria sufficientemente precisa sul funzionamento della mente è possibile considerare tale teoria come un programma, e paragonarla così al programma di funzionamento delle macchine.
Newell e Simon, inventori del programma GPS (“risolutore generale di problemi”), non mirarono semplicemente a realizzare qualcosa capace di risolvere problemi, ma semmai si servirono della macchina per confrontare le tracce dei passi del suo ragionamento con quelle dei soggetti umani sottoposti ai medesimi problemi da risolvere.
Nel 1960 lo scienziato Arthur Samuel presentò ufficialmente il primo programma in grado di giocare a dama.
Il programma era capace di “ricordare” le varie posizioni incontrate e di imparare dalle conseguenze delle sue scelte. La macchina si scontrò con avversari umani, riuscendo a sconfiggere un famoso giocatore in una partita del 1962.
Ma nonostante il successo, è difficile parlare di vera e propria intelligenza. I programmi di gioco, infatti, si limitano a sfruttare soltanto le loro potenzialità di calcolo. Nella dama le possibilità di scelta rientrano comunque in un numero finito, seppur grande. La loro capacità di gioco dipende dall’apprendimento automatico. Ecco perché è nella dama e negli scacchi che i robot vanno per la meglio, mentre si mantengono ancora piuttosto mediocri a bridge e a poker dove è fondamentale l’intuito del giocatore.
L’invenzione di Stanton si basò sugli studi di John Von Neumann, pubblicati nell’articolo Theory of Games and Economic Behaviour. In questo testo Neumann spiegò come molti giochi, ad esempio gli scacchi, fossero basati su un algoritmo, il minimax, che permette di scegliere qual è la mossa migliore.
Von Neumann fu una figura ambigua nella storia del Novecento. Artefice della bomba atomica e creatore dell’architettura del computer moderno (EDVAC) , Neumann ipotizzò la futura progettazione di sonde spaziali robotiche intelligenti e autoreplicanti. Le sonde in questione, che ispirarono le terribili “Autofac” di Philip K. Dick, erano simulazioni di organismi, capaci di attraversare le distanze galattiche e di attraccare ai pianeti di sistemi solari lontani, utilizzando i materiali rinvenuti per replicare se stesse. Una logica analoga al funzionamento dei virus.
L’astronave replicante avrebbe potuto esplorare una costellazione dopo l’altra, continuando a viaggiare e a riprodursi grazie alle risorse ritrovate sul percorso, con il rischio di espandersi fino a colonizzare l’intero universo.
L’idea delle sonde autoreplicanti influenzò il fisico americano Frank Tipler, il quale ipotizzò la loro effettiva realizzazione in corpi da soli 100 grammi. Questo perché la macchina in questione dovrebbe avere come minimo le capacità intellettuali di un uomo. E il nostro cervello è costituito da 100 miliardi di neuroni.
Ognuna di queste cellule è collegata alle altre per mezzo di una fitta rete di sinapsi, che permettono al nostro cervello di contenere una quantità di informazioni elementari (paragonabili ai bit elettronici) in un numero 10 mila volte maggiore rispetto al numero complessivo dei neuroni stessi. Attraverso una serie di calcoli, Tipler auspica un futuro con calcolatori quantistici capaci di codificare un bit per atomo. Considerando che un corpo di cento grammi ha una quantità di atomi pari a 10 alla ventiquattresima, si potranno quindi codificare in un solo ettogrammo di materia un miliardo di volte le informazioni semplici contenute in un cervello umano.
Il paragone tra cervello umano e cervello elettronico attraverso calcoli matematici ha a sua volta influenzato Vitali Valtsen, un ricercatore dell’Accademia delle scienze di Mosca, che avrebbe messo a punto il primo microprocessore basato sulla stessa architettura dei neuroni che costituiscono il cervello dell’uomo.
Il neuro-chip, alla base del microprocessore ,sarebbe in grado di apprendere come un bambino. Pertanto necessita di essere educato, al fine di trasformarlo in un essere intelligente.
Nonostante gli scetticismi degli scienziati più autorevoli riguardo gli studi di Valtsen, è comunque auspicabile una situazione in cui la macchina venga messa nella condizione di imparare, superando una vera e propria “infanzia” che le consenta di mettere in moto processi di apprendimento e adattamento all’ambiente esterno.
Nell’Intelligenza Artificiale moderna, infatti, vengono prese in considerazione due evoluzioni parallele delle macchine. Una prima evoluzione, che da dispositivi semplici porti alla creazione di macchine via via sempre più complesse. E una seconda, che faccia crescere intellettualmente la macchina dandole modo di apprendere nozioni necessarie a una propria autonomia decisionale.
Ma possono le macchine pensare? Nonostante le incessanti scoperte in campo elettronico e i continui dibattiti etici e scientifici, è ancora difficile rispondere alla domanda.
E se la scienza ufficiale non ha ancora trovato una soluzione al quesito, forse la fantascienza può offrire delle soluzioni e degli scenari alternativi.
Qui di seguito, per concludere, l’animata conversazione tra il simulacro elettronico di Abramo Lincoln e il cinico signor Barrows, uno speculatore edilizio in carne ed ossa.
Lincoln: (…) che cos’è un animale?
Barrows: Posso dirle subito che lei non lo è. Un animale ha una eredità biologica e una costituzione che a lei mancano. Lei ha valvole, cavi, interruttori. È una macchina. Come un…una gru girevole. Come una macchina a vapore. Può una macchina a vapore considerarsi avente diritto alla protezione offerta dalla clausola della Costituzione che lei ha appena citato? Ha il diritto di mangiare il pane che produce, come un bianco?
Lincoln: Può una macchina parlare?
Barrows: Certo. Radio, fonografi, registratori, telefoni… continuano a blaterare come folli.
Lincoln: Allora, signore, che cos’è una macchina?
Barrows: Lei è una macchina. Queste persone l’hanno costruita. Appartiene a loro.
Lincoln: Allora, signore, anche voi siete una macchina. Perché anche lei ha un Creatore. E, come ‘queste persone’, Egli vi ha creato a sua immagine e somiglianza. Credo che Spinoza, il grande sapiente ebreo, pensasse la stessa cosa degli animali; ossia che erano macchine astute. Ritengo che il punto critico sia l’anima. Una macchina può fare tutto ciò che fa un uomo… penso che su questo sarete d’accordo. Ma non ha un’anima.
Barrows: L’anima non esiste. Si tratta di una semplice fantasia.
Lincoln: Allora, una macchina è la stessa cosa di un animale. E un animale è uguale all’uomo. Non è così?
Barrows: Un animale è fatto di carne e sangue, e una macchina è fatta di cavi e tubi, come lei. Dove vuole arrivare? Sa benissimo di essere una macchina; quando siamo entrati era seduto al buio a rifletterci sopra. E allora? Io so che lei è una macchina, ma non è questo che mi interessa. Ciò che m’interessa è sapere se funziona o meno. E per quanto mi riguarda non funziona abbastanza da interessarmi.
(da Philip K. Dick - “L’androide Abramo Lincoln”. Traduzione di G. Montanari. Edizioni Fanucci)
lunedì 2 luglio 2007
SLOW TRAIN COMIN'
Sono tornato ieri sera da Città del Castello.
Il treno ci ha messo più del dovuto, così ho donato più di sei ore della mia vita a Trenitalia. Pazienza.
Il Folkfestival è stato niente male. Noi Hamelin abbiamo suonato per quasi un'ora, proponendo vecchi classici, nuovi brani e le due annunciate versioni di Bob Dylan completamente stravolte e rivissute (è il dazio da pagare per entrare nella frangia fondamentalista folk!!!).
La scaletta è nata nella camera in affitto. Abbiamo sparpagliato i testi e ci siamo affidati al caso.
Eccola, pressappoco :
- Blues apocalittico secondo gli Hamelin
- Rock'n Roll Star
- Dolci labbra come rose ardenti
- Tutto il mio cuore
- L'amore è uno sfizio per bambini (Don't think twice it's all right)
- Faust
- Per ogni goccia del mio sangue
- blues in MI minore
- Come se non ti avessi mai incontrata (I don't believe you)
.. Ma la mia memoria è pessima. Era questo l'ordine? Chiamo in appello il batterista a sfoggiare le sue mirabolanti doti mnemoniche.
Il mio cappello a cilindro, inseparabile compagno sul palco, ha dato del suo meglio ed è rimasto fedele alla mia testa.
La ragazza jolly è ricomparsa per la seconda volta nel giro di due settimane (un record) mentre del pianista si sono quasi definitivamente perse le tracce (qualcuno di voi lo ha visto in giro?).
I Blackstones ci hanno scarrozzato con la loro blues mobile, un bambino ha scimmiottato le mie mosse sul palco, mentre Vincent & Pino mi hanno offerto da bere durante l'esibizione (una manna dal cielo!).
Ho rivisto Renzo Cozzani, che ha eseguito Alleluja di Leonard Cohen in una versione da brividi. Sembra non appartenere a questa epoca, è un menestrello autentico. La sua voce inconfondibile sa portarti verso atmosfere lontane. Fate anche voi il vostro giretto trascendentale nella sua pagina di myspace.
La Slow Train Band ha suonato quello che volevano le mie orecchie in quel momento. Mi hanno dato una mano a dimenticare gli spettri del passato (che guarda caso erano tornati proprio poco prima della nostra esibizione) e gliene sono grato. Un sound essenziale, secco, con una voce solare e degli arrangiamenti molto british. La loro versione di Maggie's Farm ha continuato a suonarmi nella testa per tutto il viaggio di ritorno.