See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Stanza cinese - Wikipedia

Stanza cinese

Da Wikipedia, l'enciclopedia libera.

La Stanza cinese è un esperimento mentale ideato da John Searle. Esso è un controesempio della teoria dell'intelligenza artificiale forte. Alla base del ragionamento di Searle è che la sintassi (grammatica) non è equivalente alla semantica (significato).

Searle presentò l'argomentazione della Stanza cinese nel suo articolo "Minds, Brains and Programs" (Menti, cervelli e programmi) pubblicato nel 1980. Da allora, è stato un pilastro del dibattito sull'ipotesi chiamata da Searle intelligenza artificiale forte.

Indice

[modifica] Descrizione dell'esperimento

I sostenitori dell' intelligenza artificiale forte sostengono che un computer opportunamente programmato non sia solo la simulazione o un modello della mente, ma che esso possa essere una mente. Esso cioè capisce, ha condizioni conoscitive e può pensare. L'argomento di Searle (o meglio, l'esperimento mentale) si oppone a questa posizione. L'argomentazione della stanza cinese è la seguente:

Si supponga che, nel futuro, si possa costruire un computer che si comporti come se capisse il cinese. In altre parole, il computer prenderebbe dei simboli cinesi in ingresso, consulterebbe una grande tabella che gli consenta di produrre altri simboli cinesi in uscita. Si supponga che il comportamento di questo computer sia così convincente da poter facilmente superare il test di Turing. In altre parole, il computer possa convincere un uomo che parla correttamente cinese (per esempio un cinese) di parlare con un altro uomo che parla correttamente cinese, mentre in realtà sta parlando con un calcolatore. A tutte le domande dell'umano il computer risponderebbe appropriatamente, in modo che l'umano si convinca di parlare con un altro umano che parla correttamente cinese. I sostenitori dell'intelligenza artificiale forte concludono che il computer capisce la lingua cinese, come farebbe una persona, in quanto non c'è nessuna differenza tra il comportamento della macchina e di un uomo che conosce il cinese.
Ora, Searle chiede di supporre che lui si sieda all'interno del calcolatore. In altre parole, egli si immagina in una piccola stanza (la stanza cinese) dalla quale riceva dei simboli cinesi, e una tabella che gli consenta di produrre dei simboli cinesi in uscita. Searle fa notare che egli non capisce i simboli cinesi. Quindi la sua mancanza di comprensione dimostra che il calcolatore non può comprendere il cinese, poiché esso è nella sua stessa situazione. Il calcolatore è un semplice manipolatore di simboli, esattamente come lo è lui nella stanza cinese - e quindi i calcolatori non capiscono quello che stanno dicendo tanto quanto lui.

[modifica] Esperimenti mentali

Nel 1980, John Searle pubblicò "Minds, Brains and Programs" (Menti, Cervelli e Programmi) nella rivista The Behavioral and Brain Sciences. In questo articolo, Searle espose la sua argomentazione e di seguito rispose alle principali obiezioni che erano state sollevate durante le sue presentazioni a diversi campus universitari (vedi la prossima sezione). Inoltre, l'articolo di Searle fu pubblicato nella rivista insieme ai commenti ed alle critiche di 27 ricercatori di scienze cognitive. Questi 27 commenti furono seguiti dalle risposte di Searle ai suoi critici.

Negli ultimi due decenni del ventesimo secolo, l'argomentazione della Stanza cinese fu oggetto di moltissime discussioni. Nel 1984, Searle presentò l'argomentazione della Stanza cinese in un libro (Minds, Brains and Science). Nel gennaio 1990, il popolare periodico Scientific American portò il dibattito all'attenzione del mondo scientifico: Searle incluse l'argomentazione della Stanza cinese nel suo articolo "Is the Brain's Mind a Computer Program?". Il suo pezzo era seguito da un articolo di risposta, "Could a Machine Think?", scritto da Paul e Patricia Churchland. Poco tempo dopo, fu pubblicato un confronto sulla Stanza cinese tra Searle ed un altro eminente filosofo, Jerry Fodor (in Rosenthal (ed.) 1991).

Il cuore dell'argomentazione è una teorica simulazione umana di un computer simile alla Macchina di Turing. L'essere umano nella Stanza cinese segue istruzioni in inglese per manipolare simboli cinesi, mentre un computer esegue un programma scritto in un linguaggio di programmazione. L'uomo crea l'apparenza della comprensione del cinese seguendo le istruzioni di manipolazione dei simboli, ma non giunge per questo a capire il cinese. Poiché un computer non fa altro che ciò che fa l'uomo - manipolare simboli in base alla loro sola sintassi - nessun computer, semplicemente eseguendo un programma, giunge a comprendere realmente il cinese.

Questa argomentazione, basata strettamente sulla Stanza Cinese, è rivolta contro la teoria che Searle chiama intelligenza artificiale forte. Secondo tale teoria, un computer adeguatamente programmato (o lo stesso programma) può comprendere il linguaggio naturale e possedere effettivamente altre capacità mentali simili a quelle degli uomini che imita. Secondo l'intelligenza artificiale forte, un computer può giocare a scacchi in modo intelligente, fare una mossa astuta, o capire il linguaggio. Per contro, l'intelligenza artificiale debole è la teoria secondo la quale i computer sono semplicemente utili nella psicologia, nella linguistica ed in altre aree di studio, in parte perché possono simulare capacità mentali. Ma l'intelligenza artificiale debole non afferma che i computer possano effettivamente capire o che siano intelligenti. L'argomentazione della Stanza cinese non è rivolta all'intelligenza artificiale debole, né ha lo scopo di dimostrare che le macchine non possono pensare - per Searle i cervelli sono proprio macchine in grado di pensare. È volta a confutare la teoria che calcoli formali svolti su simboli possano generare il pensiero.

Potremmo riassumere l'argomentazione più ristretta come una reductio ad absurdum contro l'intelligenza artificiale forte nel modo seguente. Sia L un linguaggio naturale e chiamiamo un "programma per L" un programma per conversare correntemente in L. Un sistema computazionale è qualsiasi sistema, umano o meno, che può eseguire un programma.

  1. Se l'intelligenza artificiale forte è vera, allora esiste un programma per il cinese tale che se un qualsiasi sistema computazionale esegue quel programma, il sistema arriva in tal modo a capire il cinese.
  2. Potrei eseguire un programma per il cinese senza con questo arrivare a capire il cinese.
  3. Pertanto l'intelligenza artificiale forte è falsa.

La seconda premessa è sostenuta dall'esperimento mentale della Stanza cinese. La conclusione di questa argomentazione è che eseguire un programma non può generare comprensione. L'argomentazione più ampia include la tesi che l'esperimento mentale dimostra più in generale che non si può ottenere semantica (significato) dalla sintassi (manipolazione di simboli formali).

Il punto centrale dell'argomento di Searle è la distinzione tra sintassi e semantica. La stanza è in grado di combinare i caratteri secondo le regole, cioè si può dire che la stanza si comporta come se seguisse regole sintattiche. Ma, secondo Searle, essa non conosce il significato di ciò che ha fatto, cioè non ha contenuto semantico. I caratteri non rappresentano neppure simboli perché non sono interpretati in nessuna fase del processo.

[modifica] Argomentazioni formali

Nel 1984 Searle fornì una versione più formale dell'argomentazione della quale la Stanza Cinese è una parte. Elencò quattro premesse:

  • Premessa 1: I cervelli causano le menti
  • Premessa 2: La sintassi non è sufficiente per la semantica
  • Premessa 3: I programmi per calcolatore sono interamente definiti dalla loro struttura formale e sintattica
  • Premessa 4: Le menti hanno contenuto semantico.

La seconda premessa sarebbe supportata dall'argomentazione della Stanza cinese, dato che Searle sostiene che la stanza segue solo regole sintattiche formali e non "comprende" il cinese. Searle ne deriva che queste premessse conducono direttamente a tre conclusioni:

  • Conclusione 1: Nessun programma per calcolatore è sufficiente di per sé stesso a dare una mente ad un sistema. Le esecuzioni di programmi non sono menti.
  • Conclusione 2: Il modo con il quale le funzioni del cervello causano le menti non può avvenire esclusivamente in virtù dell'esecuzione di un programma per calcolatore.
  • Conclusione 3: Qualsiasi altra cosa sia ciò che genera le menti, essa dovrebbe avere poteri causali almeno equivalenti a quelli del cervello.

Searle descrive questa versione come "eccessivamente grezza". È stato considerevolmente dibattuto se questa argomentazione sia realmente valida. Queste discussioni si focalizzano sui vari modi nei quali le premesse possono essere analizzate. Si può interpretare la premessa 3 nel senso che i programmi per calcolatore hanno contenuto sintattico ma non semantico e così le premesse 2, 3 e 4 conducono validamente alla conclusione 1. Ciò porta a dibattere circa l'origine del contenuto semantico di un programma per calcolatore.

[modifica] Critiche

Esistono molte critiche all'argomentazione di Searle. La maggioranza di esse rientra nella 'risposta del sistema' o nella 'risposta del 'robot'.

[modifica] La risposta del sistema

Sebbene l'individuo nella Stanza cinese non comprenda il cinese, forse lo capiscono la persona e la stanza considerati insieme come sistema. La persona sarebbe proprio come un singolo neurone del cervello, e, come un singolo neurone da solo non può capire, ma può contribuire alla comprensione del sistema complessivo, così la persona non capisce, ma il sistema complessivo sì.

La risposta di Searle è che qualcuno potrebbe teoricamente memorizzare il libro delle regole e che lavori all'aperto; ciò lo renderebbe capace di interagire come se capisse il cinese, ma ciononostante continuerebbe a seguire un insieme di regole, senza comprendere il significato dei simboli che sta utilizzando, infatti in questo caso non c'è nulla nel sistema che non sia anche nella persone e poiché la persona non capisce il cinese, non lo capisce neanche il sistema. Questo conduce all'interessante problema di una persona capace di conversare correntemente in cinese senza "sapere" il cinese, e secondo il controargomento tale persona capisce effettivamente il cinese anche se questi sosterrebbe il contrario. Un argomento simile è che la persona non sa il cinese, ma lo sa il sistema che comprende sia la persona che il libro delle regole.

[modifica] La risposta del robot

Supponiamo che, invece che in una stanza, il programma sia collocato in un robot che possa muoversi ed interagire con il suo ambiente. Allora capirà certamente ciò che sta facendo? La risposta di Searle è di supporre che, senza che l'individuo nella Stanza cinese ne sia a conoscenza, alcuni segnali in ingresso che sta ricevendo provengano direttamente da una telecamera montata su un robot, e alcuni dei segnali in uscita siano utilizzati per muovere le braccia e le gambe del robot. Ciononostante, la persona nella stanza sta sempre seguendo le regole e non sa che cosa significhino i simboli.

Supponiamo che il programma corrispondente al libro delle regole simuli in estremo dettaglio l'interazione dei neuroni nel cervello di un parlante cinese. Allora si dovrà dire che il programma capisce sicuramente il cinese? Searle replica che tale simulazione non avrà riprodotto le caratteristiche importanti del cervello - i suoi stati causali ed intenzionali.

Ma cosa accadrebbe se una simulazione del cervello fosse connessa al mondo in modo tale da possedere il potere causale di un vero cervello - forse collegata ad un robot del tipo descritto prima? Allora sarebbe certamente capace di pensare. Searle concorda che è teoricamente possibile creare un'intelligenza artificiale, ma puntualizza che tale macchina dovrebbe avere gli stessi poteri causali di un cervello. Essa sarebbe più di un semplice programma per calcolatore.

[modifica] Critica dei coniugi Churchland (Paul e Patricia)

Searle dà per scontato che i simboli formali non interpretati (come i simboli cinesi per l’uomo) non coincidono con i contenuti mentali.

Per rispondere Searle ipotizza che i programmatori della stanza cinese sappiano il cinese e che abbiano costruito il sistema in modo da fargli elaborare informazioni in cinese (i simboli). Searle immagina che l'uomo nella stanza si stufi di mescolare soltanto questi simboli, che per lui sono privi di significato. Suppone dunque che l'uomo decida d’interpretare i simboli secondo le mosse di una partita a scacchi. Searle si chiede quale semantica esprime ora il sistema: quella del cinese, degli scacchi o entrambe? Si spinge oltre: suppone che un uomo dall'esterno decida che le manipolazioni dei simboli possano essere interpretate come previsioni dell'andamento della borsa. I simboli per l'uomo (formali) non hanno una semantica intrinseca, ma arbitrariamente assegnata.

[modifica] Altre risposte

Il linguaggio naturale non è semplicemente una serie di eventi di impulso-risposta, ma piuttosto un'interazione. Una persona che esca dalla Stanza cinese potrebbe essere capace di capire effettivamente il cinese se le domande poste si riferissero a lui. Per esempio, la risposta alla domanda scritta in cinese "Qual è il tuo colore preferito?" può essere data solo con riferimento alla persona a cui viene chiesta. Se la persona può rispondere, allora capisce il cinese; se non può, allora persino per un osservatore esterno quella persona non parla cinese.

Si può discutere se la semantica in un qualsiasi linguaggio naturale richieda una correlazione tra le parole ed oggetti del mondo reale. In una Stanza cinese, non può esistere una relazione tra le parole o i simboli ed il mondo reale perché non esiste niente a cui riferirsi all'interno della Stanza cinese se non alle regole che vi sono scritte.

[modifica] Voci correlate

  • Paul M. e Patricia Smith Churchland, Può una macchina pensare?, "Le scienze" n. 259, marzo 1990

[modifica] Collegamenti esterni

[modifica] Lavori correlati


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -