MENU

Metaverso: quarta puntata della nuova rubrica

ECONOMIA E POLITICA - 09 11 2023 - Ezio (Méngu)

CONDIVIDI

/Metaverso

Riprendiamo il” testo di Turing” sull’intelligenza artificiale. Immaginiamo, come abbiamo descritto nella puntata precedente, una stanza chiusa, ma con una fessura aperta verso l’esterno. Chi sta fuori della stanza non sa chi è all’interno se c’è un uomo o una macchina. Però dentro questa stanza questa volta mettiamo un uomo e diamo a quest’ uomo un manuale cinese, tutto scritto in cinese e pieno di ideogrammi cinesi. Immaginiamo che questo manuale sia fatto da una serie di ideogrammi, prima uno poi un altro e un altro ancora e che tutti gli ideogrammi siano collegati tra loro con delle frecce tra il primo, il secondo, il terzo e così via. Immaginiamo che l’uomo nella stanza con il manuale cinese non conosca il cinese, (premessa fondamentale), non conosca gli ideogrammi cinesi, per cui il libro per lui è come fosse scritto in dialetto livignasco. Vede i disegni ma non sa cosa significhino. L’uomo che sta fuori della  stanza, vuole dare un input all’uomo che sta nella stanza con il manuale cinese e scrive su un foglio degli ideogrammi poiché l’uomo che scrive sa il cinese.

 

Quello che riceve il foglio guarda cosa c’è scritto ma non sa il cinese però ha il manuale in mano. Va subito a cercare sul manuale l’ideogramma scritto sul foglio, lo trova e scrive su un altro foglio l’ideogramma corrispondente indicato dalla freccia. Manda il foglio con l’ideogramma fuori dalla stanza e l’uomo esterno lo riceve. Legge sul foglio l’ideogramma (output esterno) che sarà perfettamente coerente con quello inviato perché il manuale è fatto molto bene ed ogni input è stato associato ( freccette) perfettamente ad un output. Cosa significa? L’uomo che sta fuori dalla stanza non potrà dire se lì dentro c’è un uomo o un computer perché le risposte sono sempre coerenti e quindi dirà che nella stanza c’è una intelligenza che sia artificiale o umana però di certo c’è qualcuno che sa il cinese.

 

Il problema è che l’uomo che sta dentro la stanza non sa il cinese ma ha applicato delle regole senza capirle, senza conoscerle. Se vogliamo trarre una conclusione possiamo dire che le macchine operano esattamente come quell’uomo che non sapeva il cinese ma che era racchiuso dentro la stanza. Lui non sapeva minimamente cosa stava facendo, ne cosa gli veniva richiesto e nemmeno cosa stava rispondendo. La conclusione è che le macchine applicano delle regole, ma non sanno cosa quelle regole significano, cioè non hanno coscienza e nemmeno intenzionalità. Fanno quello che fanno perché applicano delle regole senza capirne il significato come quell’uomo che dentro la stanza, non sapendo il cinese,  si basava solo sul manuale che era  il simbolo di un linguaggio di programmazione. Le macchine quindi non hanno coscienza ne intenzionalità con la differenza che l’uomo pur conoscendo le regole è in grado anche di trasgredirle.

 

Anche qui facciamo un esempio: poniamo che io sappia il cinese e sia nella stanza e quindi non ho bisogno di manuale e mi viene chiesto come sarà il tempo domani ? Io potrei rispondere: che me ne frega del tempo di domani! Questa risposta di certo non era stata scritta nel codice. Solo l’uomo può mettere in campo questa “ santa e ogni tanto valida “ “ ironia  perché è consapevole di quello che sta facendo e la sua risposta è ironica perché dispone di coscienza e intenzionalità. L’uomo poteva rispondere esattamente e con gentilezza, ma poteva anche  mentire, poteva usare la sua fantasia: Insomma poteva fare altre mille cose che la macchina non può fare. La macchina obbedisce sempre alle regole perché non fa altro che applicare il suo linguaggio e il suo codice o l’algoritmo che l’ha creata, non ha quella coscienza che è propria e solo dell’uomo. Può darsi che gli assistenti vocali di oggi come Siri possono scherzare con la macchina rispondendo male o bleffando, ma attenzione è solo il programmatore che scherza e nel programma dice anche in quali periodi può scherzare e come può scherzare. Per quanto sia brava la macchina in tutto non può replicare l’uomo. 

 

Un grande filosofo della mente, Dreyfus, americano anche lui ha detto che la mente umana oltre ad avere coscienza e intenzionalità è anche olistica e situazionale. Cosa significano questi due vocaboli? Olistica vuol dire totale. La mente umana lavora non solo cogliendo le parti di ciò che analizza ma anche cogliendo la totalità. Cioè il tutto non è sempre uguale alla somma di tutte le parti discrete.

 

Esempio: immaginate di ascoltare una sinfonia. Si può guardare la partitura se si è uno studioso di musica, si può visionare la parte di pianoforte, di violino, di tromba , di clarinetto e dire che è molto bella, può studiare singolarmente ognuna di queste parti ma può anche sentire suonare l’orchestra con tutti gli strumenti e cogliere la  musicalità nell’insieme. Cosi può sentire moltissime cose nell’insieme, cioè in modo olistico. I computer non possono fare questo, essi non riescono a cogliere la totalità.

 

Una seconda differenza è quella situazionale, nel senso che “ l’intelligenza “ dei computer è completamente autonoma da tutto il resto che lo circonda , mentre la mente umana no. La mente umana è figlia delle sue situazioni per questo si dice che è situazionale.  La mente è sempre in relazione con il nostro corpo, con i nostri interessi, con i nostri fini, con le nostre relazioni  ecc.ecc. Insomma provate a fare innamorare un computer  con un altro computer ! Quando noi umani lavoriamo su una cosa non lavoriamo in maniera fredda come i computer ma lavoriamo circondati da sensazioni, stimoli, calore, con la nostra memoria ricordandoci del passato, di cose fatte di esperienze vissute, ecc  ecc. Insomma noi umani siamo immersi nella realtà di questo mondo che ci circonda. Abbiamo dei valori sociali, sentimentali, famigliari, religiosi e quindi siamo permeati da mille fattori .  

 

Per le macchine questo non accade ecco perché si dice che i computer sono “ freddi calcolatori “ .  La nostra mente non parte mai da zero, ma è permeata da un valore innato che c’è in tutti e che è il così detto “ senso comune “ che si può chiamare “ precomprensione “ . Esso è un insieme di dati, di credenze condivise poiché siamo cresciuti in una civiltà condivisa.   Ad esempio quando vediamo un dirupo sappiamo che occorre stare alla larga per non cadere, insomma abbiamo delle precomprensioni innate che magari non sappiamo di avere.

 

E’ una specie di bachground culturale che non possiamo nemmeno sapere ma l’abbiamo, ma se non lo conosciamo non lo possiamo nemmeno formalizzare in un codice di linguaggio di programmazione.  Il senso comune non potrà dunque essere mai programmato, poichè anche noi non lo conosciamo pur avendolo. Ecco perché le macchine non potranno mai replicare gli uomini. L’Uomo vive tra le cose del mondo, ed è immerso in tantissime situazioni materiali, spirituali, che sono all’unisono con il corpo e la mente. 

 

I computer non hanno un corpo, non hanno contatti fisici, non sono nel Mondo, ma sono solo materia. Questo pensiero è prevalso dagli anni ’80 in poi chiarendo che i computer possono fare molte cose ( intelligenza debole ) ma non tutto quello che fanno gli Umani. Negli anni  ’90 i sostenitori della “ intelligenza forte “ hanno incominciato a credere che con il computer si potessero fare delle cose che tendevano a eguagliare l’intelligenza umana. Usando Google , in particolare anche per scopi commerciali e privati, si sono fatti passi avanti nella ricerca con una programmazione per reti neurali creando addirittura delle macchine che imparano da loro stesse. Macchine che nella prima fase vengono programmate ma via via che lavorano si auto programmano. Questo fatto può essere pericoloso poiché se un computer sa creare un linguaggio e l’uomo poi non lo conosce si può cadere nella fantascienza e c’è il pericolo che le macchine prendano il potere.

 

Questa intelligenza artificiale sempre più forte nel corso di questi ultimi anni ha portato in auge la tesi “ funzionalista “   in cui si sostiene che l’esperimento della stanza cinese è piuttosto riduttivo poiché non aiuta a comprendere. Potrebbe darsi  che anche la coscienza potrebbe essere una macchina. Ricordiamo l’esperimento della “stanza cinese “. L’uomo che è nella stanza non sa quello che sta facendo perché le macchine non capiscono quello che stanno facendo. Ma capire quello che si sta facendo può darsi che sia possibile farlo a sua volta con un software ancora più elaborato di quello che risponde alla domande, ma è pur sempre un sofware.

 

Può anche darsi che anche la nostra comprensione, la nostra coscienza, la nostra percezione olistica, che per il momento noi non sappiamo riprodurre in un linguaggio di programmazione tra non molto si possa programmare. Allora cosa potrebbe essere la nostra coscienza?  E’ una specie di macchina, un qualcosa che riceve degli stimoli e che risponde a questi stimoli ? Ora questo le macchine non lo sanno ancora fare.

 

Facciamo però un esempio: un assistente vocale di Google telefona a una officina meccanica per riparare la sua auto che gli si è guastata. L’officina gli risponde che è già oberata di lavoro e non ha tempo. I programmatori di Siri hanno già programmato questa risposta del meccanico con cinque o sei o dieci risposte . Mettiamo che ne preventivino mille. Se un computer saprà reagire a mille diverse eventualità in un certo senso non è fa quello che fa l’uomo?  Quando siamo in grado di programmare mille diverse eventualità di domande o risposte in un computer potrebbe darsi che anche i computer capiscano e che poi siano in grado di auto programmarsi tra loro per saper rispondere.

 

Riprenderemo nella prossima puntata con l’interrogativo preoccupato della signora che teme di perdere il posto di lavoro...

 

(Continua... )

 

Ezio (Méngu)

LASCIA UN COMMENTO:

DEVI ESSERE REGISTRATO PER POTER COMMENTARE LA NOTIZIA! EFFETTUA IL LOGIN O REGISTRATI.

0 COMMENTI