L’autore sviluppa il tema, sintetizzato nel titolo, al Convegno «Il tempo della ragione, verifica della tradizione e coscienza critica», promosso dall’Associazione Culturale Il Rischio Educativo, il 10 marzo 2012, presso L’Università Cattolica del Sacro Cuore di Milano.
Questi i punti salienti svolti nell’intervento e di seguito schematizzati in un sommario steso dall’autore stesso come «guida» alla lettura.



1) Tre tipi di lettura del mondo (ermeneutica): naturalismo; relativismo; ricerca di senso.


2) La percezione coerente o apprensione (evidenziata da adeguata risposta motoria) come procedura guidata dalla inferenza di Bayes.


3) Che cos’è la complessità; complessità algoritmica (solo sintattica) e semantica (guidata dai significati); esempio di come la mente «legge» un testo caotico, guidata da significati. Creatività come superamento di Bayes; creatività e teoremi di K.Goedel (1931) e A. Turing (1936) come limite a qualunque formalismo.



4) Giudizio = Bayes inverso come sorgente della creatività; picco di attenzione fra i 2 e 3 secondi che collega due apprensioni successive da confrontare nel giudizio, confronto con testi poetici, musicali e figurativi.


 5) Il giudizio è solo umano. Già cinquantamila anni fa i nostri antenati formulavano giudizi; due modi di dialogare con il mondo.


Nella Seconda Parte dell’Articolo, pubblicata sul n° 46 – Settembre 2012 di Emmeciquadro, sono sviluppati gli ultimi tre punti.
Una lettura sicuramente impegnativa, ma non priva di fascino. Per incontrare l’esperienza profondamente umana dell’indagine scientifica come un dialogo senza fine con il mondo, in un continuo arricchimento di conoscenza.



Storicamente la scienza moderna si è costituita attorno a due auto-limitazioni.
La prima, enunciata da Galileo nel 1612, consiste nel «non tentare le essenze, ma contentarsi delle affezioni quantitative». Si ritagliano da un fenomeno solo quegli aspetti suscettibili di misura; si ha così un pacchetto di numeri con cui si cerca di ricostruire il fenomeno, avendo eliminato tutti gli aspetti non misurati. Qui però interviene la fede nelle leggi di natura come regole assegnate da Dio, perciò affidabili. Pertanto, il programma di Galileo è: estrarre misure e collegarle matematicamente con leggi. Galileo è credente e vede Dio nelle leggi; lo stesso vale poi per Newton.
Una manipolazione formale, puramente sintattica, di un pacchetto di simboli (come il codice a barre di un prodotto al mercato), senza attribuire ad essi un significato, è il modo di procedere di un calcolatore; ne è emersa la convinzione che la ragione operi come una macchina di calcolo sui dati misurati o percepiti, senza attribuire ad essi alcun significato.
La seconda auto-limitazione è nata con il tentativo di indovinare le carte nel gioco d’azzardo (Bayes, 1763). Nello sviluppare un ragionamento, si formula un ventaglio di ipotesi a-priori con diversi gradi di probabilità. Ognuna di queste ipotesi, introdotta in un modello di mondo, genera un dato. Il modello rimpiazza la legge di natura di Galileo-Newton; non ci si appoggia più a una fede in Dio per dar forza alle leggi, ma si considera il modello come una aspettativa probabile per il fatto che lo abbiamo verificato tante volte. Dice Hume, contemporaneo di Bayes: «non sono certo che il Sole sorgerà anche domani, ma la cosa è altamente probabile.» Misurando quali dati effettivamente si verifichino, si costruisce una probabilità a-posteriori che seleziona fra tutte le ipotesi a-priori solo la più plausibile; la procedura si chiama inferenza.
La procedura di Bayes ha influenzato tutta la cultura scientifica del secolo successivo. Pensiamo alla macchina dell’evoluzione di Darwin: il ventaglio di ipotesi corrisponde alle mutazioni o varianti genetiche, il modello è la capacità di adattamento all’ambiente (in gergo fitness) che induce la selezione del mutante più adatto. Allo stesso modo, nei romanzi polizieschi di A. Conan Doyle, è facile vedere che le procedure di indagine di Sherlock Holmes sono bayesiane . La procedura è trasferibile a una macchina di calcolo; in effetti oggi negli ospedali si usano macchine di calcolo come sistemi esperti che, istruiti con un modello umano e riforniti dei dati clinici di un paziente, emettono la diagnosi più plausibile.
La scoperta recente di situazioni complesse indica che in presenza di molte variabili non si ha mai una soluzione unica a un problema; spesso il numero delle possibili soluzioni cresce in modo esponenziale con il numero di variabili. L’inferenza di Bayes esplora solo un possibile percorso; la ragione sintattica – o il computer per essa – si arrampica con successo su quell’unico percorso e ignora gli altri.
Pertanto, le due auto-limitazioni della ragione scientifica (Galileo e Bayes) non forniscono indicazioni procedurali in situazioni complesse. Il fatto che invece la mente umana riesca con successo a esplorare modelli alternativi indica che la nostra visione del mondo non è bayesiana, ma cattura quei significati che sfuggono alla procedura scientifica. È questo che chiamiamo creatività.
Più in generale, andando oltre il campo delle scienze della natura, ogni combinazione nuova e significativa di elementi lessicali (le parole di una lingua, le note musicali) è un atto di creazione. Il nostro essere immersi nel mondo in modo non auto-limitato dalle procedure scientifiche fa sì che ci sia la poesia di Leopardi o la musica di Mozart.
Dunque, il fatto che il mondo sia complesso vuol dire che in genere non è racchiudibile in un modello unico. Come scegliere allora fra più modelli alternativi? Ci si prospettano due modi di leggere i salti creativi:
relativismo – è la scelta proposta da Platone nel mito della caverna: la realtà (che per Platone è invece nel mondo delle Idee) non è nelle cose osservate; al riguardo siamo come un prigioniero incatenato e costretto a vedere solo le ombre proiettate sul fondo della caverna, quindi ingannati dalla parzialità del «punto di vista»;
realismo critico – la realtà che ci circonda ha senso, ma va catturata da molteplici punti di vista, un programma che non si esaurisce mai; di conseguenza il salto creativo (il di più che acquisiamo a ogni rivisitazione) non è arbitrario, ma guidato dalla situazione entro cui ci troviamo; nell’esplorare diversi codici di lettura ri-aggiustiamo il codice fino ad armonizzare due brani successivi del discorso in cui abbiamo codificato la nostra lettura del mondo (mettiamo cioè a confronto distinti punti di vista); questo riaggiustamento è la base della verità, definita da Tommaso d’Aquino come conformità dell’intelletto alla cosa.
Per supportare questa seconda scelta, analizzeremo due momenti distinti della cognizione umana, e cioè apprensione (A), in cui una percezione coerente emerge dal reclutamento di gruppi neuronali, e giudizio (B), in cui la memoria richiama precedenti unità (A), codificate in un linguaggio conveniente, queste vengono confrontate e dal confronto consegue la formulazione di un giudizio.
Il primo momento (A) ha una durata attorno a 1 secondo; esso può essere descritto come una interpretazione degli stimoli sensoriali sulla base di istruzioni (algoritmi) già disponibili (appresi cioè nel corso della vita precedente) mediante una procedura di Bayes ed è finalizzato a suscitare una adeguata risposta motoria.

Il secondo momento (B) implica il confronto di due apprensioni acquisite a tempi diversi, codificate in un dato linguaggio e richiamate dalla memoria. (B) dura circa tre secondi e richiede l’auto-coscienza, in quanto l’agente che esprime il giudizio deve essere consapevole che al suo scrutinio sono sottoposte le due apprensioni da cui estrarre una mutua relazione. A differenza di (A), (B) non presuppone un algoritmo, ma piuttosto ne costruisce uno nuovo. Questa costruzione di un nuovo algoritmo è intimamente legata con la creatività e la libertà decisionale.

 

 

Tre modi di leggere il mondo

 

Possiamo prendere come data di nascita della scienza moderna il 1612, quando Galileo Galilei, in una lettera a Marco Welser di Graz, diceva che non si doveva «tentare le essenze» ma «contentarsi delle affezioni quantitative».
Supponiamo di dover descrivere una mela. Se ci si riferisce alle definizioni del vocabolario, queste cercano di descrivere la «natura» o «essenza» della cosa; si rischiano pertanto dissidi fra punti di vista personali (c’è per esempio chi pensa a una mela rossa e oblunga e chi a una verde e schiacciata). Evitiamo conflitti di tal genere e riferiamoci ad aspetti su cui tutti dobbiamo concordare: scomponiamo la mela nelle sue «affezioni quantitative», cioè nelle proprietà distinte che possiamo misurare: peso, forma, sapore, odore, colore, eccetera. A ognuno di questi punti di vista corrisponde un apparato di misura che fornisce un numero. Se abbiamo scelto un pacchetto adeguato di indicatori, la collezione ordinata dei numeri corrispondenti a ciascuna misura dovrebbe caratterizzare la mela. A dir vero, ai tempi di Galileo si distingueva fra «qualità primarie», quelle che sussistono indipendentemente da chi osserva (peso, altezza e larghezza), e «qualità secondarie», legate all’osservatore (sapore, colore, odore); oggi possiamo dire che abbiamo esplorato a sufficienza i meccanismi fisiologici da cui dipendono le nostre sensazioni e possiamo concordare sui valori numerici forniti da un «saporimetro», «colorimetro», eccetera.
L’approccio è motivato dalla convinzione che si possa raggiungere una descrizione completa di un oggetto di esperienza attraverso i suoi «atomi di significato» misurabili con apparati di misura che forniscono numeri ripetibili e indipendenti dall’umore dell’osservatore. Ogni ente di natura si riduce così a una collezione ordinata di numeri utilizzabili come dati di ingresso in una teoria matematica che permetta di prevedere il futuro. In effetti, le regole per variare i numeri al passare del tempo erano le «leggi». Per Galileo, uomo di fede, a muovere il mondo c’è Dio che opera con leggi matematiche sui numeri che descrivono la cosa.
La procedura appena delineata può bastare per il rifornimento del magazzino di un mercato (oggi parliamo di «codice a barre»), però non esaurisce la realtà della mela. In effetti l’intero (la mela) precede le misure separate, che forniscono quantità derivate, non primitive: si appoggiano alla mela ma una volta enucleate (tecnicamente, astratte) non permettono la ricostruzione logica della mela; non siamo mai sicuri che nel futuro non compaia un ulteriore punto di vista inedito che sia misurabile e che arricchisca la descrizione della mela.
Gli esempi più convincenti vengono dalla linguistica. Prima nasce il linguaggio articolato, la poesia, le favole, e poi da queste si estrae un lessico. L’operazione inversa, partire dal vocabolario e programmare al computer un testo letterario, è fallimentare. In questo ordine di complessità rientrala traduzione da una lingua all’altra. Esistono macchinette per cavarsela alla stazione o al ristorante in Cina; ma per un testo elaborato, per esempio Omero, il traduttore non è automatico: piuttosto è un bilingue che vive le situazioni di Ulisse in greco e le racconta in italiano.
Questo ruolo del traduttore è discusso in un bel libro: Il grande codice (la Bibbia e la letteratura) di Northrop Frye [Einaudi, 1986]; l’autore si pone il problema di come mai la Bibbia scritta in ebraico (lessico di 5.000 vocaboli) può essere tradotta in inglese (il cui lessico comprende 500.000 vocaboli). La risposta è che una procedura come la traduzione letteraria non può essere condensata in un elenco di operazioni di macchina, e perciò non può essere automatizzata.
Qualche decennio dopo Galileo, un altro uomo di fede, Isacco Newton ridusse tutte le leggi con cui Dio agisce nel mondo a una sola, la gravitazione universale, che regola il moto reciproco fra due corpi idealizzati come punti geometrici dotati di massa: ciò vale per la mela che cade dall’albero attirata dalla Terra, per la Terra che orbita attorno al Sole e così via. Per conoscere il futuro, basta assegnare a ogni cosa-punto una posizione e velocità a un certo istante di tempo e la legge ci permette di anticipare dove sarà in un qualunque futuro.
Per tornare alla mela, tagliamola in parti sempre più piccole fino a ridurla a particelle non più divisibili (chiamiamole atomi); assegniamo a ogni atomo una posizione e velocità istantanei, e con le regole della matematica ne sapremo il futuro. Come illustrato nella Figura 1 seguente, queste sono le basi del determinismo (il futuro è già racchiuso nel passato) e del riduzionismo (ogni cosa è capita se spezzata nei suoi atomi, ognuno dei quali ha una dinamica calcolabile).

 

Figura 1: Schema logico di come la scienza predice lo stato futuro di un pezzo di mondo, applicando ai numeri che descrivono lo stato iniziale (cerchio a destra) le leggi matematiche (in alto, Galileo-Newton) o i modelli (in basso, Bayes).Il risultato è la previsione dello stato futuro, certa al 100% in alto o con probabilità P < 1 in basso.

 

Nel caso di Galileo e Newton, le regole che legano le quantità misurate sono le leggi imposte da un legislatore (Dio) e danno una previsione certa. Successivamente, per gli empiristi, le regole si riducono a modelli di comportamento che risultano dalla osservazione; se verificate molte volte, danno un’alta confidenza ma non la certezza, diremo che c’è una probabilità P (P è un numero compreso fra 0 e 1, e rappresenta il grado di confidenza, sempre inferiore a 1) che esse si verifichino.

In ogni caso, anche se più debolmente, siamo sempre nell’ambito del determinismo-riduzionismo, cioè l’Universo è una macchina il cui futuro è determinato dal presente, mediante l’applicazione di leggi-modelli fatta sui pezzi elementari in cui abbiamo spezzato una cosa. Si tratta di un automatismo che può essere delegato a una macchina di calcolo, come già intravide Laplace nel 1812.
Questa procedura è puramente sintattica e non esplora il significato dell’oggetto di studio: basta misurare le affezioni quantitative a un certo istante, operare con la sintassi di Figura 1 e trovare il futuro. Al di là della sintassi, abbiamo un problema di comprensione: non ci basta rispondere al «come» ma vogliamo sapere il «perché».
Possiamo rispondere con tre tipi di interpretazione (o ermeneutica) della procedura scientifica, come indicato in Figura 2.

 

Figura 2: Tre tipi di ermeneutica ovvero di interpretazione del ruolo di una teoria scientifica.

  1. 1:1 = Naturalismo – a ogni ente di natura (sulla destra: B, B’) corrisponde un solo concetto mentale (sulla sinistra: A, A’);

  2. 1:molti e molti:1 = Relativismo – un concetto (A) può denotare uno oppure un altro ente di natura (B? o B’?) e viceversa un ente di natura può essere espresso da differenti concetti (A o A’) a seconda di circostanze ausiliarie non considerate nel formulare la teoria scientifica;

  3. Creativa = ricerca di senso – l’approccio scientifico è graduale; di un ente B, misure preliminari estraggono una connotazione B1, che è rappresentata nel concetto A1 ; forti di questa prima acquisizione, torniamo all’osservazione di B ed estraiamo una connotazione nuova B2 rappresentata da A2 e così via, con una procedura a spirale che prosegue arricchendo la nostra conoscenza (peraltro sempre parziale ) di B; la diciamo creativa perché implica «punti di vista» nuovi sotto cui vedere aspetti nuovi di B.

 

Naturalismo
Il primo tipo presume che i nostri concetti siano rappresentazioni fedeli delle cose, che ne estraggano tutti gli aspetti una volta per tutte; è come l’interpretazione letterale di un testo fatta dai fondamentalisti, senza lasciare un margine di scelta. Nel suo ambito la scienza esaurisce il mondo e non c’è spazio per letture diverse (filosofiche o teologiche). È questa la posizione di chi proclama apologeticamente il proprio ateismo appoggiandosi alla scienza.

 

Relativismo
Il secondo tipo prende atto che un ente può presentarsi sotto aspetti diversi, ma non assegna criteri di scelta. Esclude pertanto di poter arrivare a una rappresentazione fedele (vera) del mondo, e introduce invece criteri pragmatici (successo commerciale di un prodotto).
Nella storia del pensiero, il mito platonico del prigioniero nella caverna è una raffigurazione del relativismo. Platone attribuisce realtà solo al mondo delle Idee e considera ingannevoli le nostre immagini del mondo sensibile: siamo – dice – come un prigioniero incatenato e costretto a vedere solo le ombre del reale proiettate sul fondo della caverna, senza poter girare la testa e osservare fuori dalla caverna.

 

Ricerca di senso
Il terzo tipo mette a confronto i diversi punti di vista e non li considera scorrelati, ma si arricchisce di una conoscenza vieppiù dettagliata; è come se il prigioniero di Platone non si limitasse a un solo punto di vista, ma mettesse a confronto le ombre osservate in diverse ore del giorno.
Chiamiamo «creativa» questa ermeneutica, perché, pur riconoscendo che ogni conoscenza è vera solo da un certo punto di vista, non la ritiene esaustiva ma la arricchisce confrontandola con altri punti di vista.
Preliminare al «far scienza» è dunque una indagine su come hanno luogo le nostre conoscenze.

 

 

L’apprensione

 

Come detto all’inizio, analizzeremo due momenti distinti della cognizione umana, e cioè apprensione (A), in cui una percezione coerente emerge dal reclutamento di gruppi neuronali in risposta a stimoli sensoriali, e giudizio (B), in cui la memoria richiama precedenti unità (A) codificate in un linguaggio conveniente (letterario, musicale, figurativo), queste vengono confrontate e dal confronto consegue la formulazione di un giudizio.
Il primo momento (A) ha una durata attorno a 1 secondo; esso può essere descritto come una interpretazione degli stimoli sensoriali sulla base di istruzioni (algoritmi) già disponibili (apprese cioè nel corso della vita precedente) ed è finalizzato a suscitare una adeguata risposta motoria.
Il secondo momento (B) implica il confronto di due apprensioni acquisite a tempi diversi, codificate in un dato linguaggio e richiamate dalla memoria. (B) dura circa 3 secondi e richiede l’auto-coscienza, in quanto l’agente che esprime il giudizio deve essere consapevole che le due apprensioni da cui estrarre una mutua relazione vanno sottoposte allo stesso giudice. A differenza di (A), (B) non presuppone un algoritmo, ma piuttosto ne costruisce uno nuovo.
Mentre (A) è comune agli animali, e può essere studiato in laboratorio su gatti o primati, (B) è esclusivamente umano. Una analisi di (A) e (B) è stata sviluppata nel XX secolo dal filosofo gesuita Bernard Lonergan, che in Insight ha istituito un ponte fra Tommaso d’Aquino e la Fenomenologia del Novecento (Husserl e seguaci).
Il processo (A) è molto complesso in quanto implica l’azione coordinata di folle di neuroni della corteccia cerebrale stimolati sia dagli organi sensori (vista, udito, eccetera) sia da emozioni o segnali di attenzione provenienti da parti interne del cervello. La ricerca sull’attività dei neuroni si avvale di microsonde che leggono il segnale elettrico del singolo neurone; essendo queste invasive, tale tipo di indagine è fatta solo su animali. Nel caso umano si ricorre a segnali elettrici (EEG = Elettro-Encefalo-Gramma) o magnetici (MEG = Magneto-Encefalo-Gramma) raccolti su sonde applicate all’esterno del cranio. Oppure, in base al fatto che le regioni del cervello attive richiedono sangue ossigenato, si localizzano le aree dove arriva il sangue ossigenato mediante le immagini della Risonanza Magnetica Funzionale (FMRi). Si tratta in ogni caso di metodi a scarsa risoluzione che non riescono a localizzare il singolo neurone come le microsonde.
Questi vari metodi forniscono informazione sull’attività cerebrale associata alla percezione e vengono chiamati NCC (Neural Correlates of Consciousness), dove per «coscienza» si intende in senso limitativo la consapevolezza di una percezione, senza nessun riferimento a la coscienza di se stessi che è necessaria per il giudizio e di cui parleremo più in là.
Per dare una descrizione dettagliata del processo percettivo, dovremmo riuscire a descrivere come i neuroni delle aree interessate si mettano d’accordo. Ogni neurone riceve l’informazione da un altro sotto forma chimica (neurotrasmettitore) e la converte in treni di impulsi elettrici di ampiezza uniforme e breve durata (1 millisecondo) che viaggiano anche su grandi distanze (una specie di telegrafo Morse). Dal cervello ai piedi un segnale viaggia per oltre 1 metro in frazioni di secondo; se si dovesse fare diffondere un segnale chimico, occorrerebbero molti anni!

La coordinazione fra folle di neuroni avviene attraverso la sincronizzazione degli impulsi elettrici. Si è detto di codice Morse; in effetti non si conosce il preciso codice (o codici?) cerebrale.
Riassumiamo il processo percettivo attraverso lo schema di Figura 3.
Qui mostriamo come nei primi stadi corticali si organizzi un lessico elementare. Questo lessico fatto di «parole» elementari può essere ricombinato estraendone una informazione globale sensata? Sarebbe come dire: fornisco a un sintetizzatore elettronico le parole del vocabolario italiano; ne può emergere un testo sensato, Dante o Manzoni?
Questo programma della cosiddetta «Intelligenza artificiale» degli anni Sessanta del secolo scorso non è approdato a risultati significativi. Non basta il puro accostamento sintattico di elementi lessicali per creare un discorso sensato.
Occorrono delle guide organizzative, e queste sono le memorie pregresse che agiscono come «istruzioni» (algoritmi). Il repertorio è costituito in fase di apprendimento (giochi, scuola) in un animale, esso è limitato; negli umani esso è accresciuto in fase di giudizio, come vedremo più avanti.

 

Figura 3: Schema di come il cervello elabora una percezione coerente (apprensione), con riferimento a una percezione visiva. Un segnale esterno attiva la retina, le cui cellule rispondono con segnali elettrici che viaggiano nel cervello. Nei primi stadi visivi della corteccia, vi sono rivelatori specializzati a dare risposta elettrica solo se dalla retina arriva uno stimolo particolare, corrispondente per esempio a una barra verticale o orizzontale o con una certa inclinazione. L’informazione retinale è così spezzata in informazioni parziali che corrispondono alle uscite elettriche di cellule differenti. Queste affluiscono dal basso verso l’alto (bottom-up) agli stadi corticali alti dove vengono elaborate nel confronto con dei segnali dall’alto verso il basso (top-down) provenienti dalla memoria semantica. Si ipotizza (Teoria della Risonanza Adattiva) che un meccanismo di attenzione focale presenti differenti interpretazioni top-down, prelevate dalla memoria semantica, fino a che si giunga a quella che meglio si adatta allo stimolo bottom-up. A questo punto, ottimizzato il meccanismo di ricerca, emerge una risposta motoria adeguata allo stimolo di ingresso.

 

Senza cercare di esplorare i dettagli del processo che porta a una armonizzazione fra dati sensoriali bottom-up e ipotesi top-down fino a convergere in una decisione motoria, diamo una descrizione globale basata sull’inferenza di Bayes (1763). Essa consiste nella procedura seguente:

  1. Partendo da una situazione iniziale, formuliamo un ventaglio di ipotesi h, a ciascuna delle quali assegniamo una probabilità a-priori P(h), dove P è un numero positivo compreso fra 1 (certezza assoluta) e 0 (accadimento escluso).

  2. Ogni h, inserita in un modello di evoluzione, genera dati d con la probabilità condizionata P(d|h) che d risulti da h (la nozione di probabilità condizionata si esprime con una barretta verticale fra condizionato e condizionante), e -come prima- si attribuisce anche a questa probabilità un valore 0 < P < 1.

  3. Effettuando una misura, si registra un particolare dato d da un insieme cui spetta una probabilità P(d).

  4. La combinazione di iii.+ii. seleziona una particolare ipotesi h*, cui spetta la più alta probabilità a-posteriori P(h*)= P(h|d).

 

La procedura si riassume nella formula:

P(h*)= P(h|d) = P(h). P(d|h) / P(d)

Dunque, h* è l’ipotesi più plausibile, essendo quella cui spetta la probabilità più alta. Da questa emerge la decisione motoria (Figura 4).

 

Figura 4: Apprensione descritta globalmente come inferenza di Bayes.

 

Nel corso di una indagine (pensiamo a Sherlock Holmes) abbiamo fatto un passo avanti in quanto abbiamo ristretto il ventaglio di ipotesi da P(h) a P(h*). Ripetiamo ricorsivamente la procedura, utilizzando lo stesso algoritmo che corrisponde al modello P(d|h) scelto. Per utilizzare una rappresentazione didascalica, muoviamoci su un piano, e indichiamo le probabilità con le altezze verticali. Successive applicazioni di Bayes equivalgono alla scalata di un monte di probabilità, a partire da valori bassi; il picco del monte rappresenta la massima plausibilità (Figura 5).
Nel Secolo XIX la formula di Bayes ha influenzato ogni programma scientifico.
L’evoluzione darwiniana è bayesiana, con la mutazione che corrisponde alla formulazione di un ventaglio di ipotesi h; fra queste – inserite nel modello P(d|h) di sviluppo che caratterizza quella particolare specie – prevale (viene selezionata) quella mutazione h* che meglio si adatta ai vincoli ambientali d.

 

Figura 5: Costruzione di ipotesi scientifiche vieppiù adeguate agli esperimenti, per applicazione successiva del teorema di Bayes. Parto dalla situazione iniziale e formulo un ventaglio di ipotesi h (1, 2, 3, eccetera). Prendo ciascuna come una partenza e, servendomi del modello P(d|h), calcolo il dato d che emerge da ciascuna ipotesi. Ma solo la numero1 mi fa prevedere i dati misurati: quindi la considero come la più plausibile (h*) e riparto dalla nuova posizione per riformulare altre ipotesi, che daranno altri dati, ma le misure confermano solo una ipotesi, e così via (procedura ricorsiva). La procedura è una scalata del monte della probabilità. Le stellette indicano il progresso. A ogni punto sulla curva che porta al picco corrisponde un valore di probabilità. Si noti che la strategia darwiniana è una implementazione di Bayes.

 

Il modello P(d|h) è l’algoritmo con cui istruiamo un computer, facendone un sistema esperto (expert system) che seleziona le ipotesi confrontandosi con i dati.
In conclusione, abbiamo interpretato l’apprensione come una inferenza di Bayes descrivendo quel che accade entro un intervallo di 1 secondo come in Figura 4.
L’agente cognitivo deve scegliere l’ipotesi h* più plausibile fra un gran numero di h. La memoria è equipaggiata con un modello procedurale, P(d|h), che genera un dato d per ogni ipotesi h; d’altra parte, l’ingresso sensoriale è un preciso d; dunque la procedura di Bayes seleziona a-posteriori l’h* che meglio si adatta al d.
Il cambiare modello è una operazione di ri-codifica che ha luogo durante l’elaborazione di mezzo secondo che intercorre fra l’arrivo degli stimoli bottom-up e l’espressione di una reazione in termini di decisioni motorie. La ri-codifica top-down utilizza un insieme di modelli P(d|h) richiamati dalla memoria, scegliendo quello che i meccanismi interni (emozioni, attenzione, valori) suggeriscono come il più appropriato. Negli animali, questo insieme di modelli è costruito in precedenti fasi di addestramento, nei robot viene inserito come istruzioni; in ogni caso, l’insieme è limitato sia per gli animali sia per i robot.
Vedremo invece che un soggetto umano è capace di costruire nuovi algoritmi attraverso il confronto di brani linguistici correlati, e chiameremo creatività questa capacità.

 

La Seconda Parte di questo Articolo, che sviluppa gli ultimi tre punti dell’intervento dell’autore, è pubblicata sul n° 46 – Settembre 2012  di Emmeciquadro,

 

 

 

Vai al PDF di questa prima parte dell’articolo

 

 

 

Fortunato Tito Arecchi
(Università degli Studi di Firenze e INO-CNR (Istituto Nazionale di Ottica))

 

 

 

 

 

© Pubblicato sul n° 45 di Emmeciquadro