Edoardo Boncinelli è stato sempre presente in Media Duemila. Lo ricordo con questo articolo che è di incredibile attualità. Boncinelli affascinava, divulgatore scienziato: un grande. Ecco il suo articolo pubblicato sul numero di Media Duemila di giugno del 2006.
Non mi è mai importato niente di Robot
“Sono nato nel 1941 e sono cresciuto insieme alla cibernetica e alla teoria dell’informazione, discipline bellissime, piene di promesse e di riflessioni sulla natura dell’uomo e della comunicazione, cioè del mondo. Il mio modo di vedere le cose è stato enormemente influenzato dalle letture fatte a quei tempi su questi temi, mentre nemmeno da ragazzo mi è mai importato niente dei robot. Da ragazzo, per dir la verità, non mi importava niente neppure degli animali, allo studio dei quali ho poi dedicato la mia vita professionale. Mi interessava, e direi mi interessa ancora oggi, soltanto l’uomo, in tutte le sue manifestazioni. Sono ingordo di umanità e curioso solo di ciò che ci fa essere quello che siamo.
Per perseguire questo obbiettivo esistono molte vie. Alcune di queste si appoggiano alla scienza e possono essere oggetto di studio e fare progressi. Tutti quanti inclinano verso le altre vie; alcuni pochi, fra i quali io mi annovero, si sentono inclinati anche per quelle scientifiche, che sono sostanzialmente due: quella che segue l’approccio biologico, e in particolare neurobiologico, e quella che segue un approccio che non saprei meglio definire che cibernetico e che ha preso nel tempo le vesti dell’Informatica e dell’Intelligenza Artificiale, in attesa di nuove denominazioni. Il primo approccio studia la mente, la psiche e il comportamento degli animali e dell’uomo così come sono originati nel corpo e dal corpo, e in particolare dal sistema nervoso, risultati l’uno e l’altro di centinaia di milioni di anni di evoluzione biologica e di centinaia di anni di evoluzione culturale. Il secondo aspira a riprodurre tutto questo, ma lo fa “girando alla larga” – imitando quando può e inventando quando deve – sempre comunque riflettendo sulla natura della realtà mentale e della capacità di comprendere, di progettare e di mettere in pratica le decisioni tipiche degli esseri viventi.
Obiettivo è sapere come siamo
Poiché il mio obbiettivo è sapere come siamo e, magari, perché siamo come siamo, sembrerebbe logico che dovessi essere interessato solo all’approccio neurobiologico. In effetti è quasi così, ma quel ‘quasi’ è vasto quanto lo scarto che esiste fra guardare e vedere o fra contemplare ed esplorare. E per questo ho sempre tenuto un occhio sui progressi delle scienze dell’artificiale, pur non avendone un’esperienza di prima mano, né una conoscenza che mi permetta di darne un resoconto cronologico.
Il perché l’ho già detto altre volte. Il cervello e la mente non li abbiamo fatti noi e non possiamo che averne una conoscenza parziale e indiretta. Dobbiamo girarci e rigirarci tra le mani questa “scatola nera”, tamburellarci sopra per sentire qualche eco interna e sottoporla ad una varietà di sollecitazioni per osservarne le reazioni. I servomeccanismi, i computer, le reti neurali le abbiamo fatte noi – pezzo per pezzo, algoritmo per algoritmo – e possiamo pretendere di averne una conoscenza diretta: non ci sono doppi-fondi, non c’è una concentrazione straordinaria di storia – la sedimentazione e la stratificazione di innumerevoli eventi, per lo più casuali – che caratterizzano la struttura e i funzionamenti degli oggetti biologici. E non c’è la mistica del “c’è anche dell’altro”, il timor panico dello scoprire che “è tutto qui”, la metafisica del simbolico e del trascendente.
Cibernetica e dell’Intelligenza Artificiale
Per me quindi l’esplorazione delle possibilità della cibernetica e dell’Intelligenza Artificiale rappresentano altrettante proposte e dimostrazioni di quelli che in matematica sono noti come “teoremi di esistenza”: un determinato congegno o un determinato procedimento artificiale può generare memoria, apprendimento, comprensione o anche ragionamento. Non è detto che la mente debba funzionare così, ma potrebbe anche farlo. E senza scomodare altri ipotetici fattori.
Un po’ come tutta l’impresa scientifica, l’Intelligenza Artificiale ci mostra le condizioni sufficienti per la realizzazione di certi fenomeni, senza che questo significhi che le stesse sono necessarie. Lo scienziato sa accontentarsi anche di questo. Il non scienziato non si accontenta, fruga e scava in cerca delle condizioni necessarie, e magari uniche, finché… non cade preda di qualche abile affabulatore.
Quando questa avventura è cominciata non era chiaro se si volevano raggiungere certi scopi pratici indipendentemente dal fatto che computer e robot imitassero il modo di funzionare del cervello, o se l’obbiettivo era proprio quello di riprodurre il più fedelmente possibile il funzionamento del nostro cervello al fine di comprenderlo meglio. Oggi possiamo dire che questa ambiguità di fondo è stata estremamente proficua. Ha prodotto infatti qualcosa di prezioso su entrambi i fronti: ha portato alla costruzione di congegni e procedure di efficacia senza precedenti – indipendentemente dal fatto che tali meccanismi operino effettivamente nel nostro sistema nervoso – e ci ha mostrato molte cose interessanti su come questo effettivamente funziona, ma soprattutto su come questo certamente non funziona.
Le reti neutrali apprendono
Un esempio fra i tanti: le reti neutrali apprendono, ricordano ed eseguono molti compiti con una incredibile efficienza, a dispetto di una struttura elementare, totalmente descrivibile in termini concreti, se non banali. Per apprendere però si avvalgono di un algoritmo, la cosiddetta backpropagationdell’errore, che è sicuramente ben lontano da quanto fa il nostro cervello quando impara, anche solo attraverso un procedimento per prove ed errori. Che cosa ci dice questo? Ci dice che il nostro cervello non funziona così e che per comprenderne l’operato bisogna trovare un meccanismo diverso. Ma ci dice anche che questa via è percorribile, in teoria e in pratica, e che non è necessario scomodare chi sa quali entità e funzioni “superiori”, cioè confuse, per raggiungere certi scopi. Il simbolico può sorgere anche dal non simbolico o dal sub-simbolico, esattamente come l’individuabile – i corpi materiali – possono sorgere dal non individuabile – le particelle elementari.
Le reti neurali e i congegni che ne fanno uso sono veramente stupefacenti. Mi piacerebbe insistere su quanto di eccezionale e di inimmaginabile si è ottenuto negli ultimi decenni sul piano pratico, ma non lo farò. Per due motivi. Perché l’ho appena fatto nel mio libro L’anima della tecnica (Rizzoli, 2006), e perché c’è sicuramente gente che lo saprà fare meglio di me, non fosse altro che per competenza professionale. Voglio insistere invece sul confronto fra congegni artificiali e strutture biologiche, per osservare in cosa si somiglino e in cosa differiscano, confronto permesso dai continui avanzamenti dell’Intelligenza Artificiale e delle discipline connesse.
L’importanza del digitale e del parallelo
Due delle cose sulle quali la scienza dell’informazione e della comunicazione ci hanno certamente aperto gli occhi sono l’importanza del digitale e del parallelo.
Quando si cominciò a registrare e a riprodurre suoni, venne naturale tentare di catturare l’andamento delle onde sonore di partenza attraverso un profilo elettrico che riproducesse il più possibile quello d’origine. Si parla in questo caso di riproduzione analogica, perché i due profili d’onda, quello registrato e quello di partenza, devono essere il più possibile analoghi. Tutto questo andrebbe benissimo se non esistesse quella fonte ineliminabile di disturbo che è il cosiddetto rumore di fondo. Ma ciò non è possibile. Non esiste alcuna maniera di liberarsi del rumore di fondo; tutto quello che si può ottenere è che sia buono il rapporto fra il segnale – utile per la riproduzione e la comprensione – e il rumore – che è invece puro disturbo. Ebbene, abbiamo imparato da qualche decennio che per ottenere un tale risultato la riproduzione analogica non è la strategia migliore. È meglio ricorrere ad un procedimento che a prima vista sembra profondamente innaturale: quello della codificazione digitale.
Il profilo d’onda originale non viene registrato o inviato come tale ma viene prima sezionato e analizzato in un certo numero di punti singoli in modo da realizzare una sorta di campionamento. Per ognuno di questi punti si misura l’ampiezza dell’onda di partenza ottenendo un certo numero di valori numerici. Questi vengono quindi codificati prima di essere registrati o inviati. L’onda di partenza in sostanza viene suddivisa e campionata in un certo numero di punti singoli che forniscono altrettanti numeri. Quello che viene registrato o trasmesso è l’insieme di questi valori numerici corrispondenti alle varie ampiezze. Tali valori non formano ovviamente un continuo ma si presentano discreti, cioè separati tra di loro. Si potrebbe parlare di codificazione discreta, ma poiché si tratta di valori numerici espressi in cifre si usa generalmente chiamare questa operazione codificazione digitale, dall’inglese digit che sta per “cifra”. Al momento della riproduzione o della ricezione del messaggio viene poi compiuta l’operazione inversa, cioè la decodificazione digitale, in modo da estrarre il segnale e ricostruirlo nella maniera più fedele possibile. È ovvio che la codificazione digitale richiede tecniche e materiali molto più sofisticati di quella analogica e quindi si è affermata solo in un secondo tempo.
La constatazione della supremazia del digitale sull’analogico nel mondo dell’artificiale ci ha aperto gli occhi sulla sua contropartita organica. Si è così potuto constatare che l’informazione biologica è in gran parte codificata in maniera digitale, a cominciare dal messaggio genetico contenuto nel genoma di ogni organismo. L’insieme delle “istruzioni per l’uso” necessarie per far crescere, vivere e riprodurre un individuo di una determinata specie è portato dal suo genoma, un testo lineare scritto con un alfabeto che contiene solamente quattro caratteri: A, G, C e T. Tutte le informazioni biologiche, dalle più banali alle più preziose, sono scritte in maniera discontinua utilizzando lettere separate, come nel nostro sistema di scrittura. Nessuno avrebbe mai potuto immaginare che tutta la ricchezza di sfumature contenuta nel patrimonio biologico di un individuo potesse essere semplicemente “raccontata” in un insieme di frasi scritte in forma lineare e sequenziale utilizzando caratteri discreti. Una tale discretizzazione protegge il genoma da un gran numero di disturbi casuali, anche se non ne impedisce del tutto le alterazioni.
Anche il segnale nervoso che si propaga lungo i nervi è poi digitalizzato. Per ogni tipo di nervo l’onda elettrica che porta il segnale nervoso può assumere una e una sola forma: è un impulso che non può variare né in altezza né in lunghezza. Si parla infatti di un segnale nervoso tutto-o-nulla: o parte o non parte e se parte può assumere una sola forma. Anche in questo caso l’effetto è quello di ridurre l’impatto delle variazioni casuali causate dal rumore. Non è il caso di dilungarsi troppo su questo tema, ma basti dire che anche la percezione sensoriale è tutta impostata sulla discretizzazione e sulla codificazione. Ogni recettore sensoriale pone domande specifiche all’ambiente circostante e interpreta le risposte ricevute registrandole come l’una o l’altra di una serie discreta e ristretta di risposte accettabili. Anche qui il risultato è quello di ridurre al massimo l’equivoco e il malinteso. In ciascuno di questi esempi, e in molti altri dei quali non possiamo parlare, discretizzare e codificare vogliono dire proteggere informazioni preziose dall’influenza deleteria delle perturbazioni casuali, per altro assolutamente inevitabili. È appena il caso di notare che è proprio con l’adozione consapevole di una strategia digitale che sono nati i computer.
Questi possono operare in due modi: un modo seriale, cioè sequenziale, e uno parallelo. Quello seriale, usato da tutti i computer fino a pochissimo tempo fa, implica l’esecuzione di un’operazione logica dietro l’altra: una sola operazione logica per volta. La necessità di eseguire un numero sempre maggiore di calcoli in tempi sempre più brevi ha portato al parallelismo. Il modo parallelo prevede a sua volta l’esecuzione di diversi programmi allo stesso tempo.
Anche se più elaborato e difficile da controllare, il modo di funzionare parallelo sta invadendo il campo dei supercalcolatori e i più pensano che verrà presto esteso a tutti i computer. I calcoli verrebbero velocizzati e si potrebbe lavorare nello stesso tempo su una quantità sterminata di dati. Ebbene, si può constatare che il nostro sistema nervoso funziona da sempre in maniera parallela, per permetterci di stare in contatto con gli avvenimenti esterni in tempo reale e affrontare prontamente le vicende della vita. Al cervello giungono contemporaneamente moltissimi segnali provenienti da varie sorgenti, che viaggiano in parallelo e che vengono elaborati in parallelo, almeno fino ad un certo punto. Ci sono innanzitutto i segnali che provengono dai sensi – esterni come la vista, l’udito, il tatto, il gusto e l’odorato – o interni come le percezioni muscolari o viscerali. Poi quelli provenienti dal recupero di immagini e sensazioni dalla memoria. Tutti questi segnali arrivano contemporaneamente alla corteccia cerebrale, dove sono filtrati e elaborati in modo che si possa giungere a prendere una decisione. Se non fosse così, se prima si dovessero elaborare i diversi tipi di segnali visivi, poi quelli auditivi, poi quelli richiamati dalla nostra memoria e via discorrendo, le nostre risposte alle sollecitazioni dell’ambiente circostante sarebbero esasperatamente lente e non adatte a far fronte alle diverse situazioni.
Il tragitto dell’informazione sensoriale dai recettori periferici al cervello segue quindi una moltitudine di canali aperti contemporaneamente e questi diversi tipi di informazione giungono al cervello – più precisamente alla corteccia cerebrale – praticamente nello stesso istante. Che cosa succeda poi all’interno della corteccia stessa non è ci dato per il momento di sapere, ma tutte le indicazioni portano a concludere che anche lì si svolgano processi paralleli o, se vogliamo essere più precisi, distribuiti. Quando l’operazione è conclusa, se ne raccolgono le fila e il risultato viene memorizzato o direttamente presentato alla coscienza, come se fosse l’output di un calcolo eseguito con un computer. Come questo, miracolosamente, avvenga non lo sappiamo, ma lo studio dei calcolatori ci ha aiutato a identificare queste diverse modalità di trattamento dell’informazione nervosa: parallelo nel tragitto dai sensi alla corteccia, parallelo e distribuito dentro la corteccia stessa e infine, forse, presentato come temporaneamente seriale alla coscienza.
Un’ultima considerazione, di carattere molto generale. Quella dei computer e del loro uso è una scuola di chiarezza e di consequenzialità che ci sta costringendo a mutare progressivamente alcuni nostri atteggiamenti mentali. Fin dal loro esordio, è stato notato che i computer sono specialmente adatti per “coloro i quali capiscono veramente ciò che stanno cercando di fare”. Solo chi sa bene ciò che vuole e ha al proposito le idee chiare può avere interesse ad esprimerle in forma di istruzioni codificate per poterle elaborare automaticamente e trarne le logiche conseguenze. Proposizioni vaghe o espresse in modo ambiguo non conducono in questo caso da nessuna parte, come può costatare chiunque di noi quando si trova ad avere un diverbio con il proprio computer: cocciuto e intransigente, ha però sempre ragione lui. La necessità di chiarezza e di una formulazione non ambigua delle idee, indottaci da alcuni aspetti del modo di vivere di oggi, rappresenta un’istanza capitale per una parte della nostra cultura e del nostro modo di vedere le cose di questi anni, che si va ad aggiungere alla familiarità da noi acquisita con il misurare e il quantificare nei secoli scorsi. Naturalmente questo comporta uno sbilanciamento nel nostro atteggiamento verso le nostre diverse facoltà mentali e intellettuali, privilegiandone alcune piuttosto che altre e questo non piace a tutti.
L’ambiguo e l’indistinto hanno un fascino irresistibile e il fatto che il collettivo umano abbia adottato in larga parte un atteggiamento volto alla precisione e alla consequenzialità logica non significa che ogni individuo faccia questo senza sforzo, né tanto meno con naturalezza e con entusiasmo. Tutt’altro. La cosa riesce difficile a molti, se non ai più, e lascia spesso un senso di spossatezza, di meccanicità e di aridità. Non si rinuncia a cuor leggero alla nostra naturale propensione verso l’imprecisione e l’ambiguità, propensione che ci deriva in ultima istanza dall’alto grado di parallelismo del nostro sistema nervoso.
Il parallelismo, cioè l’elaborazione contemporanea di un gran numero di segnali nervosi, rappresenta il modo di funzionare normale e per così dire la posizione di riposo del nostro sistema nervoso e probabilmente del nostro cervello. Solo al momento della presa di coscienza, della progettazione di un’azione materiale, dell’impostazione di un ragionamento o di un calcolo si ha probabilmente un momentaneo abbandono di tale modo di essere per lasciare il posto ad un processo seriale, cioè sequenziale, come ho creduto di avere illustrato nel mio libro Io sono tu sei (Mondatori, 2002). L’ambiguità è spesso il risultato della compresenza nella mente di diversi significati nello stesso termine, significati che possono interessare a volte anche modalità sensoriali e percettive diverse: una astratta e più razionale, una più emotiva, una visiva, un’altra tattile e via discorrendo. La scarsa lucidità e l’imprecisione possono così derivare da una serie di istantanei corti circuiti subliminali fra processi paralleli diversi o di veri e propri slittamenti da un piano ad un altro e da un processo ad un altro. Tutto ciò va benissimo per quasi tutte le circostanze della vita, soprattutto per quella di un volta, ma è incompatibile con uno sforzo di razionalità e di lucidità. L’affermarsi di quest’ultimo ha rappresentato un grande vantaggio per la società moderna che ne ha beneficiato negli ultimi tempi, mentre il singolo anche oggi ne soffre, più o meno consapevolmente, e cerca di evitarselo il più possibile. A livello collettivo tuttavia alla disposizione recentemente acquisita a misurare e a contare si è andato sempre più sensibilmente affiancando un atteggiamento lucidamente consequenziale e poco propenso all’ambiguità e all’imprecisione dei concetti, almeno in alcuni campi dell’umana attività.
Se è fuor di dubbio che l’invenzione e la diffusione della scrittura hanno influenzato in maniera significativa il modo di operare della nostra mente, mi pare altrettanto evidente che a lungo andare l’uso del computer ci forzerà a passare più tempo delle nostre giornate a perseguire la chiarezza e la lucidità. In questo caso l’osservazione e l’imitazione della mente può portare a una sua modificazione, fosse pure funzionale e transitoria. D’altra parte, che cosa è la scienza se non un tentativo più o meno consapevole di portare lo studio delle cose del mondo a cambiarne la natura stessa? E nella misura in cui è cambiabile e cambiata, la natura delle cose è conoscibile. Compresa la nostra stessa natura”.
Edoardo Boncinelli Università Vita-Salute di Milano