Trent’anni dopo, l’Intelligenza Artificiale ha fatto, e ci ha fatto fare, enormi progressi, semplificando processi e semplificandoci la vita spesso senza che noi ne siamo neppure consapevoli. Ma vi sono territori in cui lasciare a un robot, o a un’entità in qualche misura altra da noi e/o astratta, scelte vitali o comunque fondamentali ci continua a dare un senso di disagio, nonostante il robot sia stato nutrito di informazioni scientificamente ed eticamente corrette – figuriamoci, se fosse il contrario, se cioè gli fossero state date istruzioni scientemente fuorvianti, il che ci porta altrove dal nostro filo logico -.

E’ l’istinto animale della sopravvivenza che si scontra con la logica ‘robotica’ della razionalità. Ci sono due esempi di estrema attualità: uno ci viene dalla pandemia, di cui speriamo d’essere usciti dalla fase delle decisioni più dolorose; l’altro dalla prospettiva, ormai ravvicinata, di auto che non hanno bisogno di essere guidate, ma che ci guidano o che almeno sono programmate per condurci dove vogliamo arrivare.

 

Durante la fase più acuta dei contagi da coronavirus, là dove respiratori e posti in terapia intensiva non erano sufficienti, s’è posto più volte ai medici curanti la drammatica scelta su chi fare sopravvivere o meno, anzi su a chi dare le migliori possibilità di sopravvivere – non sempre le due dizioni sono equivalenti -: a volte la scelta, sempre dolorosa e straziante, poteva apparire eticamente e clinicamente semplice, tra una persona anziana già minata, oltre che dall’età, da altre patologie e una persona nel fiore degli anni e ‘sana’ – virus a parte -, con famiglia, lavoro, potenzialità, responsabilità; altre volte, la scelta era e sarà sempre amletica e fortemente soggettiva.

L’uomo può fare errori di valutazione in buona fede, può non disporre di tutti gli elementi necessari e può essere influenzato da considerazioni personali – un parente, un amico, una persona che ci ricorda qualcuno o che ci evoca qualcosa -. Il robot è esposto come l’uomo a lacune d’informazione, ma non dovrebbe fare errori di valutazione – sempre che sia stato ‘formattato’ in modo corretto – e non dovrebbe avere sentimenti. Però, per quanto razionale sia, il pensiero che una scelta del genere, a chi dare una chance e a chi negarla, sia fatto da una macchina dotata di Intelligenza Artificiale ci mette a disagio, anche se non siamo noi direttamente coinvolti.

Pensiamo adesso a salire su un’auto che ci conduce a destinazione liberandoci dai condizionamenti della guida e lasciandoci modo, durante il viaggio, di lavorare, giocare, vedere un film: splendido!, tanto più che, essendo intelligente, farà pure le scelte giuste in materia di consumi e di sicurezza, riducendo al minimo rischi di collisione ed evitando – ad esempio – sorpassi azzardati. Però, l’incognita e l’imprevisto sono sempre presenti:  un’altra auto, guidata da un babbeo ubriaco o drogato o che sta ‘chattando’ sul telefonino, che non è ‘intelligente’ e che ti viene addosso; oppure, un bambino che ti sbuca davanti rincorrendo un pallone o sottraendosi al controllo della mamma.

Se guidiamo noi – lo sappiamo e lo dicono le statistiche -, l’istinto induce il conducente a salvare per primo se stesso: muore più spesso il passeggero che l’autista. Ma se guida ‘lei’, l’IA, rischiamo d’essere spacciati: mediamente, se non ci sono alternative, ci manderà a sbattere, almeno se siamo soli in auto, per salvare il bambino; e potrebbe persino privilegiare il babbeo – ammesso che ne abbia informazioni e/o che abbia modo di scambiarle all’istante con la sua auto – solo perché dotato di migliore potenziale (magari è un ventenne con spermatozoi potentissimi mentre noi siamo settantenni ormai senza vigore riproduttivo).

Medicina o locomozione, l’Intelligenza Artificiale ci crea disagi: ci conviene, se è dalla nostra parte; se no, siamo tentati di fare di testa nostra, perché noi ‘sappiamo’ che noi meritiamo un’eccezione. E, poi, c’è sempre l’incognita e il sospetto: chi ci dice che lo scienziato che ha ‘caricato’ il nostro robot non sia un dottor Mengele dell’informatica, per cui gli individui biondi, occhi azzurri e pelle chiara, vanno privilegiati sempre e comunque? Il rischio c’è, non solo nei film di fantascienza. E, insieme con tutte le altre nostre umane riluttanze, ci induce alla prudenza. Che, a sapergliela trasmettere, è una dote  plus anche per l’IA.

Articolo precedente“Branding e-volution” UPA e Polimi presentano i risultati della survey con focus Covid-19
Articolo successivoPirateria: collaborazione Fieg – guardia di finanza e procura di bari a tutela del diritto d’autore
È attualmente consigliere per la comunicazione dell’Istituto Affari Internazionali; collabora con vari media (periodici, quotidiani, radio, tv) e con l’Unione europea; gestisce il sito GpNewsUsa2016.eu; tiene corsi in Università e scuole di giornalismo. Inizia l’attività giornalistica a “La Provincia Pavese” nel 1972. Dal 1976 al ’79 è alla “Gazzetta del Popolo” di Torino, per la quale nel 1979 apre l’ufficio di corrispondenza a Bruxelles. Nel 1980 passa all’Ufficio dell’Ansa di Bruxelles di cui diventa responsabile nel 1984. Segue per dieci anni la Cee e la Nato. Nel 1989 è a Roma: caporedattore Esteri, caporedattore centrale Esteri, vide-direttore. Nel 1992 è tra i fondatori dello European Press Club, di cui è tuttora segretario generale. Nel 1999 va a guidare l’ufficio Ansa di Parigi e nel 2000 diviene responsabile dell’ufficio di Washington e del Nord America. Dal dicembre 2006 al giugno 2009 dirige l’Ansa. Dopo è successivamente direttore de l'AgenceEurope, di EurActiv.it e vice-direttore de La Presse.