Lettera aperta di Paolo Lutteri – 20 dicembre 2023
Caro Albert,
lungi da me la presunzione di poterti aggiornare sulla rivoluzione digitale in corso. Raccolgo informazioni che capisco solo superficialmente e te le giro con semplicità ma senza riuscire ad approfondirle. Cerco di riassumerti lo scenario, visto dall’esterno, in modo non esaustivo, anche perché di Intelligenze Artificiali ce n’è più di una.
L’intelligenza Artificiale utilizza da poco perlopiù il Modello di Linguaggio Largo (in sigla LLM). Sono algoritmi avanzati di deep learning che elaborano il linguaggio naturale con decine di miliardi di parametri. Lemmi, o parole, vengono analizzati lessicalmente e codificati attraverso una serie di vettori che incorporano i concetti in posizioni multidimensionali (ChatGpt pare utilizzi 1.500 dimensioni e 8.500 miliardi di voci). Ogni etichetta, digitale, ha un’identità come soggetto contenuto e come significato semantico in relazione a tanti (tutti) i contesti nei quali compare, includendo i sinonimi, le somiglianze, le analogie, i contrari, le affinità, i contesti dove è collocato. Le posizioni sono inserite in reti neurali, con livelli di specificazione e nodi di percorso linguistico. (Oltre alle parole scritte si sta lavorando anche sui suoni e sulle immagini, ne riparleremo.)
E’ un lavoraccio, ma lo fa il computer a ultra-velocità, setacciando tutti i testi che trova su internet, da Wikipedia e Common Crawl ai siti web e ai messaggi su Twitter, corretti o sbagliati che siano. Le relazioni tra i concetti (pardon: tra i vettori) vengono esaminate con vari filtri e passaggi, digitalmente, statisticamente e semanticamente.  Ci saranno poi dei ‘guardrail’ a limitare o correggere palesi errori, garantendo le regole dell’organizzazione, ai quali si aggiungono anche verifiche in base all’esperienza (RLHF = Reinforcement Learning from Human Feedback).
I vettori di ogni parola sono individuati in uno spazio multidimensionale da coordinate numeriche (i due assi cartesiani non bastano). Vengono etichettati, confrontati digitalmente e trascritti, tradotti in testi di parole sensate, precise, articolate in argomentazioni grammaticalmente e sintatticamente corrette. Non c’è una vera e propria ‘intelligenza’ o consapevolezza di quel che il computer dice rispondendo a una domanda, però gli abbinamenti trovati sono più di quelli che un cervello umano riuscirebbe a raccogliere a quella velocità, e sono ragionevoli e utili per le risposte.
Semplificando direi che il motore dell’Intelligenza Artificiale risolve agevolmente tutti i puzzle, le parole incrociate e i sudoku, avendo esaminato tutte le combinazioni possibili e scelto quelle probabilmente più utili per rispondere alle domande. Se ci confrontiamo con un’Intelligenza Artificiale Generativa (GPT sta per Generative Pre-trained Transformer), questa potrebbe anche inventare delle soluzioni apparentemente inimmaginabili dal nostro cervello. Tieni conto che un ‘motorino linguistico’ come Chincilla di DeepMind tiene d’occhio 70 miliardi di parametri con 1,4 trilioni di vettori di parole. Tutto a una velocità incredibile.
Ci sarebbe da scrivere un libro per raccontare i dettagli di questo Modello di Linguaggio Largo, forse l’Intelligenza Artificiale se lo scriverà da sola. Intanto, mentre i Governi cercano di arginare questo superpotere tecnologico*, crescono le opportunità di utilizzo concreto nel sociale, dalla medicina alle informazioni, alla gestione degli asset, alla profilazione dei consumi e perfino al riconoscimento facciale. I regolamenti approvati dovrebbero tutelare in primis la privacy, i copyright, controllare le fake info, i robot e l’evasione fiscale … Ma siccome per via burocratica entreranno in vigore tra un paio d’anni, nel frattempo il deep learning e l’evoluzione tecnologica avranno già rimescolato le carte…
Quel che voglio sottolineare qui è che il linguaggio comune che le nostre generazioni hanno assorbito quasi spontaneamente dai genitori, dalla scuola, dalle chiacchiere tra bambini o tra colleghi, con tutte le performances sentimentali, artistiche e etiche dell’età e della cultura, è stato fatto a pezzi, tokenizzato, frullato, centrifugato, mescolato con esperienze altrui e rigenerato in bit.
La macchina adesso forse ne sa più di noi umani e ci propone di gestire al meglio (speriamo) le relazioni economiche, tecnologiche, sociali. Io, per il momento, sono a mio agio solo quando discuto con esseri umani. Sono rimasto indietro?
Caro Albert, time flies!
Paolo
Articolo precedenteVivere bene la cultura digitale oggi vuol dire avere le idee chiare per il futuro
Articolo successivoCoMar Centro Studi: I bilanci delle partecipate dello Stato
Paolo Lutteri, di Milano, si occupa di comunicazione e marketing dal 1976. Laureato in Scienze Politiche all’Università di Milano e Diplomato all’Istituto Universitario di Lingue di Pechino. Giornalista pubblicista, iscritto all’Ordine dei Giornalisti e all’Unione Giornalisti Italiani Scientifici. Ha lavorato con il quotidiano Il Giorno, con le società Spe, Sport Comunicazione e Alfa Romeo; con il Gruppo Rai dal 1989 si è occupato di marketing, sport, nuovi media e relazioni internazionali. Ha tenuto corsi presso le Università degli Studi di Milano e Bicocca, le Università di Roma Sapienza e Tor Vergata. Attualmente studia e scrive articoli sull’innovazione culturale e tecnologica, fa parte del Comitato di Direzione della rivista Media Duemila, è socio onorario dell’Osservatorio TuttiMedia, membro d’onore dell’EGTA-Associazione Europea Concessionarie tv e radio, membro del Consiglio direttivo dell’Associazione Eurovisioni, socio e direttore del Centro Documentazione e Formazione della Fondazione Salvetti. e-mail: paolo.lutteri@libero.it