Le Postille di Paolo Lutteri – 12 marzo 2026
Nel campo dell’Intelligenza Artificiale i confini tra aziende e prodotti sono fluidi, a causa del continuo passaggio di talenti tra società. Si intrecciano anche le definizioni di Motore di Ricerca e Modello Linguistico.
I Motori di Ricerca (Google, Bing, Baidu …) indicizzano il web e forniscono elenchi di link o sintesi testuali. La tendenza attuale vede i motori integrarsi con i Modelli Linguistici (LLM): un esempio è AI Overview di Google, che trasforma il semplice elenco di risultati in risposte strutturate con citazioni delle fonti.
I Modelli Linguistici, come ChatGPT, Gemini, Claude, DeepSeek, ragionano, elaborano, danno le risposte ma non fanno ricerca web diretta, a meno che non siano integrati in un motore. Per esempio: ChatGPT (di OpenAI) è un modello linguistico che genera una risposta basata sulla sua conoscenza pre-addestrata. Con SearchGPT, OpenAI sta introducendo funzionalità simili a un motore di ricerca.
Anche Gemini (di Google) e Claude (di Anthropic) sono modelli linguistici, connessi a Internet per fornire risposte aggiornate simili a quelle di un motore di ricerca. Copilot (di Microsoft) utilizza le capacità di ricerca del motore Bing, è un ibrido tra un chatbot avanzato e un motore di ricerca generativo, usa modelli GPT-4 (di OpenAI) che forniscono risposte, generano testi e immagini e può navigare su Internet in tempo reale.
DeepSeek (cinese) è principalmente un Modello Linguistico e una start-up di Intelligenza Artificiale. Chatbot AI di DeepSeek risponde a domande. L’approccio è di tipo ‘open-weight’, permettendo a ricercatori e sviluppatori di personalizzare i dati.
I sistemi di Intelligenza Artificiale, anche se vengono citati insieme, tecnicamente svolgono lavori diversi. I database (indici web) fanno capo ai Motori di Ricerca, mentre i parametri e i corpi di addestramento fanno capo ai Modelli Linguistici. Google e Microsoft, per esempio, hanno decine di miliardi di pagine indicizzate, che alimentano i motori di ricerca.
I Motori si valutano in numero di pagine indicizzate, tempo di risposta (200-900 ms), numero di risposte possibili in contemporanea, qualità dei risultati, copertura geografica e linguistica (100-150 lingue).
I Modelli si misurano con parametri interni (quanti trilioni di token = unità di testo), quanti terabyte di dati, riferimento di capacità, abilità di ragionamento, di programmazione informatica e di comprensione linguistica, efficienza, costo e consumi energetici.
Non voglio far qui una classifica di merito, perché ognuno ha le sue caratteristiche peculiari e livelli diversi di offerte agli utenti. Poi gli utenti scelgono anche per simpatia al brand, per fidelizzazione, oppure li usano secondo i contratti stipulati che prevedono servizi scalari estesi e strutturati. Oppure li usano tutti perché magari pensano siano intercambiabili.
In realtà Motori e Modelli sono ‘distillabili’. La cosiddetta ‘Knowledge Distillation’ è un processo di compressione intelligente della conoscenza (così come il cognac distillato da un vino bianco speciale). Le grandi aziende tecnologiche in Usa e in Cina fanno uso corrente di questa convergenza anche per l’uso corrente di smartphone.
Un Modello ‘piccolo’ impara da un Modello ‘grande’ un certo comportamento e riproduce ragionamenti, esempi, modalità di risposta, senza copiare dati. Impara la logica del modello grande, non il suo contenuto mnemonico.
La distillazione serve per trasferire competenze specifiche (matematica, per esempio), organizzare Modelli più veloci, economici, leggeri, che possano girare su dispositivi mobili o piccoli server. Insomma: anche un singolo sviluppatore (Università, Laboratorio, Azienda, Comunità) distillando può costruire Modelli potenti senza budget miliardari. Si riduce l’addestramento e si ‘democratizza’ l’AI.
La distillazione, per ora, è legale, a condizione di tutelare opere creative, database, codici sorgente, contenuti originali. Come dire: si può imitare una ricetta ma non copiare il testo. La distillazione, se non vìola contratti privati, non vìola copyright perché non copia opere protette e non implica accesso ai dati originali. Formalmente è considerata un apprendimento statistico ed è riconosciuta anche nella letteratura scientifica. E’ considerata una forma di trasferimento di capacità, un espediente virtuoso che permette di ereditare l’intelligenza di un sistema colossale senza possederne fisicamente l’enorme database. Formidabile per l’open-source. Tutto sommato una buona forma di collaborazione per creare una conoscenza larga, trasparente e bene comune.
Paolo Lutteri
