Perché ho inventato la parola intercontestualità

Mi sono trovato, quasi per necessità, a inventare un neologismo: intercontestualità. Non per il gusto di complicare il linguaggio, ma per cercare di andare più a fondo nel rapporto fra noi utenti e l’intelligenza artificiale generativa.

Si parla spesso di “finestra di contesto” dei modelli linguistici: è lo spazio di memoria, misurato in token, entro cui il sistema può trattenere e rielaborare le informazioni che riceve. È la finestra della macchina, e ormai tutti sanno che è cruciale per la qualità delle risposte.

Ma nessuno, almeno per ora, ha dato un nome all’altra finestra: quella dell’utente. Anch’essa esiste, ed è fatta di archivi personali, appunti, conoscenze implicite, intenzioni e cornici culturali che entrano in gioco quando costruiamo un prompt. Sempre più spesso questa finestra viene rafforzata da strumenti come i piccoli modelli linguistici specializzati (SML) e le tecniche di retrieval-augmented generation (RAG), che permettono di mobilitare in modo mirato il proprio capitale cognitivo digitale.

Ogni dialogo con l’AI è, in realtà, un incontro tra queste due finestre: quella algoritmica e quella umana-digitale. Non è solo questione di dare un comando e ricevere una risposta, ma di sincronizzare due contesti diversi in un campo comune di pertinenza. È qui che nasce il senso, ed è questo che intendo con intercontestualità:

l’interazione dinamica tra la finestra di contesto del modello e quella dell’utente, da cui scaturisce la qualità dell’esperienza generativa.

Questa idea non è solo tecnica. Ha anche un risvolto politico ed economico. Da un lato, la finestra dell’utente si sta rafforzando: più diventiamo capaci di organizzare il nostro sapere digitale, più possiamo incidere sul dialogo con la macchina. Dall’altro, i grandi modelli si trovano sotto pressioni crescenti: ridurre i costi, abbassare i consumi energetici, soddisfare gli investitori. Questo porta a strategie come la compressione dei token, la quantizzazione dei pesi, l’uso parziale dei parametri. Tutti accorgimenti legittimi sul piano industriale, ma che possono ridurre la sottigliezza delle risposte.

Ecco allora il punto: quanto più la nostra finestra di contesto si raffina, tanto più diventano visibili i tagli di qualità sul lato della macchina. Se l’AI non onora la precisione del materiale che le offriamo, la relazione si spezza. Paradossalmente, sarà proprio la forza crescente dell’utente a costringere i modelli a non “tirar via”, a mantenere fedeltà e profondità nonostante i vincoli economici.

Intercontestualità, dunque, non è un esercizio di stile. È un modo per nominare una realtà nuova: che il futuro dell’intelligenza artificiale non dipende solo dalla potenza dei modelli, ma dalla risonanza fra due contesti — il nostro e il loro.

Articolo precedenteLe armi spuntate dell’Europa per la pace a Gaza e in Ucraina
Articolo successivoGasparri su IA: “La legge è una innovazione perché per la prima volta una normativa si occupa di IA”
Derrick de Kerckhove
Direttore scientifico di Media Duemila e Osservatorio TuttiMedia. Visiting professor al Politecnico di Milano. Ha diretto dal 1983 al 2008 il McLuhan Program in Culture & Technology dell'Università di Toronto. È autore di "La pelle della cultura e dell'intelligenza connessa" ("The Skin of Culture and Connected Intelligence"). Già docente presso il Dipartimento di Scienze Sociali dell'Università degli Studi di Napoli Federico II dove è stato titolare degli insegnamenti di "Sociologia della cultura digitale" e di "Marketing e nuovi media".