Convegno SIpEIA 2026: “Etiche per l’IA: sfide, opportunità e prospettive umano-centriche” 2 e 3 febbraio Università Sapienza di Roma.

Per iscriversi al convegno, cliccare qui


Per chi desidera leggere la versione dell’intervista in italiano, scorra verso il basso.

Daniel Innerarity is one of the most authoritative contemporary European philosophers on issues of democracy, governance, and the political impact of technologies.

Professor of Political Philosophy, Chai Arificial Intelligence and democracia at yhe European University Institute of Florence, Daniel Innerarity is internationally known for his studies on the transformation of democracies in the digital age, and on the relationship between complexity, political decision-making, and technological innovation. His work stands out for its ability to combine theoretical rigor with close attention to social and institutional processes.

His presence at the SIpEIA Conference is particularly significant because it invites us to look at artificial intelligence not only as a technical or ethical issue, but as a profoundly political and democratic problem: a challenge that concerns the way societies decide, participate, and recognize themselves in the technologies they produce.

In your talk you state that digital technologies often seem to “avoid people.” In what sense does AI risk excluding or rendering invisible the human role, and what are today the most evident forms of this removal?

“A new global division of digital labour is taking place, forming chains of offshoring that force us to look at automation differently: human workers are not replaced by robots, but by other (hidden, precarious and lower paid) human workers. Contrary to certain dominant rhetoric, the platforms are not driven by benevolent users but by proletarians of the click. What we have is ‘micro-workers’ or ‘ghost workers’ hidden in the technologies underpinning artificial intelligence and performing repetitive digital tasks. As Nick Seaver warns, ‘if you can’t see a human in the loop, just look for a bigger loop’”.

You argue that, for AI to be truly democratic, people must be present throughout its entire life cycle. At which stages and in which ways is this presence most necessary today, and where is it still lacking?

“We can think of the processes of automation by analogy with the way we have designed representative democracy so that, without being fully present at all moments of governance, it would allow us to consider ourselves as the ultimate authors of collective decisions.  Humans should be there by virtue of at least six properties of these devices: reflexibility, interpretability, malleability, contestability, community, diversity and decidability. These are all different declinations of the we, which assert different aspects of the subjectivity of the people. The people who emerge as subjects in the digital age would be a we made up of the conscious, the interpreters, the interveners, the contesters, all of us in our diversity and the ultimate decision-makers. Each of these modes of being in the loop requires corresponding designs and forms of governance”.

How can the technical complexity of AI systems be reconciled with genuine citizen participation, without reducing public involvement to mere symbolic consultation?

“The fact that more and more public decisions are made by algorithmic procedures forces us to renegotiate the hybrid space of action in which we humans and technological artefacts operate. There will be no true democracy if we do not bring these artefacts into a realm that allows us to contest their decisions.  The possibilities of contestation can take different forms (monitoring, evaluation, supervision, critique, accountability…) and take place at different moments (in data, algorithms, results, regulation…). People not only obey, but resist, subvert and transgress the work of algorithms, redeveloping them for objectives that do not coincide with those for which they were designed”.

From your point of view, what contribution can initiatives such as SIpEIA make in promoting a culture of AI that is not only ethical and responsible, but also authentically democratic?

“Reflexivity at every level and according with the conceptual mission on SipEIA: All technology – and perhaps more so digital technology – provokes reflexive responses in us, rather than reflexivity. Technology works without requiring – or even allowing – us to adopt an explicit relationship with it. Technologies in general and ubiquitous computing in particular are integrated into the social fabric until they become indistinguishable from it, generating a ‘digital unconscious’. These are variations on Langdon Winner’s famous idea of ‘technological sleepwalking’ (1977), i.e. a lack of awareness of technological development and its consequences, unquestioned, functional and neutral.

It is not that key decisions are delegated to machines in which there is no human; it is rather that we are pressured to make decisions in such a way that we do not ask ourselves who the real author is. Automated systems push us into thoughtlessness in the sense described by Hannah Arendt: the inability to criticise instructions, the lack of reflection on consequences, the willingness to believe that orders are correct”.


Daniel Innerarity è uno dei più autorevoli filosofi europei contemporanei sui temi della democrazia, della governance e dell’impatto politico delle tecnologie.

Professore di Filosofia politica, titolare della cattedra di Intelligenza artificiale e democrazia presso l’Istituto Universitario Europeo di Firenze, Daniel Innerarity è noto a livello internazionale per i suoi studi sulla trasformazione delle democrazie nell’era digitale e sul rapporto tra complessità, decisione politica e innovazione tecnologica. Il suo lavoro si distingue per la capacità di coniugare rigore teorico e grande attenzione ai processi sociali e istituzionali.

La sua presenza alla conferenza SIpEIA è particolarmente significativa perché ci invita a considerare l’intelligenza artificiale non solo come una questione tecnica o etica, ma come un problema profondamente politico e democratico: una sfida che riguarda il modo in cui le società decidono, partecipano e si riconoscono nelle tecnologie che producono.

Nel suo intervento lei afferma che le tecnologie digitali spesso sembrano “evitare le persone”. In che senso l’IA rischia di escludere o rendere invisibile il ruolo umano, e quali sono oggi le forme più evidenti di questa rimozione?

“È in corso una nuova divisione globale del lavoro digitale, che forma catene di delocalizzazione e ci costringe a guardare all’automazione in modo diverso: i lavoratori umani non vengono sostituiti dai robot, ma da altri lavoratori umani (nascosti, precari e meno pagati). Contrariamente a una certa retorica dominante, le piattaforme non sono guidate da utenti benevoli ma da proletari del click. Ciò che abbiamo sono ‘micro-lavoratori’ o ‘ghost workers’ nascosti nelle tecnologie che sostengono l’intelligenza artificiale e che svolgono compiti digitali ripetitivi. Come avverte Nick Seaver, ‘se non riesci a vedere un essere umano nel loop, cerca semplicemente un loop più grande’.”

Lei sostiene che, perché l’IA sia davvero democratica, le persone debbano essere presenti lungo tutto il suo ciclo di vita. In quali fasi e in quali modi questa presenza è oggi più necessaria, e dove invece manca ancora?

Possiamo pensare ai processi di automazione per analogia con il modo in cui abbiamo progettato la democrazia rappresentativa: pur non essendo pienamente presenti in tutti i momenti del governo, essa ci permette di considerarci come gli autori ultimi delle decisioni collettive. Gli esseri umani dovrebbero essere presenti in virtù di almeno sei proprietà di questi dispositivi: riflessività, interpretabilità, malleabilità, contestabilità, comunità, diversità e decidibilità. Sono tutte diverse declinazioni del “noi”, che affermano aspetti differenti della soggettività del popolo. Il popolo che emerge come soggetto nell’era digitale sarebbe un “noi” composto dai consapevoli, dagli interpreti, da chi interviene, da chi contesta, da tutti noi nella nostra diversità e dai decisori ultimi. Ognuna di queste modalità di essere nel loop richiede progetti e forme di governance corrispondenti.

Come si può conciliare la complessità tecnica dei sistemi di IA con una partecipazione autentica dei cittadini, senza ridurre il coinvolgimento pubblico a una consultazione meramente simbolica?

Il fatto che sempre più decisioni pubbliche vengano prese tramite procedure algoritmiche ci costringe a rinegoziare lo spazio ibrido di azione in cui noi esseri umani e gli artefatti tecnologici operiamo. Non ci sarà vera democrazia se non porteremo questi artefatti in un ambito che ci consenta di contestarne le decisioni. Le possibilità di contestazione possono assumere forme diverse (monitoraggio, valutazione, supervisione, critica, responsabilità…) e avere luogo in momenti differenti (nei dati, negli algoritmi, nei risultati, nella regolazione…). Le persone non solo obbediscono, ma resistono, sovvertono e trasgrediscono il funzionamento degli algoritmi, riadattandoli a obiettivi che non coincidono con quelli per cui erano stati progettati.

Dal suo punto di vista, quale contributo possono dare iniziative come SIpEIA nel promuovere una cultura dell’IA che non sia solo etica e responsabile, ma anche autenticamente democratica?

“La riflessività a ogni livello, in linea con la missione concettuale di SIpEIA: ogni tecnologia — e forse ancora di più quella digitale — provoca in noi risposte riflessive, piuttosto che vera riflessività. La tecnologia funziona senza richiedere — o addirittura permettere — che adottiamo un rapporto esplicito con essa. Le tecnologie in generale e l’informatica pervasiva in particolare si integrano nel tessuto sociale fino a diventarne indistinguibili, generando un “inconscio digitale”. Sono variazioni della celebre idea di Langdon Winner del “sonnambulismo tecnologico” (1977), cioè una mancanza di consapevolezza dello sviluppo tecnologico e delle sue conseguenze, dato per scontato, funzionale e neutrale.

Non è che le decisioni chiave vengano delegate a macchine in cui non c’è alcun essere umano; piuttosto, siamo spinti a prendere decisioni in modo tale da non chiederci chi sia il vero autore. I sistemi automatizzati ci spingono verso l’assenza di pensiero nel senso descritto da Hannah Arendt: l’incapacità di criticare le istruzioni, la mancanza di riflessione sulle conseguenze, la disponibilità a credere che gli ordini siano corretti”.

Articolo precedenteCatarci (SIpEIA): “L’etica dell’IA deve tornare all’essere umano”
Articolo successivoBergamini (FI) eletta vicepresidente commissione Affari politici e della Democrazia Consiglio d’Europa
Maria Pia Rossignaud
Giornalista curiosa, la divulgazione scientifica è nel suo DNA. Le tecnologie applicate al mondo dei media, e non solo, sono la sua passione. L'innovazione sociale, di pensiero, di metodo e di business il suo campo di ricerca. II presidente Sergio Mattarella la ha insignita dell'onorificenza di Cavaliere al Merito della Repubblica Italiana. Vice Presidente dell’Osservatorio TuttiMedia, associazione culturale creata nel 1996, unica in Europa perché aziende anche in concorrenza siedono allo stesso tavolo per costruire il futuro con equilibrio e senza prevaricazioni. Direttrice della prima rivista di cultura digitale Media Duemila (fondata nel 1983 da Giovanni Giovannini storico presidente FIEG) anticipa i cambiamenti per aiutare ad evitare i fallimenti, sempre in agguato laddove regna l'ignoranza. Insignita dal presidente Mattarella dell'onorificenza di "Cavaliere al Merito della repubblica Italiana. Fa parte del gruppo di esperti CNU Agcom. E' fra i 25 esperti di digitale scelti dalla Rappresentanza Italiana della Commissione Europea. La sua ultima pubblicazione: Oltre Orwell il gemello digitale anima la discussione culturale sul doppio digitale che dalla macchina passa all'uomo. Già responsabile corsi di formazione del Digital Lab @fieg, partecipa al GTWN (Global Telecom Women's Network) con articoli sulla rivista Mobile Century e sui libri dell'associazione. Per Ars Electronica (uno dei premi più prestigiosi nel campo dell'arte digitale) ha scritto nel catalogo "POSTCITY". Già docente universitaria alla Sapienza e alla LUISS.