Convegno SIpEIA – Etica per l’IA in prospettiva umano-centrica
Per iscriversi al convegno, cliccare qui
Francesca Rossi è una delle voci più autorevoli a livello internazionale nel campo dell’intelligenza artificiale e dell’etica dell’IA.
Informatica italiana di fama mondiale, Francesca Rossi è attualmente IBM Fellow e IBM Global Leader for Responsible AI and AI Governance presso l’IBM Thomas J. Watson Research Center, dove guida a livello globale le strategie e le pratiche di etica dell’intelligenza artificiale in uno dei più importanti centri di ricerca industriale al mondo. Il suo lavoro si colloca in modo esemplare all’incrocio tra ricerca scientifica di punta, responsabilità sociale e governance dell’innovazione tecnologica. Da anni si occupa di rendere i sistemi di intelligenza artificiale non solo più potenti, ma anche più giusti, trasparenti, affidabili e allineati ai valori umani.
La sua presenza al convegno SIpEIA è particolarmente significativa perché incarna perfettamente la visione di un’IA umano-centrica: un’IA capace di sostenere le decisioni, migliorare i processi e ampliare le possibilità dell’agire umano, senza mai perdere di vista diritti, dignità e responsabilità.
Nel suo intervento lei sottolinea che l’IA può aiutarci a prendere decisioni più fondate, liberandoci da compiti ripetitivi per concentrarci su valori e obiettivi. In che modo questa trasformazione cambia il ruolo dell’essere umano nei processi decisionali e quali competenze diventano oggi cruciali?
“Il ruolo dell’essere umano sarà sempre di più quello di guidare, supervisionare, e controllare il lavoro dell’IA, piuttosto che svolgere il lavoro in modo completo. L’IA è già un collaboratore, che però va controllato per evitare decisioni errate o non ottimizzate. Per poter svolgere questo ruolo, è però necessario saper verificare la correttezza di decisioni o azioni prese dall’IA, cosa che necessita una conoscenza del lavoro da svolgere. Ad esempio, nella scrittura di codice in un linguaggio di programmazione, l’IA può generare una prima versione, ma l’essere umano deve controllarne la correttezza, quindi deve saper scrive codice lui stesso. C’è anche bisogno di competenze multidisciplinari, che permettano di usare l’IA nel modo migliore nei vari campi applicativi e anche sapendo valutare l’impatto sulle persone e le comunità”.
Lei individua temi come privacy, equità, trasparenza, responsabilità e allineamento ai valori come nodi centrali dell’etica dell’IA. Dal suo punto di vista, quali di questi rappresentano oggi le sfide più critiche e perché sono così decisive per costruire fiducia nell’IA?
“L’allineamento ai valori umani, che includono la privacy e l’equità, è ancora una sfida aperta per i ricercatori, che esplorano vari metodi per affrontarla. La trasparenza è trasversale agli altri temi ed è fondamentale per avere il livello di fiducia corretto nell’AI e nelle organizzazioni che la creano. Include informazioni su come un modello o sistema di AI è stato creato, su che tipo di dati è stato addestrato, che test sono stati eseguiti, e per quale uso è stato pensato. Avere queste informazioni permette agli utenti di conoscere le sue capacità e i limiti, in modo da usarlo nel modo più corretto ed evitare comportamenti non attesi o desiderati. IBM ha sempre considerato la trasparenza come fondamentale in un approccio responsabile all’AI. Con il Toolkit “AI factsheet 360”, IBM è stata pioniera nel proporre uno standard di trasparenza e nel fornire strumenti software per supportarlo. Più recentemente, i large language model Granite di IBM hanno ricevuto il punteggio più alto nello “Stanford Transparency Index” del 2015″.
Nel titolo del suo intervento parla di un “chiaro ritorno sull’investimento” dell’etica e della governance dell’IA. Come si può spiegare concretamente a imprese e istituzioni che investire in etica dell’IA non è solo un costo o un obbligo normativo, ma un fattore strategico di valore?
“Senza una governance concreta e una gestione attenta delle problematiche etiche, le aziende rischiano non solo di violare le leggi, ma anche di avere un impatto negativo sulla loro reputazione e sulla fiducia dei clienti, perdendo quindi valore nel mercato. Inoltre, senza fiducia non ci può essere un’adozione dell’IA su larga scala, e quindi si perdono opportunità di ottimizzare, semplificare, e accelerare i processi aziendali, sia per l’azienda che per i suoi clienti”.
Dal suo osservatorio privilegiato in IBM e nel contesto internazionale, come vede evolvere nel tempo il rapporto tra progresso tecnologico e responsabilità etica, e quale ruolo possono giocare associazioni come SIpEIA nel promuovere una visione realmente umano-centrica dell’innovazione?
“L’evoluzione rapida delle capacità dell’IA porta nuove problematiche etiche per le quali serve una governance agile e flessibile che le sappia identificare e mitigare. Il processo legislativo ha un ruolo importante ma è troppo lento per tenere il passo con la velocità del progresso dell’IA, quindi servono processi volontari di governance aziendale per la creazione e l’uso responsabile dell’IA. Le associazioni come SIpEIA possono aiutare a identificare i problemi etici e la loro evoluzione nel tempo. Possono anche collaborare con le aziende per capire il legame causale tra i rischi etici per le persone e i rischi aziendali, in modo che le aziende possano creare valore nel gestire adeguatamente entrambi questi tipi di rischi”.
