NEWS

Taddeo: “Fiducia critica verso
l’innovazione digitale”

Immagine di anteprima

La professoressa di Oxford ha spiegato quello che dovrebbe essere l’approccio alla rivoluzione tecnologica in atto. Ponendo attenzione ai principi di etica e sostenibilità che dovrebbero guidare ogni professionista

Intervista esclusiva alla professoressa

“Serve fiducia critica verso il digitale, valutando con criterio le decisioni prese dalle macchine”. Parlando di intelligenza artificiale e della sua applicazione al servizio di consulenza finanziaria, Mariarosaria Taddeo, professoressa dell’Università di Oxford intervistata in esclusiva da MyAdvice, ha descritto l’approccio ottimale al tema. Illustrando chiaramente qual è la purpose che deve guidare il consulente finanziario nella sua attività. Perché nel faticoso viaggio verso la consulenza evoluta, non possono essere tralasciati i principi etici più preziosi.

L’innovazione digitale è un fenomeno che interessa tutti i settori della nostra vita, quale impatto può avere questo contesto su una figura professionale come quella del consulente finanziario per il quale il fattore umano resta un elemento determinante nella relazione con il cliente?

“L’intelligenza artificiale (IA) è uno strumento. Come tale, può supportare (facilitandole, rendendo l’elaborazione delle informazioni rilevanti più veloce e corretta, e diminuendo i rischi di errori) le decisioni che gli esseri umani prendono negli ambiti più disparati, che si tratti di quale libro leggere il prossimo fine settimana o di quale prodotto finanziario faccia meglio al caso nostro. Tuttavia, se progettato o usato male, questo stesso strumento può porre problemi e rischi seri. Per esempio, se ci si affida a sistemi d’IA che utilizzano databases che veicolano pregiudizi, si corre il rischio di discriminare ingiustamente categorie di utenti, tipicamente donne o persone appartenenti a minoranze etniche. Per questo motivo, utilizzare l’IA fidandosene ciecamente, senza aver stabilito un’adeguata governance per il suo uso (per esempio, prevendendo sistemi di monitoraggio, di accountability per l’uso dell’IA, e di auditing della stessa IA) presenta gravi rischi per tutti i fruitori (diretti ed indiretti) del sistema, qualora ci fosse un errore dell’IA o un del suo uso. Per questi motivi, dovremmo evitare di considerare l’IA come un elemento di assoluta precisione ed efficacia. A questo riguardo è cruciale, quando si introducono sistemi IA, garantire agli operatori umani la possibilità di dissentire dalle scelte suggerite dall’IA, ed evitare che questi si trasformino in meri esecutori delle decisioni prese dalle macchine. È importante per esempio che gli operatori capiscano, seppure a grandi linee, come questi sistemi funzionano e che sviluppino una fiducia critica – per usare un ossimoro – in questi strumenti. Solo così se ne potranno massimizzare i vantaggi”.

Un altro valore sempre più prezioso oggi è la sostenibilità, quanto può incidere il LIFE programme UE a tal proposito?

“Il Programme esiste dal 1992, è un esempio delle spinte ed opportunità che l’UE spesso offre ai suoi Stati Membri. Credo che il programma risentirà positivamente dell’attenzione che la crisi ambientale sta giustamente ricevendo in questi mesi. Spero che il programma si apra a iniziative di ricerca e sviluppo che mirano a utilizzare l’IA, e il digitale, per invertire la rotta del climate change e affrontare con successo le sfide ambientaliste. Nel 2015, l’ONU ha definito 17 obbiettivi (Sustainable Development Goals – SDGs) molti dei quali riguardano il climate change, la sostenibilità ambientale, l’inquinamento degli oceani. Oggi sappiamo che l’IA può essere di grande aiuto nel raggiungere ognuno degli obbiettivi indicati dalle Nazioni Unite. All’Università di Oxford abbiamo di recente lanciato un programma di ricerca (AIxSDGs) con l’obbiettivo di identificare i vantaggi e i fattori di rischio legati all’uso dell’IA per SDGs. Iniziative come queste sono fondamentali e necessitano di tutto il supporto possibile per assicurare che il potenziale delle tecnologie del digitale per l’ambiente sia utilizzato nella maniera più efficace possibile”.

I temi ESG hanno contaminato anche il mondo degli investimenti, come possono influenzare, secondo la sua opinione, le logiche della finanza?

“Cinicamente: più sostenibilità, pluralismo, trasparenza sono riconosciuti come valori etici, più rispettarli diventa un asset per la reputazione, e quindi per il valore, delle aziende. Le generazioni presenti e future di investitori crescono adottando temi relativi all’ambiente, società e governance (environment, society, and governance – ESG) facendone una variabile discriminante per le loro decisioni. Se un tempo la corporate social responsibility (CSR) poteva essere un fattore opinabile, oggi (e sempre di più in futuro) non solo la CSR, ma l’ethos stesso delle aziende avrà un impatto crescente sul loro successo. Per rispondere alla sua domanda: le logiche della finanza forse rimarranno invariate, ma i fattori su cui calcolare il valore delle aziende, e i rischi degli investimenti, cambieranno fino a includere i temi ESG. Del resto più i segni del cambiamento climatico, dell’impatto di certi servizi sulle nostre società si fanno evidenti, più l’attenzione si focalizzerà su questi temi, ponendoli al centro di dibattiti a cui la finanza non può rimanere indifferente”.

La rivoluzione digitale è una trasformazione che sta cambiando l’essenza del mondo e di noi stessi, modificando anche il nostro habitat e ponendoci di fronte a nuove sfide che richiedono una nuova capacità di agire. In che modo possiamo farci trovare pronti?

“Rinsaldando il nostro ruolo di “nocchieri” del digitale. Negli anni ‘50, Nobert Wiener, professore di matematica all’MIT, fondò un campo di ricerca che chiamò “cibernetica” che studiava, e studia, le tecnologie dell’informazione. La parola viene dal Greco “kubernethes” (nocchiere). Wiener rimarcava, con grandissima lungimiranza, la necessità per gli esseri umani di rimanere alla guida di queste tecnologie. Guidarle significa progettarle, usarle, regolarle in modo che esse supportino i valori e gli scopi delle nostre società. Ha ragione Luciano Floridi, professore di filosofia ed etica dell’informazione all’Università di Oxford, quando parla dell’età digitale come dell’età del design. Siamo pronti alla rivoluzione del digitale se siamo pronti a progettare (design) non solo degli strumenti tecnologici, ma anche gli ambienti, le società e le interazioni tra i diversi stakeholders, in modo che esse rispecchino valori fondamentali. La rivoluzione digitale sarà un fallimento se porterà a società meno aperte alle differenze, incapaci di supportare processi democratici e liberali, e in cui tolleranza e giustizia non siano protette e promosse. Sta a noi fare in modo che questo non accada”.

L’IA è un supporto importante per i professionisti: qual è l’affidabilità di tali strumenti sul piano etico?

L’IA offre grandissimi vantaggi, ma pone anche seri rischi etici. Alcuni dei quali possono minare i valori di giustizia, tolleranza, e pluralità che sono a fondamento delle società democratiche. Possiamo considerare tre categorie di rischio etico come le più importanti. Il pregiudizio (bias). Ne abbiamo già discusso. L’IA può diffondere e perpetrare decisioni prese sulla base di pregiudizi inaccettabili, come per esempio la discriminazione in base alla provenienza etnica o geografica. La maggior parte dei sistemi IA identifica categorie e correlazioni tra le categorie. Le correlazioni permettono all’IA di fare delle predizioni probabilistiche. A volte, la categorizzazione e le correlazioni si basano su dati che nascondono dei pregiudizi più o meno espliciti, che sono poi veicolati nelle predizioni offerte dai sistemi IA. La mancanza di trasparenza, una buona parte di sistemi IA rimangono delle black box, cioè macchine per le quali dato un input e degli operatori logici non sappiamo né prevedere né spiegare l’output. Questo è molto problematico perché rende difficile, a volte impossibile, risalire alle ragioni per le quali un sistema produce un certo output (per esempio decidere se offrire un determinato prodotto a un utente) e capire se la decisione è stata presa in modo corretto, per esempio senza seguire dei pregiudizi. L’attribuzione della responsabilità. I sistemi di intelligenza artificiale sono spesso il risultato di diverse parti assemblate e sono anche in grado di continuare ad imparare (e quindi cambiare il loro comportamento) una volta messi in uso. Questo rende molto difficile ascrivere le responsabilità legali e soprattutto morali quando i sistemi commettono degli errori. Tutti questi problemi dipendono dalla tecnologia, ma non sono risolvibili con il semplice evolversi della tecnologia. Le soluzioni richiedono due passaggi: prima la comprensione dei cambiamenti concettuali e delle implicazioni etiche della rivoluzione digitale; in seguito la definizione di processi di governance e regolamentazione adeguati a recepire questi cambiamenti e a guidare l’uso di queste tecnologie in modo appropriato. È importante che i passaggi seguano l’ordine. Governance e regolamentazione scevre della comprensione dei cambiamenti concettuali ed etici rischiano o di rimanere inefficaci o di bloccare il processo tecnologico, e con esso i vantaggi che la tecnologia offre. Allo stesso modo, le analisi concettuali ed etiche sono poco utili se arrivano tardi, quando i processi di governance e regolamentazione sono già stati definiti”.

20/02/2020 | Categorie: Dossier Firma: Redazione