Mentre l’Europa discute una nuova legge in materia, due ricercatrici italiane specializzate in etica digitale, Ivana Bartoletti e Lucia Lucchini, hanno affrontato una questione ormai divenuta centrale: il risarcimento ai cittadini nel caso di diritti violati

Lucia Lucchini

di Ennio Bassi

Si sta discutendo di una legge a livello europeo per regolare lo sviluppo e l’impiego dell’intelligenza artificiale. In questo quadro il rapporto firmato dagli europarlamentari Brando Benifei e Dragos Tudorache è molto importante perché pone alcune questioni essenziali per migliorare la proposta legislativa della Commissione europea. Due studiose italiane di Etica Digitale, Ivana Bartoletti e Lucia Lucchini, hanno un’idea che potrebbe fare la differenza nel gestire i rischi dell’intelligenza artificiale.

Ma per capire dove sta la soluzione che le due studiose indicano, dobbiamo prima presentarvi con parole semplici lo stato della questione. Che lo sappiate o meno, da qualche anno sempre più spesso sono degli algoritmi a prendere decisioni che coinvolgono la nostra vita, in molti dei suoi aspetti. Che cosa sono gli algoritmi? Gli algoritmi sono insiemi di istruzioni che vengono eseguiti da macchine (computer) per risolvere problemi, ad esempio come smistare un certo numero di passeggeri avendo a disposizione un certo numero di bus o per matchare il vostri gusti  di shopping con le inserzioni che trovate online. Fin qui, nulla di particolarmente nuovo sotto il sole: infatti a fare la differenza rispetto al recente passato non è tanto l’esistenza di algoritmi usati nelle procedure decisionali, quanto il fatto che gli algoritmi vengono ricavati attraverso l’Intelligenza Artificiale e non più soltanto da soggetti umani.

“Intelligenza Artificiale”, come è noto, significa che esistono macchine che usando algoritmi trovano da sole altri algoritmi per risolvere un dato problema più complesso.  Per addestrarsi (training) gli algoritmi necessitano che gli siano forniti quantità di dati enormi, dalle quali possono ricavare informazioni utili per costruire istruzioni di scelta. Su questa specifica questione sono già entrate in vigore da tempo leggi che tutelano il diritto alla privacy, ma oggi l’Intelligenza Artificiale pone dei dilemmi ancora più seri: “I dati utilizzati per il training degli algoritmi – ben lungi dall’ essere neutri – rappresentano la realtà e la solidificazione delle disuguaglianze. Un algoritmo, senza un’adeguata riflessione sulla fairness e le appropriate azioni correttive, non può che essere automaticamente biased”. “Biased”, significa “condizionato”, “fuorviato”.

Facciamo un esempio usando un tema di attualità con l’aggiunta di un po’ di immaginazione. Se noi fornissimo  a un’intelligenza artificiale tutti i dati relativi alla produttività sul lavoro, genere e colore degli occhi, questa troverebbe probabilmente che le donne risultano “meno produttive” degli uomini: il motivo è ovvio, le donne dedicano parte della loro vita a mettere al mondo anche i futuri uomini e donne. Fin qui l’intelligenza artificiale scoprirebbe che esiste la maternità e già potrebbe suggerire  ai datori di lavoro di preferire l’assunzione di maschi rispetto a quella delle femmine. Si avrebbe in tal caso la replica di un palese fenomeno di discriminazione, da sempre oggetto di discussione.

Ma l’intelligenza artificiale potrebbe andare ben oltre, e aumentare i nostri condizionamenti (bias) discriminatori. Per capirlo, facciamo un esempio che farà uso del colore degli occhi (noi sceglieremo l’azzurro, è un nostro bias). Essa potrebbe scoprire che il tasso di maternità tra i 30 e 35 anni in una certa Provincia è del 13 % più alto per le donne con gli occhi azzurri. Quello che accadrebbe è fin troppo scontato: alla già esistente discriminazione derivante dalla potenziale maternità, si aggiungerebbe la discriminazione legata al colore degli occhi. Nell’esempio immaginario che abbiamo fatto, le donne con gli occhi azzurri sarebbero fortemente discriminate.

Ci sono poi casi in cui le capacità predittive della IA non sarebbero soltanto discrimintorie, ma anche autoavveranti:“La predizione usata nella lotta al crimine comporta, secondo Benifei e Tudorache, un rischio inaccettabile, ed è quello di contravvenire uno dei principi cardine della nostra società, quello della presunzione di innocenza. In effetti, la tecnologia predittiva è inestricabilmente legata al rischio di trasformare il disagio sociale in una profezia che si auto avvera per il puro fatto che è basata sui trend del passato. Automatizzare questi trend significa cristallizzare la società in dinamiche che magari, politicamente, vorremmo superare”.

Ivana Bartoletti

Rifacciamo un esempio che usa ancora più immaginazione del precedente. Se analizzando e incrociando miliardi di dati un’intelligenza artificiale si rendesse conto che gli uomini alti più di 195 cm con occhi castani e almeno un nonno  nato in Trentino  hanno lo 0,05 % di probabilità in più di rubare, l’insieme di tutti i soggetti rispondenti a queste caratteristiche potrebbe essere discriminato in via preventiva: nessuno –a parità di possibilità – darebbe lavoro a un dipendente che ha lo 0,05% teorico  in più di fargli un danno.
Accadrebbe verosimilmente che l’emarginazione di questa sofrtunata categoria porterebbe i suoi membri a dovere davvero rubare per sopravvivere. E quella predizione dell’intelligenza artificiale sarebbe auto-avverante o addirittura peggiorerebbe le stime di partenza.

Esiti del genere –che potrebbero sembrare frutto di immaginazione – diventeranno verosimili se consideriamo che la selezione del personale o la gestione preliminare delle candidature per un posto di lavoro potrebbe essere interamente affidata ad algoritmi sviluppati da intelligenza artificiale.

Ivana Bartoletti e Lucia Lucchini nel loro studio hanno investigato le strategie aziendali di ottimizzazione di due process (cioè dei requisiti a garanzia) che possono limitare situazione ad alto rischio come quelli sopra prospettati. La strategia per limitare il rischio delle IA prevede un processo distinto in 5 punti:

  • Definire l’obiettivo della tecnologia
  • Proteggere la collezione dei dati necessari per la tecnologia
  • Sviluppare il modello
  • Testare il modello
  • Monitorare il modello

Ma è proprio sull’attuale impianto della proposta di legge europea che le due esperte di Etica Digitale indicano una mancanza: nell’attuale impianto legislativo non è previsto un alcun redress, ovverosia alcun risarcimento che un cittadino può avere qualora i suoi diritti vengano violati da un sistema di IA. Quello che propongono Bartoletti e Lucchini potrebbe effettivamente cambiare le regole del gioco e ridurre l’altro rischio di certi applicativi IA: si tratterebbe di aumentare la consapevolezza dei cittadini, i quali dovrebbero essere sempre informati qualora si stiano interfacciando con un algoritmo. E appunto, questa sarebbe la condizione necessaria, affinchè sia pensabile un sistema di risarcimento qualora si verificassero fenomeno di violazione dei diritti.

Non resta che sperare che le loro analisi vengano recepite nell’impianto legislativo in arrivo. Senza risolvere quella carenza, effettivamente la portata della legge potrebbe essere poco decisiva e permarrebbero scenari di altro rischio dell’intelligenza artificale.

Benifei, B., Dragos Tudorache, I. (22 Aprile 2022), “DRAFT REPORT on the proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts (COM2021/0206 – C9-0146/2021 – 2021/0106(COD))”, European Parliament, https://www.europarl.europa.eu/doceo/document/CJ40-PR-731563_EN.pdf ↑

Bartoletti I., Lucchini, L. (2022) “Beyond Tools and Procedures: The Role of AI Fairness in Responsible Business Discourse” Applied Ethics in a Digital World, edited by Ingrid Vasiliu-Feltes and Jane Thomason, IGI Global, pp. 16-23. https://do.org/10.4018/978-1-7998-8467-5.ch002 ↑

Brevini, B. (6 Luglio 2020), “Black boces, not green: Mythologizing artificial intelligence and omitting the environment” Sage Journals, https://journals.sagepub.com/doi/full/10.1177/2053951720935141 ↑

(Associated Medias) – Tutti i diritti sono riservati