INTELLIGENZA ARTIFICIALE E GIUSTIZIA SOCIALE
L’intelligenza artificiale parrebbe un discorso lontano dai temi di cui si occupa Risorsa. Al contrario, riflettere sull’incidenza che questo nuovo fenomeno può avere non solo sui poveri, ma anche su coloro che vengono sfruttati nel mondo del lavoro, è lo scopo di questo articolo
Fonte:La civiltà cattolica 18 gennaio 2020 – articolo Una sfida per la Chiesa – Di Antonio Spadaro e Paul Towmey . Selected by Luca Poma 15 Gennaio 2021
Abstract a cura di Ferdinando Ciccopiedi – Vice Presidente Risorsa. L’articolo completo è a questo link
I poveri in un mondo dominato dai «big data» Nell’era dell’intelligenza artificiale (IA) l’esperienza umana sta cambiando profondamente, ben più di quanto la stragrande maggioranza della popolazione mondiale riesca a vedere e a comprendere. La vera e propria esplosione dell’IA ha un forte impatto sui nostri diritti nel presente e sulle nostre opportunità future, determinando processi decisionali che, in una società moderna, riguardano tutti. Si rivela un enorme cambiamento tecnologico, che prospetta grandi benefìci e rischi insidiosi. La proporzione in cui rischi e benefici si presenteranno dipenderà dai pionieri e dai creatori di questa tecnologia, e in particolare da quanto sarà chiara la loro visione del bene comune e corretta la loro comprensione della natura dell’esperienza umana. Bisogna capire che l’intelligenza artificiale rappresenta una sfida e un’opportunità anche per la Chiesa: è una questione di giustizia sociale. Infatti, la ricerca pressante, avida e non trasparente dei big data, cioè dei dati necessari ad alimentare i motori di apprendimento automatico può portare alla manipolazione e allo sfruttamento dei poveri: «I poveri del XXI secolo sono, al pari di chi non ha denaro, coloro che, in un mondo basato sui dati e sulle informazioni, sono ignoranti, ingenui e sfruttati». Inoltre, gli stessi scopi per i quali vengono addestrati i sistemi di IA possono portarli a interagire in forme imprevedibili per garantire che i poveri vengano controllati, sorvegliati e manipolati. Attualmente i creatori di sistemi di IA sono sempre più gli arbitri della verità per i consumatori. Ma al tempo stesso le sfide filosofiche essenziali – la comprensione della verità, la conoscenza e l’etica – si fanno incandescenti man mano che le possibilità dell’IA crescono verso e oltre il superamento dei limiti cognitivi umani. Nel contesto dei progressi del XXI secolo, l’esperienza e la formazione della Chiesa dovrebbero essere un dono essenziale offerto ai popoli per aiutarli a formulare un criterio che renda capaci di controllare l’IA, piuttosto che esserne controllati.
L’intelligenza artificiale per la giustizia sociale L’IA può senz’altro apportare benefìci alla società, ma d’altra parte pone anche questioni importanti di giustizia sociale. In questo campo la Chiesa ha l’opportunità e l’obbligo di impegnare il suo insegnamento, la sua voce e la sua autorevolezza riguardo ad alcune questioni che si profilano fondamentali per il futuro. Tra queste va senz’altro compreso l’enorme impatto sociale della ricaduta che l’evoluzione tecnologica avrà sull’occupazione di miliardi di persone nel corso dei prossimi decenni, creando problematiche conflittuali ed emarginazione dei più vulnerabili.
Impatto sull’occupazione. Molto è già stato fatto per misurare l’impatto dell’IA e della robotica sull’occupazione, soprattutto dopo l’importante articolo del 2013 in cui Osborne e Frey stimavano che il 47% dei posti di lavoro negli Stati Uniti rischiavano di venire automatizzati entro i successivi vent’anni[7]. Gli studi e il dibattito scientifico hanno precisato la natura e i contorni del fenomeno: la cessazione totale o parziale di attività di lavoro esistenti, la sua ricaduta in tutti i settori sia nelle economie sviluppate che in quelle in via di sviluppo.
Certo, fare previsioni esatte in proposito è difficile; ma un recente Rapporto del McKinsey Global Institute riporta un’analisi a medio termine. Il 60% delle occupazioni possiede almeno un 30% di attività lavorative passibili di automatizzazione. D’altra parte, quest’ultima aprirà le porte a nuove occupazioni che oggi non esistono, proprio com’è accaduto, in conseguenza delle nuove tecnologie, anche in passato. Le previsioni indicano che entro il 2030 un numero compreso fra i 75 e i 375 milioni di lavoratori (cioè fra il 3 e il 14% della forza lavoro globale) dovrà cambiare le proprie categorie occupazionali. Inoltre, tutti i lavoratori avranno necessità di adattarsi, dato che le loro occupazioni si evolveranno insieme alle macchine sempre più abili. Ma se l’adozione delle nuove tecnologie seguirà il ritmo che si è avuto fin qui, superando le previsioni fatte in precedenza, è pure chiaro che il livello di dislocazione sociale rischia di essere maggiore.
Codici e pregiudizi. Il codice di programmazione viene scritto da esseri umani. La sua complessità può quindi accentuare i difetti che inevitabilmente accompagnano qualsiasi compito svolgiamo. I preconcetti e le parzialità nella scrittura degli algoritmi sono inevitabili. E possono avere effetti molto negativi sui diritti individuali, sulle scelte, sulla collocazione di lavoratori e consumatori. In effetti, i ricercatori hanno rilevato pregiudizi di vario tipo presenti negli algoritmi, in software adottati per le ammissioni universitarie, le risorse umane, i rating del credito, le banche, i sistemi di sostegno dell’infanzia, i dispositivi di sicurezza sociale e altro ancora. Gli algoritmi non sono neutri: incorporano al loro interno valori e obbediscono a metodi operativi che, anche non intenzionalmente, possono apportare preclusioni, discriminazioni o danni economici.
La crescente dipendenza della socio-economia dall’IA conferisce un enorme potere a coloro che ne programmano gli algoritmi: un potere di cui costoro potrebbero anche non essere consapevoli, così come del danno potenziale che può derivare da un algoritmo compilato con un codice scorretto. E poiché il complesso mercato dell’IA interattiva continua a evolversi, è altrettanto probabile che algoritmi oggi esistenti, che fino a ieri erano innocui, domani possano avere conseguenze rilevanti.
L’IA può essere distorta attraverso specifici interessi commerciali e politici che influenzano l’inquadramento del problema; preconcetti di selezione o distorsione/corruzione nella raccolta dati; parzialità negli attributi di selezione per la preparazione dei dati; pregiudizi nella codifica. Da questo possono derivare dati significativamente condizionati, e tuttavia etichettati come parte di un processo decisionale «indipendente» automatizzato.
Rischio di un’ulteriore emarginazione dei vulnerabili. Un’analisi dell’impatto dei big data e dell’IA a livello sociale dimostra che la loro tendenza a prendere decisioni sulla base di una profilazione insufficiente e di riscontri limitati comporta l’ulteriore emarginazione dei poveri, degli indigenti e delle persone vulnerabili. La politologa Virginia Eubanks spiega bene come i sistemi interconnessi rafforzino la discriminazione e concedano opportunità inferiori agli emarginati: «I poveri e la classe operaia sono presi di mira da nuovi strumenti di gestione della povertà digitale, con il risultato di doverne ricevere conseguenze pericolose per la loro esistenza. I sistemi automatici di ammissibilità li scoraggiano dal rivendicare le risorse pubbliche di cui hanno bisogno per sopravvivere e star bene. Complessi database integrati raccolgono le informazioni più personali su di loro, con poco riguardo per la privacy o per la sicurezza dei dati, pur non offrendo quasi nulla in cambio. Complessi sistemi di assistenza sociale, di applicazione della legge e di sorveglianza dei quartieri rendono visibile ogni loro gesto e sottopongono il loro comportamento al controllo governativo, commerciale e pubblico»