4 ' di lettura
Salva pagina in PDF

La trasformazione digitale rappresenta una sfida cruciale per il Terzo Settore, offrendo opportunità per migliorare l’efficacia delle organizzazioni e aumentare il loro impatto sociale. Questo è il tema centrale di Digitale per Bene 2, il Quaderno realizzato da TechSoup e Secondo Welfare che attraverso storie, idee innovative e interviste a professionisti del settore, esplora come la digitalizzazione stia cambiando il panorama del Terzo Settore.

Di seguito proponiamo l’intervista a Donata Columbro pubblicata nel Quaderno, una delle voci esperte che offre la sua prospettiva sull’importanza di farsi le domande giuste quando si utilizzano algoritmi e dati per evitare bias e discriminazioni.

Giornalista specializzata nell’uso dei dati per raccontare storie di impatto sociale, Columbro si definisce una Data Humanizer. Collaborando con media, enti di ricerca e ONG, lavora infatti per tradurre dati complessi in narrazioni accessibili e coinvolgenti anche per un pubblico generalista, promuovendo un uso etico e strategico dei dati per il cambiamento sociale. Grazie a questa sua peculiare capacità di rendere più comprensibile la complessità della realtà offre strumenti di advocacy e decisionmaking a diversi stakeholder.[

Algoritmi, bias, discriminazione: cosa succede e cosa dovremmo attenzionare?

Ci siamo resi conto che da un anno e mezzo, forse due anni a questa parte, quando sono arrivati sul mercato gli strumenti di intelligenza artificiale generativa, abbiamo avuto nelle nostre mani delle tecnologie che ci hanno dato la possibilità di sperimentare che cosa vuol dire che dati e algoritmi, in base a come sono stati disegnati e scritti, elaborano dei risultati che ci sono utili nel lavoro o nel tempo libero. Con strumenti come ChatGPT, che genera prodotti e contenuti in base alle istruzioni testuali che gli diamo, o MidJourney, che genera immagini in base alle nostre istruzioni, siamo tornati a parlare di intelligenza artificiale dopo anni in cui questo termine era relegato ad ambiti molto tecnici.

Degli algoritmi abbiamo avuto esperienze in questi ultimi anni con il nostro fruire dei social network: la raccomandazione del contenuto in qualche modo ci ha fatto capire che le nostre scelte non sono totalmente libere, ma sono influenzate dalle decisioni che vengono prese dalle macchine sulla base di istruzioni che sono state partite da esseri umani.

Donata Columbro, giornalista

È di lì quindi che si possono attivare bias e discriminazioni. Ricordiamo solo che gli algoritmi o l’intelligenza artificiale non riguardano solo la generazione di contenuto, ma gli algoritmi possono anche essere utilizzati per prendere decisioni a livello di amministrazioni pubbliche. Per esempio mettendo in ordine con gli algoritmi di classificazione quali sono le persone che possono accedere a un determinato servizio o sussidio, e lì i casi di discriminazione hanno davvero un impatto sulla vita reale delle persone.

Quello che dobbiamo iniziare a osservare è dove si producono queste discriminazioni, a quale livello: se a partire dai dati, se a partire dalle istruzioni che vengono date alle macchine (quindi gli algoritmi), se anche a partire dall’obiettivo che ci si pone utilizzando queste tecnologie. Perché spesso non è una questione di dati, spesso è una domanda che dobbiamo farci è se è davvero necessario utilizzarle per raggiungere un certo obiettivo.

A proposito di discriminazione e inclusione, quando parliamo di dati e algoritmi che ruolo vedi per il Terzo settore?

Uno dei motivi per cui i dati e gli algoritmi possono discriminare è perché non prendono in considerazione delle fette di popolazione o delle comunità. Ecco, il Terzo Settore ha un grande ruolo nel coprire questi gap e nell’attivare raccolte di dati “dal basso” che eventualmente facciano conoscere le condizioni delle persone più fragili, che non vengono osservate e misurate proprio perché le raccolte dati sono costose e quindi ci sono scelte che vengono fatte a livello politico di non approfondire certe situazioni.

Il Quaderno di TechSoup e Secondo Welfare che racconta come sta andando la trasformazione digitale del Terzo Settore attraverso storie, buone idee e interviste. Vuoi scoprire tutti i contenuti? Scarica il documento: è gratis e bastano pochi secondi. 

Scarica il Quaderno

Serve essere degli esperti? No, non serve essere degli esperti. Secondo me gli esperti principali sono le persone che vivono certe condizioni e chi lavora in determinati ambiti. Indicherei una parola chiave: osservazione. Osservare la realtà e provare a trovare qualcosa che si può in qualche modo quantificare, misurare, proprio per vedere se ci sono dei pattern che si ripetono e quindi segnalare qualcosa che effettivamente può essere preso in considerazione. E questo si può fare solo vivendo un certo contesto.

Poi c’è da sottolineare che il Terzo Settore possiederebbe una grande quantità di dati che però si disperdono nei silos delle organizzazioni: i dati ci sono, anche perché per fare i progetti i dati vengono raccolti.

Quali possono essere buone domande e consigli pratici da tenere in mente quando abbiamo a che fare con algoritmi e dati?

Prima domanda: chi ha prodotto questo algoritmo o questo sistema di intelligenza artificiale? Questo serve per capire dov’è ”l’ago del potere”, cioè chi erano le persone coinvolte o i ruoli professionali coinvolti nella creazione di un certo sistema e, quindi, chi trae beneficio dal suo uso e chi invece può essere discriminato. Non è facile rispondere, non è una domanda di utilizzo, “da utenti”, ma da cittadini consapevoli, per non usare o per non pensare che l’utilizzo di questi sistemi sia neutrale, perché non lo è.

Secondo versante. Quando abbiamo a che fare con i dati, cerchiamo di trovare la storia che viene raccontata, in altri termini: quale storia raccontano i dati che ho? Qual è il modo migliore per farla arrivare al pubblico? Quindi, può essere una visualizzazione, può essere un’opera d’arte, posso farla fruire attraverso la musica. E poi, quale impatto voglio avere con questi dati?

Una buona pratica è poi andare a vedere le parole che parlano di questi dati, quindi le categorie a cui si riferiscono, imparare a leggere i metadati e la metodologia, verificare la fonte, l’anno di riferimento, e poi chiedersi se per caso non ci sono altri dati che possono raccontare meglio la situazione.

 

Scarica il Quaderno

 

Foto di copertina: ThisIsEngineering, Pexels.com