L’intelligenza artificiale ha il potenziale di rivoluzionare il mondo in cui viviamo, offrendoci strumenti capaci di cambiare la nostra quotidianità. Tuttavia, nonostante queste promesse, ci sono ombre che si allungano sulle sue applicazioni. L’AI può infatti assorbire e riprodurre i pregiudizi presenti nei dati con cui viene addestrata. Questo articolo esplora l’enigma dei bias nell’intelligenza artificiale, presentando casi emblematici e le direzioni della ricerca per mitigare questi effetti.
La questione dei pregiudizi nell’AI non è solo una questione teorica, ma assume forme concrete con conseguenze tangibili. Un caso emblematico risale al 2017, quando Joy Buolamwini, studentessa del MIT, intraprese una ricerca sui software di riconoscimento facciale. Gli esiti delle analisi furono sconcertanti: i sistemi sviluppati da alcuni colossi della tecnologia, come IBM e Microsoft, rivelarono un tasso di precisione notevole nel riconoscimento dei volti di persone con pelle chiara, ma mostrarono competenze significativamente inferiori su volti di persone con carnagione scura. Questo particolare fenomeno si deve al dataset su cui questi software erano stati addestrati, noto poi come “the pale male dataset”, che evidenziava una preponderanza di immagini di uomini caucasici, tralasciando esponenzialmente qualsiasi altro gruppo etnico.
Questo squilibrio ha un impatto reale, per esempio nel campo della sicurezza bancaria e nella tecnologia per i telefoni cellulari, dove un tale discriminazione può condurre a problemi di accesso e di riconoscimento. In risposta a questa ingiustizia, la dottoressa Buolamwini avviò il progetto Gender Shades, con un obiettivo chiaro: sensibilizzare l’opinione pubblica sui problemi insiti nei dataset usati per addestrare le AI. Tale iniziativa ha messo in luce come i bias contenuti nei dati non siano solamente errori tecnici, ma riflettano diseguaglianze sociali e pregiudizi strutturali che, con l’adozione delle tecnologie, si trovano amplificati.
I pregiudizi nella tecnologia dell’AI non sono tutti uguali e possono manifestarsi in diverse forme. Persino le modalità di apprendimento di un modello possono influenzare come questi pregiudizi vengono espressi. Essenzialmente, i bias si possono suddividere in tre categorie principali.
Bias di interazione: alcuni sistemi AI apprendono tramite un processo conosciuto come “apprendimento per rinforzo”, il quale implica che il modello continua a modificarsi in base all’interazione con gli utenti. Se queste interazioni sono infettate da pregiudizi, il modello li apprenderà e, dunque, li riprodurrà. Un esempio estremo è il caso di un chatbot di Microsoft, che, in meno di 24 ore d’interazione su Twitter, ha iniziato a esporsi a comportamenti razzisti e complottisti, persino negando eventi storici significativi.
Bias latenti: questi, al contrario, sono legati ai dati stessi usati per l’addestramento. I database che alimentano l’AI riflettono la società da cui provengono. Perciò, se esistono delle disuguaglianze sociali, esse si rifletteranno in modo diretto nei dati e, di conseguenza, nei modelli formati su di essi. Prendiamo ad esempio Midjourney, un software di generazione immagini, che evidenziò nel 2023 una prevalenza di rappresentazioni maschili bianche in ruoli tradizionalmente considerati elevati, come quelli dei manager, mentre minori rappresentazioni si riscontravano per donne e minoranze etniche.
Bias di selezione: qui la questione è leggermente differente e si ricollega alle decisioni di chi crea i dataset. Se, per esempio, un europeo decidesse di sviluppare un modello per classificare vestiti, potrebbe scegliere di rappresentare abiti bianchi e lunghi, emblema delle tradizioni nuziali nel Vecchio Continente, trascurando ricche tradizioni sartoriali provenienti da altre culture. Così, il modello non riuscirebbe a riconoscere abiti da sposa come quelli tradizionali indiani.
Nonostante la complessità del tema, stiamo assistendo a miglioramenti significativi nella ricerca e nello sviluppo dei modelli di AI. Due direzioni principali sono attualmente perseguite per ridurre l’impatto dei bias: l’equilibrio dei dataset e la trasparenza dei modelli. Da una parte, è cruciale garantire che i dataset includano una rappresentanza diversificata di gruppi sociali, in modo da evitare una rimodellazione delle disuguaglianze già esistenti. Dall’altra, lavorare sulla spiegabilità dei modelli è altrettanto fondamentale; capire come e perché un modello prenda delle determinate decisioni aiuta a individuare e risolvere eventuali bias.
Assicurando un approccio trasparente, chi sviluppa questi sistemi può delineare in modo chiaro i problemi e cercare soluzioni più etiche. Queste azioni possono portare alla creazione di sistemi di intelligenza artificiale non solo più equi, ma anche più affidabili e accettabili per tutti. L’equità nell’AI non è solo una questione tecnica, ma anche morale.
Il Unicode Consortium annuncia nuove emoji per il 2025, tra cui un Yeti e una…
L'intelligenza artificiale sta trasformando radicalmente l'industria farmaceutica, migliorando la progettazione di farmaci, ottimizzando l'efficienza operativa…
Google introduce le panoramiche AI, una nuova funzionalità che consente agli utenti di approfondire argomenti…
YouTube aggiorna l'interfaccia grafica per utenti Android, con un restyling della barra inferiore che rende…
Google Discover si rinnova con un design ispirato a Material You, migliorando l'interazione degli utenti…
Dal 30 novembre 2024, otto titoli iconici lasceranno Xbox Game Pass, ma gli abbonati possono…