Il bias algoritmico: anche l’intelligenza artificiale inciampa nei pregiudizi
Etica del machine learning
Tutti noi, almeno una volta nella vita, siamo cascati nella trappola del pregiudizio: un’opinione formata in anticipo, basata spesso su caratteristiche come l’etnia, il genere, la religione, l’orientamento sessuale o l’età. Le intelligenze artificiali, strumenti potenti e sempre più diffusi, non sono esenti da questi pregiudizi, detti anche bias, che affliggono la società umana. Anzi, spesso, li amplificano e li perpetuano.
L’intelligenza artificiale e i pregiudizi
Un caso emblematico è quello delle aziende di selezione del personale, dove l’intelligenza artificiale (AI) viene utilizzata per individuare potenziali candidati. Se, ad esempio, un’azienda sta cercando un manager, questi algoritmi tendono a discriminare sistematicamente alcune categorie di persone. Donne, migranti e giovani, ad esempio, vengono associati erroneamente a posizioni lavorative di grado inferiore. Questo accade perché gli algoritmi sono stati addestrati su dati storici che riflettono le disuguaglianze sociali esistenti dove, in questo caso, il ruolo di manager era sempre stato occupato da uomini adulti di etnia caucasica.Le macchine imparano da noi
Il cuoreIl cuore è un organo fondamentale per la vita, responsabile... del problema risiede nel modo in cui vengono addestrate le AI. Gli algoritmi, infatti, attraverso il machine learning, apprendono dai dati che gli vengono forniti, che sono spesso frutto dell’attività umana. E quindi portatori dei nostri pregiudizi. Che si tratti di etnia, genere, orientamento sessuale o provenienza geografica, i nostri preconcetti si insinuano nei modelli e influenzano le decisioni prese dalle macchine.Non un semplice errore di programmazione
Chi crea gli algoritmi è l’intelligenza umana. Ed è proprio l’intelligenza umana la prima a non essere immune dai pregiudizi sociali. Spesso, senza rendersene conto, gli sviluppatori e le sviluppatrici di un algoritmo introducono nelle loro creazioni le proprie convinzioni personali, anche se inconsce.Il bias algoritmico, quindi, non è solo un errore di programmazione, ma qualcosa di ben più complesso. Come i bias dell’intelligenza umana, se non vengono identificati e mitigati, si infiltrano nei processi di machine learning, perpetuando disuguaglianze e discriminazioni, rafforzando di fatto tutti i nostri pregiudizi.
Il primo passo per un’AI più equa
Per mitigare questi rischi è necessario un approccio multidisciplinare che coinvolga tecnici, esperti di etica e rappresentanti della società civile, ma anche e soprattutto un approccio empatico da parte degli sviluppatori e delle sviluppatrici.Eliminare i bias algoritmici risulta il primo passo per avere un’intelligenza artificiale più equa ed etica. Ma come si eliminano i pregiudizi, se sono una caratteristica della mente umana? Non si eliminano del tutto, ma possono essere attenuati, partendo dal basso, per esempio attraverso percorsi scolastici che permettano il miglioramento dell’intelligenza emotiva di ogni singolo individuo.
Fondazione Patrizio Paoletti, insieme a New Life For Children, ha implementato il progetto Teachers Outreach, una piattaforma globale dedicata all’aggiornamento di educatori e docenti di tutto il mondo, basata sulla Pedagogia per il Terzo MillennioPedagogia per il Terzo Millennio (PTM) è un metodo interdis.... Lo scopo è formare insegnanti in grado di trasmettere in classe le competenze relazionali ed emotive, che contribuiscono a ridurre i pregiudizi verso il prossimo. Questo progetto sostiene la crescita di generazioni emotivamente intelligenti e un pensiero globale che incoraggia gli studenti a considerare le proprie esperienze e conoscenze in una prospettiva più ampia, sviluppando empatiaQualche parola di introduzione L'empatia è un'abilità fond... e comprensione nei confronti di culture e realtà diverse. Un pensiero globale più consapevole e un’intelligenza artificiale più equa ed etica partecipano alla salute globaleQual è la definizione di salute proposta dall’OMS nel 194... del singolo e della società, che passa per il superamento di bias e pregiudizi.
- Quando bias umani e algoritmici si sostengono a vicenda, nel modo sbagliato: https://mondoeconomico.eu/sostenibilita-e-futuro/intelligenza-artificiale-bot-ecommerce-padroni-del-gioco (Consultato a settembre 2024)
- Ibicocca, come le macchine apprendono i pregiudizi dagli esseri umani: https://ibicocca.unimib.it/bias-negli-algoritmi-come-le-macchine-apprendono-i-pregiudizi-dagli-esseri-umani/ (Consultato a settembre 2024)
- Foto by Julia M Cameron su Pexels
Sii parte del cambiamento. Condividere responsabilmente contenuti è un gesto che significa sostenibilità