Skip to main content

Il bias algoritmico: anche l’intelligenza artificiale inciampa nei pregiudizi

Etica del machine learning

Tutti noi, almeno una volta nella vita, siamo cascati nella trappola del pregiudizio: un’opinione formata in anticipo, basata spesso su caratteristiche come l’etnia, il genere, la religione, l’orientamento sessuale o l’età. Le intelligenze artificiali, strumenti potenti e sempre più diffusi, non sono esenti da questi pregiudizi, detti anche bias, che affliggono la società umana. Anzi, spesso, li amplificano e li perpetuano.

L’intelligenza artificiale e i pregiudizi

Un caso emblematico è quello delle aziende di selezione del personale, dove l’intelligenza artificiale (AI) viene utilizzata per individuare potenziali candidati. Se, ad esempio, un’azienda sta cercando un manager, questi algoritmi tendono a discriminare sistematicamente alcune categorie di persone. Donne, migranti e giovani, ad esempio, vengono associati erroneamente a posizioni lavorative di grado inferiore. Questo accade perché gli algoritmi sono stati addestrati su dati storici che riflettono le disuguaglianze sociali esistenti dove, in questo caso, il ruolo di manager era sempre stato occupato da uomini adulti di etnia caucasica.

Le macchine imparano da noi

Il cuore del problema risiede nel modo in cui vengono addestrate le AI. Gli algoritmi, infatti, attraverso il machine learning, apprendono dai dati che gli vengono forniti, che sono spesso frutto dell’attività umana. E quindi portatori dei nostri pregiudizi. Che si tratti di etnia, genere, orientamento sessuale o provenienza geografica, i nostri preconcetti si insinuano nei modelli e influenzano le decisioni prese dalle macchine.

Non un semplice errore di programmazione

Chi crea gli algoritmi è l’intelligenza umana. Ed è proprio l’intelligenza umana la prima a non essere immune dai pregiudizi sociali. Spesso, senza rendersene conto, gli sviluppatori e le sviluppatrici di un algoritmo introducono nelle loro creazioni le proprie convinzioni personali, anche se inconsce.

Il bias algoritmico, quindi, non è solo un errore di programmazione, ma qualcosa di ben più complesso. Come i bias dell’intelligenza umana, se non vengono identificati e mitigati, si infiltrano nei processi di machine learning, perpetuando disuguaglianze e discriminazioni, rafforzando di fatto tutti i nostri pregiudizi.

 


  • BULLISMO E BRANCO

    Come interrompere il circuito della violenza

    Compila il form
    e guarda subito il webinar

    "*" indica i campi obbligatori

    Dati Anagrafici*

 

Il primo passo per un’AI più equa

Per mitigare questi rischi è necessario un approccio multidisciplinare che coinvolga tecnici, esperti di etica e rappresentanti della società civile, ma anche e soprattutto un approccio empatico da parte degli sviluppatori e delle sviluppatrici.

Eliminare i bias algoritmici risulta il primo passo per avere un’intelligenza artificiale più equa ed etica. Ma come si eliminano i pregiudizi, se sono una caratteristica della mente umana? Non si eliminano del tutto, ma possono essere attenuati, partendo dal basso, per esempio attraverso percorsi scolastici che permettano il miglioramento dell’intelligenza emotiva di ogni singolo individuo.

Fondazione Patrizio Paoletti, insieme a New Life For Children, ha implementato il progetto Teachers Outreach, una piattaforma globale dedicata all’aggiornamento di educatori e docenti di tutto il mondo, basata sulla Pedagogia per il Terzo Millennio. Lo scopo è formare insegnanti in grado di trasmettere in classe le competenze relazionali ed emotive, che contribuiscono a ridurre i pregiudizi verso il prossimo. Questo progetto sostiene la crescita di generazioni emotivamente intelligenti e un pensiero globale che incoraggia gli studenti a considerare le proprie esperienze e conoscenze in una prospettiva più ampia, sviluppando empatia e comprensione nei confronti di culture e realtà diverse. Un pensiero globale più consapevole e un’intelligenza artificiale più equa ed etica partecipano alla salute globale del singolo e della società, che passa per il superamento di bias e pregiudizi.

 


  • Dona a ogni bambino un'educazione di qualità

    Scegli quanto donare

 

Sitografia
  • Quando bias umani e algoritmici si sostengono a vicenda, nel modo sbagliato: https://mondoeconomico.eu/sostenibilita-e-futuro/intelligenza-artificiale-bot-ecommerce-padroni-del-gioco (Consultato a settembre 2024)
  • Ibicocca, come le macchine apprendono i pregiudizi dagli esseri umani: https://ibicocca.unimib.it/bias-negli-algoritmi-come-le-macchine-apprendono-i-pregiudizi-dagli-esseri-umani/ (Consultato a settembre 2024)
Immagini

Sii parte del cambiamento. Condividere responsabilmente contenuti è un gesto che significa sostenibilità

Iscriviti alla newsletter

NEWSLETTER GEN

Modulo per l'iscrizione alla newsletter FPP

Nome(Obbligatorio)
Email(Obbligatorio)
Privacy Policy(Obbligatorio)
Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.