Negli ultimi anni il pregiudizio algoritmico è diventato un problema sempre più importante, perché la tecnologia è arrivata al punto da poter prendere decisioni che hanno un impatto significativo sulla vita delle persone. Ci sono numerosi esempi di come le decisioni algoritmiche possano perpetuare i pregiudizi esistenti e portare a risultati ingiustificati, dagli algoritmi di valutazione del credito utilizzati per determinare chi riceve prestiti e mutui, ai sistemi di riconoscimento facciale utilizzati per la sorveglianza e l'esecuzione.
Tuttavia, questo fenomeno è solo un problema tecnico o è anche una forma di immoralità strutturale? Questo saggio esaminerà se il pregiudizio algoritmico può essere considerato un problema morale e sostiene che si tratta di una vera forma di immoralità strutturale che richiede azioni urgenti da affrontare.
Innanzitutto, è importante capire cos'è l'immoralità strutturale. L'immoralità strutturale riguarda situazioni in cui individui e istituzioni sono sistematicamente svantaggiati a causa della loro posizione sociale, spesso basata su caratteristiche come la razza, il sesso, la classe e l'orientamento sessuale. In altre parole, ciò implica una distribuzione ineguagliata delle risorse, del potere e delle capacità all'interno della società. Il pregiudizio algoritmico è strettamente legato all'immoralità strutturale, perché deriva dai pregiudizi sociali che sono stati codificati nei sistemi tecnologici. Quando gli algoritmi imparano dati che riflettono questi pregiudizi, possono riprodurli nei loro processi decisionali, con risultati ingiustificati per determinati gruppi.
Ad esempio, se l'algoritmo di valutazione del credito dipende in gran parte dagli indici postali correlati a reddito e istruzione, può discriminare le persone a basso reddito o le persone che vivono in aree con scuole povere. Allo stesso modo, i sistemi di riconoscimento facciale possono identificare erroneamente le persone di colore più spesso che i bianchi, il che porta a una sopravvalutazione e un'identificazione imprecisata.
Il pregiudizio algoritmico ha anche conseguenze che vanno oltre il livello individuale. Ciò rafforza le strutture oppressive esistenti e ne crea di nuove, perpetuando la disuguaglianza tra generazioni.
Ad esempio, i figli di genitori a cui è stato negato un prestito a causa di pratiche di prestiti pregiudizievoli possono avere difficoltà nell'accedere all'istruzione superiore e nell'occupazione in età successiva, creando un ciclo di povertà tra generazioni. Inoltre, il pregiudizio algoritmico può aggravare le differenze esistenti, rafforzandole in scala, rendendole difficili da contestare con mezzi tradizionali come l'azione legale o la riforma della politica. Ciò mette in evidenza l'urgenza di affrontare il problema, in quanto non riguarda solo gli individui, ma compromette anche gli sforzi di giustizia sociale volti a creare un mondo più equo.
Pertanto è chiaro che il pregiudizio algoritmico è un problema morale che richiede attenzione.
Ma non è solo una questione di correzione degli errori tecnici; piuttosto richiede un approccio olistico che affronti le cause profonde dell'immoralità strutturale. Un modo per farlo è quello di garantire che gli algoritmi siano sviluppati e utilizzati in modo trasparente, con meccanismi di responsabilità pubblica e supervisione. Ciò includerà l'inclusione delle comunità interessate nel processo di sviluppo, l'accesso ai dati e ai processi decisionali e la garanzia di meccanismi di feedback e compensazione per l'individuazione dei pregiudizi. Un altro passo importante è la diversificazione dei team che sviluppano queste tecnologie, assicurandosi che riflettano le diverse prospettive necessarie per identificare e eliminare i potenziali pregiudizi.
Infine, ci devono essere investimenti nella ricerca sull'equità algoritmica per capire meglio come sviluppare sistemi più equi.
Infine, il pregiudizio algoritmico non è solo un problema tecnico, ma una forma di immoralità strutturale che perpetua le disuguaglianze esistenti e ne crea di nuovi. Affrontare questo problema richiede un approccio integrato che includa lo sviluppo trasparente, la vigilanza pubblica, la partecipazione della comunità e gli investimenti nella ricerca sulla giustizia. L'inattività potrebbe rafforzare ulteriormente le strutture di potere esistenti e minare gli sforzi per creare una società più equa.