Come adottare un approccio consapevole all'intelligenza artificiale riduce i set di dati distorti

Set di dati distorti e intelligenza artificiale etica

Le soluzioni basate sull'intelligenza artificiale necessitano di set di dati per essere efficaci. E la creazione di questi set di dati è irta di un problema di pregiudizi impliciti a livello sistematico. Tutte le persone soffrono di pregiudizi (sia consci che inconsci). I pregiudizi possono assumere qualsiasi forma: geografica, linguistica, socioeconomica, sessista e razzista. E quei pregiudizi sistematici sono incorporati nei dati, il che può portare a prodotti di intelligenza artificiale che perpetuano e amplificano i pregiudizi. Le organizzazioni hanno bisogno di un approccio consapevole per mitigare i pregiudizi che si insinuano nei set di dati.

Esempi che illustrano il problema del bias

Un esempio notevole di questa distorsione del set di dati che ha raccolto molta stampa negativa all'epoca è stata una soluzione di lettura del curriculum che ha favorito i candidati maschi rispetto alle femmine. Questo perché i set di dati dello strumento di reclutamento sono stati sviluppati utilizzando curriculum dell'ultimo decennio, quando la maggioranza dei candidati era di sesso maschile. I dati erano distorti e i risultati riflettevano tale distorsione. 

Un altro esempio ampiamente riportato: alla conferenza annuale degli sviluppatori di Google I/O, Google ha condiviso un'anteprima di uno strumento di assistenza dermatologica basato sull'intelligenza artificiale che aiuta le persone a capire cosa sta succedendo con problemi relativi a pelle, capelli e unghie. L'assistente di dermatologia sottolinea come l'intelligenza artificiale si stia evolvendo per aiutare con l'assistenza sanitaria, ma ha anche evidenziato la possibilità che i pregiudizi si insinuino nell'intelligenza artificiale sulla scia delle critiche secondo cui lo strumento non è adeguato per le persone di colore.

Quando Google ha annunciato lo strumento, la società ha osservato:

Per assicurarci che stiamo costruendo per tutti, il nostro modello tiene conto di fattori come età, sesso, razza e tipi di pelle, dalla pelle pallida che non si abbronza alla pelle marrone che si brucia raramente.

Google, Utilizzo dell'intelligenza artificiale per trovare risposte alle comuni condizioni della pelle

Ma un articolo su Vice afferma che Google non è riuscita a utilizzare un set di dati inclusivo:

Per svolgere il compito, i ricercatori hanno utilizzato un set di dati di addestramento di 64,837 immagini di 12,399 pazienti situati in due stati. Ma delle migliaia di condizioni della pelle nella foto, solo il 3.5% proveniva da pazienti con tipi di pelle Fitzpatrick V e VI, quelli che rappresentano rispettivamente la pelle marrone e la pelle marrone scuro o nera. Secondo lo studio, il 90% del database era composto da persone con pelle chiara, pelle bianca più scura o pelle marrone chiaro. Come risultato del campionamento parziale, i dermatologi affermano che l'app potrebbe finire per sottostimare o sovrastimare le persone che non sono bianche.

Vice, la nuova app di dermatologia di Google non è stata progettata per le persone con la pelle più scura

Google ha risposto dicendo che avrebbe perfezionato lo strumento prima di rilasciarlo formalmente:

Il nostro strumento di assistenza dermatologica basato sull'intelligenza artificiale è il culmine di oltre tre anni di ricerca. Da quando il nostro lavoro è stato presentato in Nature Medicine, abbiamo continuato a sviluppare e perfezionare la nostra tecnologia con l'incorporazione di set di dati aggiuntivi che includono dati donati da migliaia di persone e milioni di immagini di problemi della pelle più curate.

Google, Utilizzo dell'intelligenza artificiale per trovare risposte alle comuni condizioni della pelle

Per quanto possiamo sperare che l'intelligenza artificiale e i programmi di apprendimento automatico possano correggere questi pregiudizi, la realtà rimane: sono solo come smart poiché i loro set di dati sono puliti. In un aggiornamento al vecchio adagio di programmazione spazzatura dentro/fuori spazzatura, le soluzioni di intelligenza artificiale sono solide quanto la qualità dei loro set di dati fin dall'inizio. Senza una correzione da parte dei programmatori, questi set di dati non hanno l'esperienza in background per ripararsi da soli, poiché semplicemente non hanno altro quadro di riferimento.

Costruire in modo responsabile set di dati è al centro di tutto intelligenza artificiale etica. E le persone sono al centro della soluzione. 

L'AI consapevole è un'intelligenza artificiale etica

Il pregiudizio non avviene nel vuoto. I set di dati non etici o distorti derivano dall'adozione di un approccio sbagliato durante la fase di sviluppo. Il modo per combattere gli errori di bias è adottare un approccio responsabile, incentrato sull'uomo, che molti nel settore chiamano Mindful AI. L'intelligenza artificiale consapevole ha tre componenti fondamentali:

1. L'intelligenza artificiale consapevole è centrata sull'uomo

Fin dall'inizio del progetto AI, nelle fasi di progettazione, i bisogni delle persone devono essere al centro di ogni decisione. E questo significa tutte le persone, non solo un sottoinsieme. Ecco perché gli sviluppatori devono fare affidamento su un team diversificato di persone a livello globale per addestrare le applicazioni di intelligenza artificiale a essere inclusive e prive di pregiudizi.

Il crowdsourcing dei set di dati da un team globale e diversificato garantisce che i pregiudizi vengano identificati e filtrati in anticipo. Quelli di diverse etnie, gruppi di età, genere, livello di istruzione, background socio-economico e luoghi possono individuare più facilmente set di dati che favoriscono un insieme di valori rispetto a un altro, eliminando così i pregiudizi non intenzionali.

Dai un'occhiata alle applicazioni vocali. Quando si applica un approccio AI consapevole e si sfrutta la potenza di un pool di talenti globale, gli sviluppatori possono tenere conto di elementi linguistici come dialetti e accenti diversi nei set di dati.

Stabilire fin dall'inizio una struttura di progettazione incentrata sull'uomo è fondamentale. Fa molto per garantire che i dati generati, curati ed etichettati soddisfino le aspettative degli utenti finali. Ma è anche importante mantenere gli esseri umani aggiornati durante l'intero ciclo di vita dello sviluppo del prodotto. 

Gli esseri umani nel circuito possono anche aiutare le macchine a creare una migliore esperienza di intelligenza artificiale per ogni pubblico specifico. In Pactera EDGE, i nostri team di progetto sui dati AI, dislocati a livello globale, comprendono come culture e contesti diversi possono influire sulla raccolta e la cura di dati affidabili sulla formazione AI. Hanno gli strumenti necessari di cui hanno bisogno per segnalare i problemi, monitorarli e risolverli prima che una soluzione basata sull'intelligenza artificiale venga attivata.

Human-in-the-loop AI è un progetto "rete di sicurezza" che combina i punti di forza delle persone - e i loro diversi background con la potenza di calcolo veloce delle macchine. Questa collaborazione tra uomo e intelligenza artificiale deve essere stabilita dall'inizio dei programmi in modo che i dati distorti non formino una base nel progetto. 

2. L'intelligenza artificiale consapevole è responsabile

Essere responsabili significa garantire che i sistemi di intelligenza artificiale siano privi di pregiudizi e che siano fondati sull'etica. Si tratta di essere consapevoli di come, perché e dove vengono creati i dati, come vengono sintetizzati dai sistemi di intelligenza artificiale e come vengono utilizzati nel prendere una decisione, decisioni che possono avere implicazioni etiche. Un modo per farlo è lavorare con le comunità sottorappresentate per essere più inclusive e meno prevenute. Nel campo delle annotazioni dei dati, una nuova ricerca sta mettendo in evidenza come un modello multi-task multi-annotatore che tratta le etichette di ciascun annotatore come sottoattività separata può aiutare a mitigare potenziali problemi inerenti ai tipici metodi ground truth in cui i disaccordi degli annotatori possono essere dovuti a sotto-rappresentazioni e può essere ignorato nell'aggregazione di annotazioni a una singola verità fondamentale. 

3. Affidabile

L'affidabilità deriva dal fatto che un'azienda è trasparente e spiegabile nel modo in cui viene addestrato il modello di intelligenza artificiale, come funziona e perché consigliano i risultati. Un'azienda ha bisogno di esperienza con la localizzazione AI per consentire ai propri clienti di rendere le proprie applicazioni AI più inclusive e personalizzate, rispettando le sfumature critiche nella lingua locale e le esperienze utente che possono creare o distruggere la credibilità di una soluzione AI da un paese all'altro . Ad esempio, un'azienda dovrebbe progettare le proprie applicazioni per contesti personalizzati e localizzati, inclusi lingue, dialetti e accenti nelle applicazioni basate sulla voce. In questo modo, un'app porta lo stesso livello di sofisticatezza dell'esperienza vocale in ogni lingua, dall'inglese alle lingue sottorappresentate.

Equità e diversità

In definitiva, l'intelligenza artificiale consapevole garantisce che le soluzioni siano basate su set di dati equi e diversificati in cui le conseguenze e l'impatto di particolari risultati vengono monitorati e valutati prima che la soluzione venga immessa sul mercato. Essendo consapevoli e includendo gli esseri umani in ogni parte dello sviluppo della soluzione, contribuiamo a garantire che i modelli di intelligenza artificiale rimangano puliti, minimamente distorti e il più etici possibile.

Cosa ne pensi?

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati dei tuoi commenti.