“Coded Bias” documentario di Shalini Kantayya: le potenzialità ed i limiti dell’Intelligenza Artificiale

“A causa del potere di questi strumenti, se non regolamentati, non c’è ricorso per abusi… abbiamo bisogno di leggi” – Joy Buolamwini

Coded Bias di Shalini Kantayya
Coded Bias di Shalini Kantayya

Discussione di grande attualità quella inerente all’Intelligenza Artificiale, proposta dalla regista Shalini Kantayya nel documentario Coded Bias presente nella sezione Mondofuturo del Trieste Science + Fiction Festival 2020 ancora in corso online su MyMovies.

Realizzato nel 2020, il documentario mette in luce alcuni aspetti circa le potenzialità e i limiti connaturati in questa disciplina appartenente al mondo dell’informatica.

Argomentazione calda, quindi, se non rovente, quella affrontata dalla regista e ampliata con uno sviluppo ben articolato ed esaustivo.

Ma cosa si intende per Intelligenza Artificiale?

Quale è la definizione che più corrisponde a questa branca dell’informatica di notevole importanza, la quale ha rivoluzionato il modo in cui l’uomo interagisce con il computer, e i computer fra loro.

Fonte di dibattimento tra scienziati e filosofi per marcare confini teorici e pratici, ma innanzitutto etici, l’Intelligenza Artificiale è disciplina che studia tecniche e metodologie atte a progettare hardware per i calcolatori, nonché programmi di software che forniscano alla macchina prestazioni sempre più vicine all’intelligenza umana. Abilità, insite in un sistema tecnologico al fine di risolvere problemi o attività tipiche della mente umana e delle sue potenzialità. Nonché valutazioni, anche di una certa complessità, prerogativa fino a qualche tempo addietro del ragionamento umano, e oggi utilizzate dai computer anche nel mondo del lavoro.

Ed è in maniera esaustiva, grazie alla presenza nel documentario della ricercatrice del MIT Media Lab Joy Buolamwini, che la regista analizza la questione mettendo soprattutto in luce la necessità di attuare una legislazione che regoli tale problematica. E lo fa tracciando un quadro quanto mai ampio delle tecnologie in cui l’I. A. si distingue quale protagonista in molti ambiti, soprattutto in quelli professionali.

È dal riconoscimento facciale, costruito con un software che si basa sull’Intelligenza Artificiale, la questione da cui parte la Buolamwini, dopo aver individuato che il software atto all’identificazione di un individuo ha discrepanze di grande rilievo.

Nel riconoscimento facciale, la ricercatrice scopre che il software non permette, nei rilevamenti, la stessa precisione per le differenti categorie quali maschi, femmine, persone di colore.

Coded Bias di Shalini Kantayya
Coded Bias di Shalini Kantayya

Ovviamente, come per ogni tecnologia, esistono dei margini di errore, quindi, tali rilievi non potranno, almeno per ora, fornire riscontri esatti al cento per cento. La Buolamwini scopre che l’errore minore si ha nel riconoscimento di maschi bianchi, con un errore maggiore vengono rilevati volti femminili, e con un errore ancora maggiore quelli delle persone di colore.

Come riferisce la ricercatrice, il software utilizzato a tale scopo, non è in grado di distinguere nello stesso modo i volti umani, in base al genere cui appartengono. Ed è proprio da questi differenti errori presenti nella scansione facciale che Joy Buolamwini dà inizio ad un fine lavoro di scandaglio.

Insieme a interventi di altri addetti ai lavori, persone altamente qualificate, dopo aver riconosciuto che la tecnologia usata per questo scopo non è perfetta, sottolinea i pregiudizi di tale tecnologia che, volere o no, plasmano la vita della collettività, dovuti da insufficiente controllo legislativo.

Grazie a una serie di sollecitazioni, provenienti anche da alcuni cittadini, che la ricercatrice sonda gli umori della gente comune, di colore e non, i quali chiedono a gran voce di fermare la scansione facciale, in quanto tale tecnologia è stata adottata senza tener conto degli errori riscontrati da lei e dal suo team di esperti.

I primi a essere raggiunti da innovazioni tecnologiche importanti sono gli appartenenti a classi sociali elevate. Mentre, nel caso degli strumenti di sorveglianza, quelli più primitivi e invasivi, arrivano prima nelle comunità povere. Se funzionano, dopo essere state testate in quei contesti di povertà, dove le aspettative sul rispetto sono più basse, vengono allora utilizzati anche nelle altre comunità.

Da aggiungere inoltre, ancora a proposito del riconoscimento facciale, che le macchine sono erroneamente programmate per discriminare le donne, da cui si evince che non tutte le categorie di persone sono riconosciute universalmente con un alto grado di affidabilità.

Occorre dire, che le macchine e i software che guidano le loro azioni replicano il mondo così come è nella realtà, non prendendo decisioni etiche ma soltanto decisioni matematiche. Se vengono utilizzati modelli di apprendimento che replicano il mondo di oggi, non potremo fare alcun progresso sociale.

Coded Bias di Shalini Kantayya
Coded Bias di Shalini Kantayya

Dai diversi incontri che la Buolamwini stabilisce con le persone, come riferisce il documentario, l’Intelligenza Artificiale influenza tutti i processi automatizzati, tanto da poter affermare, che spesso la visione del mondo, da parte di quasi tutte le persone, è decisa da essa.

Per tornare a parlare dell’intrusione di questa disciplina nel mondo del lavoro è utile fare un esempio molto esemplificativo. Gli annunci che durante i collegamenti in rete appaiono sullo schermo dell’utente sono creati da algoritmi in di I. A., quando per algoritmo si intende un procedimento sistematico di calcoli, programmati dallo sviluppatore del software.

Mondo del lavoro, si diceva. Quale ruolo occupa l’I. A. in un contesto lavorativo?

Molte aziende ne fanno uso per la gestione del loro business ma, pur conoscendo l’obiettivo dell’algoritmo, non hanno idea del loro funzionamento. Se ne può dedurre quindi, che esiste un algoritmo “invisibile” il quale influenza i processi decisionali di un’azienda.

Un esempio tipo viene da Amazon; l’azienda leader nel mondo ha utilizzato algoritmi sostenuti da software relativi all’I. A., al fine di selezionare i curricula per il reclutamento del personale; in seguito però, onde evitare conseguenze negative, ha abbandonato questo sistema a causa di errori rilevati nel loro software.

Infatti, gli automatismi per le assunzioni, per i licenziamenti o altre decisioni venutesi a creare con le implementazioni di opportuni algoritmi, contengono errori attribuibili a preconcetti consci o inconsci da parte degli sviluppatori di software dell’I. A.; ne risulta quindi, che donne o persone appartenenti ad etnie diverse da quelle di pelle bianca vengano penalizzate.

Occorre inoltre valutare le implicazioni sociali insite nell’impiego di I. A., in quanto i progressi ottenuti nel campo dei diritti civili potrebbero essere annullati con il pretesto della neutralità della macchina. Ne risulta quindi, che spesso “puniamo” i poveri e “favoriamo” i ricchi.

Da aggiungere, che il potere viene spesso esercitato con la raccolta di dati per mezzo di algoritmi e sorveglianza. A tale proposito, Facebook può essere decisivo in alcune situazioni, senza che alcuno se ne accorga. Possono, come accaduto di recente, ribaltare addirittura un risultato elettorale.

Non sempre, però, le discriminazioni a cui si giunge sono dovute ad una volontà premeditata; il software, infatti, detto in maniera semplice, perché spiegazioni tecniche richiederebbero maggior spazio, è creato in modo tale da rappresentare il mondo reale come si evince nell’esperienza quotidiana.

Coded Bias di Shalini Kantayya
Coded Bias di Shalini Kantayya

Comunque, vero è, che le discriminazioni verso donne, etnie o tendenze sessuali non omologate, esistono comunque.

Sarebbe lungo e difficoltoso citare tutti i casi in cui il riconoscimento facciale può creare veri e propri attentati alla privacy di ciascuno, ma soprattutto ai diritti di cui ogni essere umano dovrebbe godere, al di là dell’etnia, del genere o della tendenza sessuale.

Comunque sia, ancora una volta non si possono trarre facili conclusioni, perché il riconoscimento facciale è di un’importanza fondamentale. Nel caso, per esempio, quando si assicura alla giustizia pericolosi serial killer.

Quindi, lo strumento, di per sé, non è né buono né cattivo, ma è l’uso che se ne fa a renderlo tale.

Esempio emblematico, riportato dal documentario, è quello di uno stato americano nel quale venne momentaneamente sospeso il riconoscimento facciale con le sue conseguenze. Di ciò ne avrebbe potuto beneficiare un serial killer, il quale era stato incastrato proprio grazie al riconoscimento facciale. Quindi, non si può, per garantire diritti civili ad alcuni individui, metterà in libertà un assassino seriale.

Infine, in alcune brevi sequenze il documentario fa riferimento ad un vecchio film: Nel 2000 il sole sorge ancora. Film ispirato dal romanzo 1984 di George Orwell, in cui si mostra come “il grande fratello” seguiva spostamenti ed incontri di ciascun individuo 24 ore su 24, intervenendo con punizioni fino alla morte, in quei comportamenti che la “intellighenzia” riteneva dannosi per il rigido ordine istituito nella società raccontata dal film.

La battaglia di Joy Buolamwini si è conclusa dopo anni di impegno sociale con un’audizione al Congresso Americano, il quale ha stabilito l’inadeguatezza di questi sistemi definendoli invasivi. Conseguenza che ha portato alcuni stati ad abolire, purtroppo solo per il momento, tali strumenti.

Ma, se i modelli di apprendimento che regolano il mondo odierno non sono affidabili non si avrà mai alcun progresso sociale.

È utile precisare, quindi, secondo il parere dell’autrice di questo scritto, che i problemi legati ai diritti degli individui si possono risolvere cercando il giusto equilibrio e un serio controllo dell’impiego di tali mezzi, indispensabili in alcuni casi.

 

Written by Carolina Colombi

 

 

Info

Programma Trieste Science 2020

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

%d blogger hanno fatto clic su Mi Piace per questo: