“Intelligenza artificiale” di Matteo Di Michele: rischi ed implicazioni etiche dell’AI
Comincio la mia analisi dalle parole che illuminano l’opera “Intelligenza artificiale” di Matteo Di Michele a pagina 5: “A mia moglie Emily,/ alle nostre figlie Julia e Lucy,/ e all’infallibile algoritmo che scrive le mie dediche.”
È facile cogliere la lieve e quieta autoironia dell’autore. Cos’è un algoritmo? È una funzione che permette di giungere ad altre funzioni. È la prima mezza definizione che mi viene in mente. Meglio di me può, ovviamente, zio Google: una successione di istruzioni o passi che definiscono le operazioni da eseguire sui dati per ottenere i risultati. Sono cioè dei ready-made (realizzati da te o da altri) che ti consentono di implementare dei nuovi ragionamenti, che concretizzano al fine di. Ognuno ha poi il fine che si merita. Mi domando cosa potrebbe dire a proposito al-Khuwārizmī, salvifico matematico arabo del secolo IX, da cui deriva il termine. Mi chiedo anche se c, intesa come velocità della luce nel vuoto, sia anch’esso un algoritmo, di certo è un dato emerso da precedenti esperimenti che conduce ad altri risultati. A questo punto potrebbe esserlo ogni parola: un ready made che permette di velocizzare l’espressione di un ragionamento. Al fine di evitare descrizioni troppo lunghe del tipo Luciano Floridi, docente di qua (Bologna) e di là (Oxford e Yale), filosofo etico della comunicazione, sociologo della comunicazione, etc etc, io amo usare la sintetica e non se pure algoritmica formula: Prof (tutto maiuscolo).
Scrive Matteo Di Michele, a pagina 8 dell’Introduzione: “L’obiettivo di questo libro è di offrire ciò che manca oggi riguardo a questi temi: una panoramica completa dei rischi, delle opportunità e delle implicazioni etiche dell’ascesa delle macchine intelligenti, che organizzi in modo logico e metodico i differenti tipi di tecnologie e applicazioni.”: completa non sarà mai e di sicuro non se ne parlerà mai abbastanza.
Di recente ho letto due opere che tentano di dire qualcosa a proposito: Etica dell’intelligenza artificiale di Luciano Floridi; nonché 8 secondi della giornalista RAI Lisa Iotti che, tentano, con un certo successo, di interpretare alcuni aspetti della questione. I quali aspetti sono talmente tanti (pur ampiamente illustrati in questo saggio di Matteo Di Michele), che necessitano di sempre nuovi aggiornamenti e chiarimenti. Tanto per citare il re degli aforismi, Ennio Flaiano, che però si riferiva alla situazione politica, “la situazione è grave ma non è seria” ma, occorre aggiungere: sempre più complessa. En passant, lo scritto breve, epigrammatico, di cui lo studioso Gino Ruozzi è un inclìto cultore, è consanguineo dell’algoritmo, essendo entrambi figli della medesima intenzione: significare con il relativamente poco quel che vale il relativamente tanto e che al momento (e mai infine) ti condurrà altrove, in avanti, si spera.
Anche Mussolini fu creatore di tali pensieri icastici (del tipo Vincere! E vinceremo!), e non sempre la rapidità è segno di saggezza. La cauma è il calore soffocante, ma senza calore, senza calma, si rischia di far congelare il cervello. Occorre analizzare un fenomeno correlandosi alla sua velocità.
La Parte prima del presente saggio è L’ascesa delle macchine intelligenti.
“D’altra parte, è molto facile immaginare scenari in cui tali macchine non funzionino come previsto, sfuggano al controllo o finiscano nella mani sbagliate.” – il mio modo di interagire con un saggio è sempre foriero di rischi. Riporto e cito delle parti che estraggo arbitrariamente dal testo, seguendo quello che si definisce la usta, l’odore lasciato nell’ambiente dalla selvaggina. In Campania dicono i’ a uosémo, andare a naso. Intendo chiarire che il mio è un modo per interessare gli altri cacciatori/lettori a recarsi là dove ho raccolto alcune pietre preziose, quali sono le parole e le espressioni utilizzate dall’autore preso in esame. Se talvolta ex-agero, può capitare. Solo chi fa le cose, le può sbagliare.
Il saggio riporta frequenti, mai inutili, appelli al bisogno indubbio di attenzione: il potere delle macchine, specie dopo l’invenzione di quelle a vapore e dell’energia elettrica, come è stato loro conferito dagli uomini, può determinare disastri di diverso spessore. Il saggio ne indica tantissimi, ogni volta opportunamente documentati.
“L’AI è costantemente affamata di dati.” – e questa è la condizione di ogni soggetto dominato dall’uomo (e dalla donna), dai bambini ipernutriti, ai cuccioli superviziati, alle manie personali. In altri punti del saggio l’autore chiarisce: il vero colpevole non è mai la macchina, quanto chi la gestisce in modo talora folle.
“… i dati sono in costante aumento, facili da duplicare, trasportare e condividere…” – … una volta acquisiti. Inoltre, “Il fatto che gli algoritmi abbiano bisogno di così tanti dati è sicuramente una grande limitazione per l’AI. Solo per imparare qualcosa di semplice come riconoscere un gatto…” – e qui il mio pensiero corre a quanto Umberto Eco illustrava in Kant e l’ornitorinco, coi suoi TC, CM, CN (sigle algoritmiche?) che permettono di fissare la conoscenza, al fine di procedere nella conoscenza.
Che pensarono gli antichi romani quando videro per la prima volta i rinoceronti, o gli aztechi che fronteggiarono quegli strani quadrupedi corridori (i cavalli)? Ecco che l’AI pare sempre un naif/bebè umano, più che un’atarassica creatura tecnologica.
Domanda cogente: “come possiamo garantire che l’implementazione dei robot porti le persone a vivere una vita migliore e non peggiore?” – nessuno può forse farlo, essendo tutto sotto il dominio di troppi deus ex machina, mi si permetta la battuta. Però e perciò occorre mantenere alto il controllo ed esigerlo, poiché “… all’AI manca ogni concetto di buon senso.” – sensore non è affatto sinonimo di saggezza.
“… la chiave è assegnare il giusto tipo di intelligenza al giusto tipo di attività…” – e il successivo problema è: come fare? Il potere, quest’anarchico selvaggio, interpretando in tal modo un antico pensiero di Pier Paolo Pasolini (la sola e vera anarchia è quella del potere), ce lo consentirà?
“… l’AI come uno strumento in grado di ‘aumentare’, piuttosto che sostituire l’intelligenza umana.” – facile da dirsi, ma l’uomo è un essere insaziabile, che vuol sempre andare da quell’altra parte, ovunque essa conduca. Egli scalerà l’Everest, sbarcherà sulla Luna, precipiterà in fondo al mare, andrà a sbattere contro i guard rail e le barriere Jersey.
A pagina 46 l’autore si chiede cosa sia l’intelligenza: se è “la capacità di comprendere il mondo” – e qui la macchina è inabile, oppure è “la capacità di risolvere problemi complessi” – e qui, al suo confronto, gli ipodotati siamo noi.
La Parte seconda riguarda L’etica dell’Intelligenza Artificiale.
“… gli algoritmi sono modelli statistici, si tende a considerarli eticamente neutri e intrinsecamente oggettivi fino a quando non vengono utilizzati per uno scopo particolare”, ma, dice l’autore, qualcosa rende, nella progettazione e nel funzionamento, “l’AI tutt’altro che neutrale”.
Una freccia disegnata può indicare il percorso da effettuare e, realizzata artigianalmente, può bucare il tallone di un semidio.
L’autore rivolge grande attenzione alla responsabilità legale (etica giuridica) di ogni singola azione dell’AI. Qualsiasi invenzione umana dovrebbe farne riferimento. Si pensi alla dinamite, che tanti rimorsi, si dice, fece nascere nella coscienza di Alfred Nobel. Non credo che lo scienziato di Stoccolma sia responsabile dell’uso bellico e distruttivo di tale ordigno. Ma chissà cosa avrà lo stesso rimuginato a riguardo!
La Parte terza riguarda i Rischi emergenti. Essa riguarda soprattutto la “nozione stessa di equità” – che dovrebbe scongiurare razzismi o pregiudizi “discriminatori” – il che non è facile per l’uomo, figuriamoci per l’AI. Nessun uomo saggio affiderebbe la propria bicicletta a un nomade o a certi personaggi politici. Eppure… non esiste un essere umano naturalmente colpevole (né innocente). Quando, a pagina 233 e seguenti, leggo dei pericoli insiti nell’uso eccessivo della AI al fine di condurre dei mezzi di trasporto, il mio pensiero corre al disastro avvenuto presso il Giglio Porto nel gennaio 2012, causato, a quanto pare, dall’imperizia umana.
Leggo anche: “Tutta l’Intelligenza Artificiale dovrebbe essere progettata con l’obiettivo di essere sicura.” – e questa necessità dovrebbe informare l’educazione etica dei nostri figli. Il che, si sa, non è cosa semplice.
A pagina 242 leggo anche: “Ancora una volta, l’aspetto più preoccupante dell’AI non è la malevolenza dell’AI, ma l’incompetenza umana.” – e l’attenzione deviata verso obiettivi non etici, per esempio collegati al lucro: “… le nuove scoperte possono essere facilmente replicate in tutto il mondo con enormi profitti per coloro che detengono i diritti esclusivi per sfruttarle.” – sic transit gloria stercoris Satanae.
“Senza azioni correttive, l’AI probabilmente agirà come un moltiplicatore delle disuguaglianze attuali ampliando il divario tra i gruppi più ricchi e quelli più poveri.” – tanto leggo, a pagina 256, con l’animo quasi rassegnato.
Cinque pagine dopo si assegna all’AI la possibilità di salvare l’umanità, fra qualche miliardo di anni, dagli effetti della distruzione della nostra “via Lattea”, schiacciata dalla più massiva “galassia di Andromeda”.
La Parte quarta è Roadmap per un’adozione responsabile dell’AI.
“Una tecnologia può benissimo far parte della soluzione, ma prima dobbiamo definire i nostri obiettivi e capire se possiamo gestirne i rischi in un modo…” – responsabile? Riusciremo a gestire le responsabilità di chi eleggiamo per rappresentarci? Potranno loro stessi scegliere in base alla loro ipotetica saggezza, senza essere condizionati da poteri ancora più invasivi? Il problema è senz’altro di natura politica. Chi comanda la terra in cui esistiamo? Siamo una polis autonoma o un sobborgo asservito alla Polis, gestita dai soliti noti?
Leggo a pagina 328 di Intelligenza artificiale: “Non possiamo pretendere che i programmatori diventino esperti di etica, ma dobbiamo contribuire a creare un ambiente in cui tutti si sentano responsabili delle implicazioni della tecnologia e del suo impatto sugli individui.” – cominciando dall’educazione delle nuove leve, intuisco. Un bimbetto di due anni di nome Mattia disse l’altro giorno, poiché la non riusciva ad accedere a un’app del cellulare: Nonna! Non c’è campo! L’episodio m’ha fatto sorridere e al contempo rabbrividire.
A pagina 331 leggo: “Non ci può essere un uso responsabile dell’AI senza un serio impegno per assicurare diversità e inclusione.” – ed è un ragionamento ban-ale, nel senso indicato da Salvatore Patriarca nel suo Elogio della Banalità. Purtroppo non è mai il ban-ditore a scegliere il testo del ban-do che dovrà leggere alla comunità. O no? Sta forse cambiando qualcosa? Se è così, cos’è?
Il cambio medico, specie da regione a regione, talvolta richiede numerose interazioni telematiche e svariate telefonate. Una volta una mia consanguinea si è recata nel luogo deputato al pubblico e le è stato offerto di fissare un appuntamento per un altro dì o d’interagire telematicamente. Alla fine è riuscita nel suo intento: ma che fatica, morale e fisica! Una volta bastava andare in centro, in via Giorgione, e in pochi minuti si poteva scegliere il medico. Andava così così quando andava assai peggio. Ora la situazione è quella che è: complessivamente ben organizzata e a volte disastrosa.
Nella Conclusione. Riformulare le nostre priorità, si ricorda al lettore le mostruose ingiustizie che succedono nel pianeta azzurro. Anche se potrebbe sembrare “fuori dal mondo pensare all’Intelligenza Artificiale”, ciò “è fondamentale, perché, come abbiamo visto, tende a essere un moltiplicatore di tutto ciò che tocca…”.
Proprio per questo, quel che più m’inquieta è che potrà ingrandire sempre di più la discriminazione fondata sul detto Chi figli, chi figliastri. Quanta informazione sarà consentita solo ad alcuni, quanto sarà negata alle masse, quanta sarà falsata? Qual è il modo democratico d’impedire tutto ciò? Come sarà concepita la futura politeia, la costituzione a cui tutti dovranno/potranno e mi auguro vorranno accedere?
A pagina 342 si indicano le persone da tenere d’occhio. Condivido ogni pur allarmante parola.
Intrigante è che, nella Bibliografia e fonti, l’autore, non sempre ma per lo più, oltre che indicare la fonte dello scritto, non manca di segnalare il relativo “https” – il cui significato è inquietante. Basta però cercare su zio Google e lo si intercetta senza problemi.
Immagino si sia notato che a un certo punto ho iniziato a indicare il numero della pagina del riporto. Prima non ci avevo pensato. Ogni tanto mi sono dimenticato di inserirlo. Non sono una macchina, per fortuna! Sono un uomo e vale per me il detto errare humanum est.
Che mi ha donato questo saggio intitolato Intelligenza artificiale? Senz’altro ora posseggo una maggiore consapevolezza del fenomeno dell’AI, sia per la ricchezza della casistica addotta che per l’onestà intellettuale dimostrata dall’autore, che ringrazio in tutta sincerità.
Written by Stefano Pioli
Bibliografia
Matteo Di Michele, Intelligenza artificiale, Diarkos, 2003
Un pensiero su ““Intelligenza artificiale” di Matteo Di Michele: rischi ed implicazioni etiche dell’AI”