“Etica dell’intelligenza artificiale” di Luciano Floridi: l’ultima generazione che ha vissuto l’offline

La Prefazione de “Etica dell’intelligenza artificiale” di Luciano Floridi è così ricca di spunti che rischia di demoralizzare il lettore. La mia fortuna è che, da poco dopo la nascita, io m’ispiro a una delle più lucide figure filosofiche del secolo Ventesimo, mé mêdra Rosalinda, la quale insegnava che con ‘na giarlèina in bóca, un sassolino dissetante in bocca, qualunque spirito umano può andare dove vuole, bastando la volontà di camminare, che in questo caso significa cominciare dalla prima parola posta in alto della copertina fino alla quarta di copertina, senza tralasciare nulla di quello che è in mezzo fra questi due assurdi estremi. Ovvio che capirò quel che capirò, anche se l’autore avverte che è indispensabile avere una cultura filosofica sufficiente: io ho mia madre come Musa e qualche decina di quintali di libri divorati e opportunamente emessi.

Etica dell’intelligenza artificiale di Luciano Floridi
Etica dell’intelligenza artificiale di Luciano Floridi

“Le generazioni future non sapranno mai com’era una realtà esclusivamente analogica, offline, predigitale. Siamo l’ultima generazione che l’avrà vissuta.”

Ho acquistato, usato, il primo computer, un Apple II c, nel 1988. Il mio primo compatibile un paio d’anni dopo. Mio figlio è del 1994. Ricordo che nel 1997 mi accaparrai il mio primo modem e la mia prima licenza di connessione. Rimembro che, dopo qualche giorno, mio figlio, di tre anni, aprì la porta del mio studio e mi disse (pappagallando la mamma): ma sei ancora su internet!? Mia figlia del 2003, non me l’ha mai chiesto.

“La tesi principale che sviluppo nel libro consiste nel dire che l’IA costituisce un divorzio senza precedenti tra l’intelligenza e la capacità di agire.” – una è tipica dell’uomo, l’altra della IA?

“Non c’è niente di programmatico, ma questo è ciò che accade quando segui il tuo ragionamento ovunque ti porti.” – e qui l’autore scocca il primo dardo:Adesso ho l’impressione che soltanto i brutti libri siano totalmente controllati dai loro autori. Si chiamano romanzi d’aeroporto e telenovele.” E giunge l’avviso ai naviganti: “Anche questo libro richiede non solo una conoscenza di livello universitario della filosofia, un po’ di pazienza e del tempo, ma pure una mente aperta.” – il che mi tranquillizza: posseggo tre caratteristiche su quattro.

“Ci sono molti modi di comprendere la tecnologia: uno di questi consiste nel concepirla in termini di buon design e governance etica…”

Il presente (inteso anche come dono ricevuto) è “un libro che investe e mette a tema una nuova forma dell’agire, la sua natura, la sua portata e le sue sfide, e il modo in cui sfruttarla a beneficio dell’umanità e dell’ambiente.”

La prima parte è dedicata a Comprendere l’intelligenza artificiale. Il primo capitolo è Passato: l’origine dell’intelligenza artificiale.

“… potere di scissione del digitale” – essendo “l’IA come una nuova forma di agire intelligente, determinata dal disallineamento digitale tra azione e intelligenza, un fenomeno senza precedenti cha ha causato alcuni malintesi.” La velocità della IA ha un duplice effetto: fattibilità e usabilità. Possiamo fare sempre di più, in termini di applicazioni, e possiamo farlo in modi sempre più semplici, non solo per ciò che “concerne la programmazione, ma soprattutto per ciò che riguarda l’esperienza dell’utente.” – ed è la moderna “potenza di calcolo” il mezzo con cui tutto si realizza in maniera totalmente nuova. Anche grazie alla pandemia, gli individui passano “sempre più tempo in contesti digitali e, pertanto, adattati all’IA.” Non credo esista saggio post 2020 che non accenni, magari solo en passant, a essa.

Non ho dubbi su quanto è detto: oggi “il numero dei dispositivi digitali che interagiscono tra loro è già notevole superiore alla popolazione umana. Perciò la maggior parte delle comunicazioni avviene da macchina a macchina, senza coinvolgimento umano.” – se non nel progetto che le hanno determinate.

“Un numero crescente di persone vive sempre più diffusamente onlife, sia online sia offline, e nell’infosfera, sia digitalmente che analogicamente.” Si tratta “di una nuova forma di agire, e non di intelligenza”.

Nuovo senso da dare alla “posizione” e alla “presenza”: io chatto con te che sei dall’altra parte dell’oceano; oppure lavoro qui per te che sei là, o tu per me. Esistiamo sia qui che là, contemporaneamente: il mio corpo è qui, la mia funzione operativa è anche là.

Va considerato lo scollamento tra legge e territorialità. Quel che faccio qui può creare conseguenze là, nell’altro emisfero. Il legame è “tra persona e dato (che è ora fondamentale) piuttosto che sulla geografia (il luogo dove tali dati personali sono trattati non è rilevante).” Per il 99% della nostra storiaabbiamo vissuto in società di cacciatori-raccoglitori, che cercano cibo per sopravvivere” – ora, anche “su Instagram o TikTok, per esempio, consumiamo ciò che produciamo.” Si pensi “alla differenza tra realtà virtuale (scollamento) e realtà aumentata (incollamento); la consueta disgiunzione tra uso e proprietà nella share economy; la ricongiunzione di autenticità e memoria grazie alla blockchain; o l’attuale dibattito su un reddito di base universale, un caso di scollamento tra stipendio e lavoro. Ma è giunto il momento di procedere dalla domanda relativa al ‘come’ a quella relativa al ‘perché’. Perché il digitale ha questo potere di scissione, vale a dire di incollare, scollare o ri-incollare il mondo.” – questo, mi sa sia il compito di tutti gli elettrodomestici, tostapane compreso.

“… il digitale è una tecnologia di terzo ordine” – la quale “sta tra una tecnologia e un’altra tecnologia, come un sistema computerizzato che controlla un robot che dipinge un’automobile (terzo ordine)”.

Vorrei dire all’autore che, in questo momento, la macchina-uomo Floridi interagisce con la macchina-uomo Pioli, grazie a questa cellulosica macchina-libro. Domanda: siamo anche noi macchine? O esiste quell’assurdità detta anima, che nessuno ha visto che, secondo i Geoviani, coincide col corpo, che è di fatto una macchina?

1.3 Nuove forme dell’agire: “… la re-ontologizzazione dell’agire non è stata ancora accompagnata da un’adeguata ri-epistemologizzazione della sua interpretazione.” – che, tradotta per mia mamma e per me è: “il digitale ha cambiato la natura dell’agire, ma stiamo ancora interpretando l’esito di tali cambiamenti attraverso una mentalità moderna, e ciò genera qualche profondo malinteso.” – tipo credere che “il digitale dovrebbe (si noti l’approccio normativo opposto a quello descrittivo ricongiungere sovranità (i potere politico che può essere legittimamente delegato) e governance (il potere politico che è legittimamente delegato, temporaneamente, condizionatamente e responsabilmente, e che può essere in modo altrettanto legittimo ripreso…” – qui mamma rischia di perdersi, anch’io. Il potere è tuo e lo gestisci tu? Gnân per na pēgra, direbbe mamma, neanche per una pecora, nulla può compiere ‘sto miracolo, men che meno la IA.

“Il potere di scissione del digitale riduce enormemente i vincoli della realtà e ne aumenta le possibilità.” – anche grazie al “design – l’arte di risolvere un problema sfruttando vincoli e possibilità, per soddisfare alcuni requisiti in vista di un obiettivo.” – intuisco che il design corrisponda alla capacità di architettare un prodotto dell’IA. “Scoperta” (che ancor oggi non manca), “invenzione” e “design”. Abbiamo tutto quello che serve per procedere.

“Ogni design richiede un progetto” che sia “umano”. Progetto non facile, a occhio.

Il secondo capitolo è Presente: IA come nuova forma dell’agire e non dell’intelligenza.

“… IA non è un termine scientifico” tipo “triangolo”, o pianeta” o “mammifero”, bensì “un’espressione generica, proprio come amicizia o pornografia”. È una definizione in senso lato, non stretto, come religiosità, filosofia?

“L’IA è una famiglia in cui la somiglianza, e talvolta solo per pochi tratti, è il criterio di appartenenza”. Per essa “il come non è in discussione, lo è solo il risultato”.

Edsger Wybe Dijkstra - 1984
Edsger Wybe Dijkstra – 1984

Terrò a mente per un’eternità keatsiana la frase di Edsger Wybe Dijkstra: “la questione se un computer possa pensare non è più interessante della questione se un sottomarino possa nuotare.” – ipotizzo una risposta: Sì, a modo suo. Cosa significa pensare? Esistere, secondo René Descartes. Soppesare secondo l’etimo. Che ne sappiamo, chiederei all’autore, che io non sia che un cervello in una vasca come ipotizzava Hilary Putnam in Ragione verità e storia? Ci sono forse io, forse l’autore, e poi? Se ci sono io recherò sempre meco il mio cellulare per continuare a chattare con chi mi va.

Per il motivo del suo fine (il risultato), “l’IA non concerne la capacità di riprodurre l’intelligenza umana, ma in realtà la capacità di farne a meno.” – almeno nella pratica, spero anche nei fini ultimi e penultimi.

“È il mondo che si sta adattando all’IA e non viceversa.” È “scienza dell’artificiale” e non “della natura” o della “cultura”: perché non ha coscienza? O ce l’ha, a modo suo?

L’autore cita il per me odioso CAPTCHA che m’individua e mi giudica ogni volta come umano. A volte digito, per umanissima fretta, delle lettere ed erro, e lui teme che io sia un robot, e mi ripropone il quiz. È una specie di “test di Turing” che funziona solo se sto attento.

“… l’IA è il coniuge stupido ma laborioso e l’umanità quello intelligente ma pigro, chi si adatterà a chi?”c’è anche l’ipotesi di divorzio, anche se ormai è praticamente inattuabile. Cito la battuta di Woody Allen: “a casa mia io comando e mia moglie decide”, che io ho adattato in questo modo: “mia moglie è l’autorità assoluta a cui io tento talvolta di disobbedire”. Garantisco all’autore che una volta o due ci sono riuscito. Mi permetto di suggerire di non dimenticare la disobbedienza condivisa, facendo riferimento a Henry David (Thoreau), se questo rientra nelle possibilità umane (senza che si perda più di quel che si guadagna).

“… l’opportunità rappresentata dal potere di re-ontologizzazione del digitale si presenta in tre forme: rifiuto, accettazione critica e design proattivo” – il primo non appare più attuabile, per cui il secondo è solo una “soluzione temporanea”, mentre “il design umano intelligente (il gioco di parole è voluto) dovrebbe svolgere un ruolo maggiore nel plasmare il futuro…”.

Ora il programma di Luciano Floridi dice: go to 3. Futuro: lo sviluppo prevedibile dell’IA.

“… senza dati, gli algoritmi – inclusa l’IA – non vanno da nessuna parte, come un motore con un serbatoio vuoto.” – i dati sono il carburante, dunque. Ne ha bisogno “per essere addestrata e pertanto di dati per applicare il suo addestramento”.

Io ero fermo a Deep Blue II che batté a scacchi Kasparov (mentre Deep Blue aveva perduto), ma ora pare che ci sia un nuovo match winner, al momento imbattibile: Alpha Zero che “ha generato i propri dati sintetici, e questo è stato sufficiente per il suo addestramento.” – e se ho capito bene egli sa creare da sé la propria benzina, allenandosi da solo.

Oltre ai dati storici (cioè quelli che vanno introdotti dall’operatore), e a quelli sintetici, ne esistono di ibridi: che è una miscellanea degli altri due, “un prodotto” dice l’autore. Assomiglia al discorso delle auto ibride: alcune vanno a benzina o a energia elettrica, altre invece, finte ibride, in cui l’elettrico si limita a coadiuvare il motore a carburante normale. Non so se sia corretta l’analogia. “L’idea base è utilizzare i dati storici per ottenere nuovi dati sintetici che non sono semplicemente dati storici impoveriti” – una cosa del genere quando a forza di chattare con Ermenegildo spunta su Whatsapp il cognome di questi che è Frescobaldi. Io non ho memorizzato nulla, ma qualcuno o qualcosa (disegnato da qualcuno) l’ha fatto per agevolarmi la scrittura. O per indirizzarmi dove lui crede sia meglio?

“I dati storici sono ottenuti tramite regole di registrazione…”, mentre quelli “sintetizzati sono ottenuti tramite regole di astrazione, che eliminano, mascherano o offuscano alcuni gradi di risoluzione a partire dai dati storici, per esempio mediante l’anonimazzazione. Dati ibridi e realmente sintetici possono essere generati tramite regole vincolanti o costitutive.”

Doppio esempio proposto dall’autore: gli scacchi (dove bastano, più o meno, le regole costitutive) e il calcio (dove le regole costitutive “si limitano a modellarlo”: il resto è troppo legato a sinteticità che al momento non sono praticabili a una IA).

Macchine non simili a robot, ma “a lavastoviglie e lavatrici” potranno fare cose in modo analogo agli umani, stirare, tagliare l’erba, infilare bottoni etc, e già lo stanno facendo, e questa è la logica che ci aspetta per il futuro, grazie anche e soprattutto al design, vero “futuro dell’IA”.

La seconda parte del saggio è Valutare l’intelligenza artificiale. Il quarto capitolo è Un quadro unificato di principi etici per l’IA. È quindi assodato che il computer, per quanto prodigioso nei suoi risultati, non è intelligente. E io vorrei aggiungere: non si distrae mai, non è mai annoiato e, se sbaglia, non è mai colpa sua, ma di chi l’ha istruito: un allievo ideale, che non merita mai di essere bacchettato. Franti sarebbe un anti-IA. Lo dico perché qualcuno ha osato elogiarlo.

Ci sono 4, anzi, 5 principi da perseguire. 4 sono “comunemente usati in bioetica”: “beneficenza, non maleficenza, autonomia e giustizia. Il quinto è “l’esplicabilità”. Ne deriva una necessità di unificare questi principi, poiché l’armonizzazione è tipica di ciascun linguaggio, in primo luogo quello digitale, che non ammette alcun errare a vuoto. Un po’ quest’ultimo pensiero l’ho dedotto dal paragrafo: Un quadro unificato di cinque principi per l’IA etica, un po’ perché conosco il modo di agire del computer e so che questa è una caratteristica di ogni forma di comunicazione umana. L’autore spesso, nelle note, inserisce gli indirizzi internettiani di riferimento che, ove si sbagli di uno spazio, d’una maiuscola o di una punteggiatura, non vengono individuati. Occorre quindi esattezza. Rispetto a quello che era però la IA qualche decennio fa (poniamo l’ottantotto, quando utilizzavo l’Apple II C, un minimo errore nel lanciare un programma ne inibiva l’esecuzione. E questo durò fino a quando Windows non sostituì in toto (anche se solo a livello pratico) il vecchio sistema operativo che basava i comandi su: BATman è un COMunista che EXEgue gli ordini. dove solo i file con un’estensione (che m’ero creata per ricordare meglio) uguale ai suddetti maiuscoli erano lanciabili.

Ora si usa il mouse, il touch, l’icona, eccetera, e sbagliare diventa un’impresa quasi impossibile. Ora, se in Google anziché Putin, digito Putîn (che significa bimbo nel mio arşân), come quinto risultato appare un filmato con il presidente Biden. Ne consegue che la IA è forse solo parzialmente idiota, per cui, se il link è errato il sito non appare, ma se lo si copia-incolla su Google (motore di ricerca così materno e paterno al contempo!), il sito viene pressoché sempre individuato (almeno secondo la mia esperienza).

Beneficenza: “l’IA dovrebbe ‘ essere sviluppata per il bene comune e il beneficio dell’umanità.” – e credo ci sia poco da aggiungere.

Non malificenza: “non fare del male”, rispettando la “privacy, sicurezza, e ‘cautela della capacità’”. Al che l’autore si chiede chi deve evitare del male: chi crea la IA (come crede lui, il “dottor Frankestein” o la IA stessa (il “suo mostro”).

Autonomia: “un equilibrio tra il potere decisionale che ci riserviamo e quello che deleghiamo agli agenti artificiali”, lasciando sempre aperta la possibilità “di decidere di decidere di nuovo).

Giustizia: cercando “di eliminare tutti i tipi di discriminazione”.

Esplicabilità: un’intelligibilità responsabile, che significa rendere chiaro cosa si sta facendo e individuare la responsabilità etica e legale di eventuali danni.

Il capitolo successivo è Dai principi alle pratiche: i rischi di comportamenti contrari all’etica.

Lo shopping etico: “il principale rischio contrario all’etica è che tutta questa iperattività crei un ‘mercato di principi e valori’ in cui attori pubblici e privati possano acquistare il tipo di etica che meglio si adatta a giustificare i loro comportamenti attuali, piuttosto che rivedere questi comportamenti per renderli coerenti con un quadro etico socialmente condiviso” – la I.A., quando vuole, è un’infida forma di prestidigitazione, capace di stendere “una patina nuova ad alcuni comportamenti preesistenti”, giustificandoli a posteriori, evitando di evolversi.

Il ‘Bluewashing’ etico: “versione digitale del greenwashing”: il far sembrare una cosa più verde, ecologica, di quel che sia, tramite affermazioni di eticità non corrispondenti alla realtà. È una forma di disinformazione mirata, distraendo il destinatario, a celare i propri comportamenti, che badano al risparmio, al guadagno. Solo una giusta “trasparenza e informazione” può essere “adottata contro il greenwashing”.

Il lobbismo etico: “ritardare, rivedere, sostituire o evitare un’idonea e necessaria regolazione giuridica (o la sua applicazione relativa al design, lo sviluppo e l’implementazione di processi, prodotti, servizi o altre soluzioni digitali.” – e lo scopo è, intuisco, di curare i propri interessi prima di tutto.

Il dumping etico: esportare altrove quel che non è concesso qui, importare qui quel che è concesso altrove ma non qui. Questo aspetto sfrutta il nuovo senso che è dato dalla IA alla posizione e alla presenza.

Elusione dell’etica: ridurre l’eticità ove sia possibile. Faccio un esempio, che può comprovare o no se ho capito. Un impiegato che è sul luogo del lavoro, qualora un programma è momentaneamente bloccato, deve stare seduto alla scrivania finché finalmente il problema non si risolve. Tenendo presente che, anche per il camionista, il tempo di attesa durante il carico o lo scarico, per quanto più lungo del normale, in caso di file lunghe, è lavoro da retribuire, lo è anche per l’operatore telematico.

Cosa può fare il medesimo impiegato, se è in smartworking? Alzarsi, accedere la televisione, distrarsi e ogni tanto gettare un’occhiata allo schermo ed, eventualmente, riavviare il computer o ritentare l’accesso alla procedura. A casa il comportamento del lavoratore è senz’altro più rilassato. Chi fa una fotocopia personale compie un atto di peculato d’uso, chi, facendo il ministro, si garantisce tangenti, compie un reato ben più grave: concussione. Tutto è relativo.

Il capitolo 6 è Etica soft e governance dell’IA. Quel che conta “… è il modo in cui disegniamo l’infosfera e le mature società dell’informazione che si sviluppano al suo interno a essere più rilevante.”

Ringrazio l’autore perché mi ha insegnato un nuovo termine con la frase: “Quale industria sarà ‘uberizzata’ prossimamente.” – che io non spiego a chi mi legge perché non lo sono (uberizzato) a sufficienza. Occorre “smettere di giocare in difesa e iniziare a giocare in attacco. La domanda non è se, ma come” – un potere esecutivo bisogna trovare i mezzi per fare le cose, non stare lì e aspettare gli eventi. Eseguire, non essere eseguito, perseguendo: “governance digitale”, “etica digitale”, “regolazione digitale”. Si può anche dire (governance, etica, regolazione) digitale.

Governance: (sviluppare, utilizzare e gestire) l’infosfera, valutandone l’etica, seguendo le regole di una “intera mappa normativa”.

Leggo in 6.4 Etica hard e soft: “nella misura in cui (e tale misura può essere non particolarmente estesa) l’etica contribuisce a creare, plasmare o modificare il diritto, possiamo chiamarla etica hard.” La soft, invece, rientra nell’ambito d’azione della sorella più dura, “ma lo fa considerando ciò che dovrebbe essere fatto al di là della normativa vigente, non contro di essa.” – quel che cambia è solo il mondo condizionale. La prima deve, la seconda dovrebbe: “il dover far qualcosa implica il poter far quel qualcosa.” Le due consanguinee sono gemelle, ma eterozigote, ognuna con le sue peculiarità, che però devono andare d’accordo, nell’interesse della famiglia, e agire insieme, in un’ottica che spinge al di là dell’hic et nunc: “trovarsi già alla prossima stazione”.

L’etica si muove verso l’individuo (o cittadino o cliente) e tale cascata, che secondo l’autore, comprende il gradino del Diritto, la logica delle Imprese, è pericolosamente sdrucciolevole. L’etica soft (è una mia deduzione) dovrebbe servire a non far scivolare nessuno. Essa “può fornire una strategia di opportunità, consentendo agli attori di sfruttare il valore sociale delle tecnologie digitali” e “può anche abbassare i costi derivanti dall’opportunità delle scelte non compiute o delle opzioni non colte per paura di sbagliare.” – a me pare un freno che, non facendoti andare a sbattere contro un albero, ti fa arrivare prima (senza che tu debba utilizzare il carro-attrezzi). Ed è anche una specie di navigatore che ti fa scegliere la strada più sicura e al contempo più veloce, in quanto meno problematica.

Il capitolo seguente è La mappatura dell’etica degli algoritmi. Tutto quel che si prende di peso e viene immesso nella I è un algoritmo? È un preparato che viene utilizzato “costrutto matematico” o “qualcosa di più esteso”. Essi servono “per trasformare i dati in prove (informazioni)” che servono a “innescare e motivare un’azione che può avere conseguenze etiche.”

Le quali possono essere “inconcludenti”, nel senso di incerte e caduche; “imperscrutabili”, nel senso di poco trasparenti; “fuorvianti” nel senso “che portano a pregiudizi (bias) non voluti”: cioè a una “deviazione da uno standard”. Quindi? A false maldicenze?, che acquisiscono un senso, che recano a “risultati ingiusti che portano alla discriminazione”; e con “effetti trasformativi che sollevano sfide per l’autonomia e la privacy informativa”: mutano la descrizione dell’utente che ha subito tali distorsioni. Queste distorsioni, a mio parere, sono tipiche di un ambiente in cui difetta il controllo, non solo nella creazione di account, ma in qualsiasi interazione. Commentai un disegno umoristico in cui era disegnato un bovino e in cui campeggiava la scritta carduccesca T’amo più bove. Commentai: … anche pia vacca. Facebook mi ammonì: occhio, mi fece sapere, che ti teniamo d’occhio, ancora uno sgarro del genere e ce la paghi (scritto, ovviamente, in modo meno mafioso). Mi è stato notificato che, se avessi ripetuto l’ingiuria, sarei incorso in qualche provvedimento (tipo sospensione dal social). Sic transit gloria algoritmi.

Tracciabilità: che è “un presupposto della responsabilità morale”, e giuridica, immagino. L’autore dice: “Ho suggerito di attribuire la piena responsabilità morale ‘per impostazione predefinita e in modo reversibile’ a tutti gli agenti morali (per esempio umani o costituiti da esseri umani, come le aziende) nella rete che sono casualmente rilevanti per una data azione della rete (Floridi, 2016a).

Tutti significa troppi e, alla fine, nessuno. A mio parere occorre individuare un colpevole unico (Pioli, 2022) ed eventuali obbligati in solido. Chi sia dev’essere accertato di volta in volta. Nel mio caso ero io: ma ero anche innocente, perché il fatto non sussisteva, non essendo stato commesso alcunché di punibile. Non mi fu nemmeno consentito di giustificarmi. Mi si chiese solo se ero d’accordo sul provvedimento, e io digitai di no. Questo è un diverso e non fatuo problema.

L’ottavo capitolo è Cattive pratiche: l’uso improprio dell’IA per il male sociale, che illustra in maniera molto capillare i fenomeni legati alla CIA dell’IA e dei AA, cioè i crimini dell’intelligenza e dell’agente artificiale (un automa). Secondo l’autore un AA “può essere responsabile casualmente di un atto criminale, ma soltanto un agente umano può essere moralmente responsabile.”, se è il caso, civilmente e penalmente. Non riesco, proprio a causa della completezza degli esempi descritti fare una sinossi del capitolo. Riprendo solo un punto: “… non può essere accertato positivamente alcun collegamento con l’impiego dei VSE, se il software (e l’hardware) non lascia qualche traccia che riconduca a chi l’ha acquistato.” – VSE sono dei veicoli subacquei privi di equipaggio. Riporto ancora: la responsabilità penale “è difficile e significativamente ostacolata dal ‘problema delle molte mani…” – ognuna delle quali responsabile di un pezzetto dell’IA, non necessariamente responsabile di CIA. Dopo aver, in precedenza, alluso alla necessità di “estendere o chiarire le dottrine esistenti sulla responsabilità solidale”, in 8.4.2, egli distingue: “responsabilità diretta, perpetrazione per mezzo di altri, responsabilità di comando e conseguenza naturale e probabile.”

Una IA e un AA è un prodotto, come lo è un’automobile, che sarà autorizzato da agenti umani. La prima responsabilità è di chi le ha costruite. Occorre individuare un responsabile generale, cioè di uno che si assuma la responsabilità civile e penale del prodotto: il cosiddetto dominus. Non credo si tratti di un’impossibilità. Lo stesso deve avere consapevolezza e la capacità di individuare chi ha implementato cosa.

Esiste in secondo luogo la IA e la AA che, come abbiamo detto, non ha responsabilità etica, perché non è intelligenza umana, ma solo artificiale. Credo vi sia la necessità di individuare l’identità di ogni singola IA e AA, che permetta di tracciare da quale agente automatico sia partito il messaggio (la mail, la chat, la richiesta telematica, il post, il tweet). Ciò rientra nell’eventualità tecnologica. Anche le auto hanno un numero di immatricolazione, perché non dovrebbero averlo i computer, come dato che debba necessariamente essere trasmesso online durante ogni atto pubblico?

Infine vi è la responsabilità dell’utente. Nel mio cellulare, posso accedere ad alcune app, soltanto tramite lo SPID oppure con l’identificazione digitale. Mi chiedo perché non debba essere lo stesso per ciascuna forma di messaggeria social, anche in accesso da personal computer, portatili o fissi, palmari. eccetera. Mi rendo conto che, stante la platea planetaria, per quanto non impossibile tecnologicamente, ciò sia estremamente difficile. Credo però che sia una strada percorribile.

In tal modo sarebbero individuati tutti gli eventuali responsabili, sia automatici che umani, dell’eventuale CIA. Oppure no, chissà… Potrebbero in qualche modo dare un senso alle prime indagini… Quando un ispettore del lavoro si reca in un’azienda è già in grado di sapere quali sono le forze denunciate dalla stessa alla Pubblica Amministrazione. Non necessariamente quelle operanti… Oltre a questo, e non necessariamente prima o dopo, dovranno essere esperite le indagini poliziesche. Sono davvero contento di passare ora al nono capitolo: Buone pratiche: l’uso dell’IA per il bene sociale. Che bello questo AI4SG! Che? Non v’è scritto, ma intuisco: questo Artificial Intelligence for social growth.

Luciano Floridi
Luciano Floridi

L’autore Luciano Floridi (d’ora in poi PROF) utilizza, immagino perché è così che si deve fare, sigle che, se per caso hai sorvolato distrattamente (come ho fatto inizialmente io per AA) la riga in cui esse vengono definite, c’è sempre mamma/papà Google che ti può aiutare. Ogni tanto mi chiedo che fine ha fatto nonno Yahoo e zia Altavista, secondo me i loro geni si sono trapiantati da qualche parte, ma non ho notizie certe, dovrei ricercare l’albero genealogico in qualche sito di mormoni. La mia intuizione è che queste sigle che usa PROF siano degli algoritmi, come lo sono le suddette indicazioni bibliografiche sintetiche, tipo, per A14SG, “(Taddeo, Floridi, 2018a; Vinuesa, Azizpour, Leite et al., 2020; Chui, Manyia, Miremadi et al., 2018)”.

Sto pensando se l’uggioso Friedrich Nietzsche da Rocken, Lützen, di cui ho letto e forse dimenticato quasi tutto, abbia mai citato un’opera dei massimi autori che l’hanno preceduto, indicando: (Hobbes, 1668, Kant, 1787, Hegel 1816) e se anche in tal caso varrebbe il detto gnân per na pēgra.

Visto che siamo in chiacchiere, mi domando se PROF sia un filosofo. Chiedo scusa per l’impertinenza, anche perché la risposta è sì. Ma è anche un sociologo e un esperto di tantissime materie, tra cui la filosofia. Finita la ricreazione mi rimetto a studiare, PROF. Un’ultima cosa mi è venuta in mente: ne ero quasi certo, essendo questo il secondo saggio di PROF che leggo. La lettura è ostica ma possibile e credo di aver capito oltre il 62,245%, dove il 5 è per fortuna periodico.  Talvolta, nel saggio, incontro per la prima volta dei termini (come la già citata espressione: uberizzata, che deriva da Uber). Oppure, più di frequente, alcuni certi termini li conosco, ma, stante la varietà delle esperienze esistenziali letterarie che devo affrontare, tendo a trascurarli, ponendoli nel ripostiglio, per esempio: proattivo: in casi del genere è sempre la citata e prodigiosa mamma/papà telematica che ti scioglie l’enigma.

“Un modo efficace per identificare e valutare i progetti di AI4SG è analizzarli sulla base dei loro risultati.” – beh, un po’ me l’aspettavo – e l’AI4SG “ha successo nella misura in cui contribuisce a ridurre, mitigare o eliminare un determinato problema sociale ambientale, senza introdurre nuovi danni o amplificare quelli esistenti” – questo è, come diceva Totò indicando l’ombrello… ovvio, ma mica tanto se PROF enumera ben “Sette fattori essenziali per il successo dell’AI4SG”.

1 è la “falsificabilità e implementazione incrementale”, cioè “la specificazione, e la possibilità di verifica empirica, di uno o più requisiti critici” – perché un AI4SG funzioni (bene) e non malfunzioni.

A volte PROF è essoterico (senza esagerare): “L’uso di un approccio retrodittivo, vale a dire il tentativo di comprendere taluni aspetti della realtà attraverso informazioni a priori, per affrontare la falsificabilità dei requisiti presenta problemi simili.” – che pare un concetto complicato, ma di fatto è semplice (anche se non a primo orecchio).

Il 2 è dato dalle “garanzie contro la manipolazione dei dati”, in “input” e a causa dall’“eccessiva dipendenza da indicatori non casuali”, cioè i “dati che sono correlati con, ma non causa di, un fenomeno.” distraenti, disturbanti, deformanti l’anima (parola grossa ma essenziale: la psiche) dell’utente.

Il 3 è un “intervento contestualizzato in ragione del destinatario”. Vi sono due rischi opposti che occorre correre, ma cercando di armonizzarne i fini: una carenza di informazioni necessarie, un loro eccesso che nuoccia all’autonomia dell’utente.

Il 4 è la “spiegazione contestualizzata in ragione del destinatario e finalità trasparenti” – quali risultati si attendono, quali fini si perseguono?

“… il livello di astrazione (LdA)” racchiude il senso della spiegazione; per cui “i designer devono scegliere” quale sia il “modello esplicativo” più consono all’utente. Anche un saggio come questo scritto da PROF necessita di una chiarezza espositiva che non sia un flusso di memoria alla Molly Bloom.

“… il destinatario può non essere d’accordo sul livello di granularità.” – al che deve scegliere: mollare il libro, enten, (Pioli 1972) o, eller, continuarlo, assumendo un atteggiamento di sfida (Pioli, 2022). Accenno di sfuggita che taluni obiettivi possono essere “opachi”, però ci deve essere un buon, e non truffaldino, motivo.

Il 5 riguarda la “tutela della privacy e consenso dell’interessato”, che anch’essa deve armonizzarsi con una “AI4SG efficace”, anche se si è (troppo) spesso messi nella condizione di “prendere o lasciare”.

Il 6 è la ricerca di una “equità concreta”, che non distorca i dati per “avere effetti socialmente rilevanti”, badando solo a “inclusione, sicurezza o altri imperativi etici”. Un’espressione tipica delle mie zone è am bâla un ôcc, mi balla un occhio, cioè mi fido poco, in tal senso, della IA. I social, pere  esempio, offrono gratuitamente all’utente enormi possibilità e in cambio chiedono, anzi, esigono i dati. Il dubbio che ho è: possono evitarlo?

Partendo dalla considerazione che i costi per chi gestisce un social sono sicuramente molto elevati (in quanto gestiscono utenti di un intero pianeta) la domanda è se possano limitarsi a guadagnare il giusto, rispettando la privacy, oppure la scelta è fra il troppo o il non abbastanza?

Il 7 descrive la “semantizzazione adatta all’umano”, cioè “conferire senso a (semantizzare) qualcosa.” – e quel qualcosa è volutamente generico perché sottintende di tutto un po’, secondo “le nostre scelte” oppure no; scegliendo quale significato e senso definire, a scapito di altri.

“La IA dovrebbe essere impiegata per facilitare la semantizzazione adatta all’umano, ma non per fornirla di per sé”: inoltre: “i designer di AI4SG non dovrebbero ostacolare la capacità delle persone di semantizzare…” – quel condizionale la dice lunga sulle difficoltà che occorrono in tale impresa, specie quando l’utente vive un’esistenza problematica, avendo a che fare con persone di grave problematicità. La IA , in tali casi, può ribadire (“per rinforzo” concetti già semantizzati ma necessari di una nuova innaffiatura che rinfreschi il senso).

Il decimo capitolo s’intitola Macchine ultraintelligenti, singolarità e altre distrazioni fantascientifiche, ed è il più (il primo) leggero e svolazzante (in modo intelligente, però: fa pensare).

Søren Kierkegaard
Søren Kierkegaard

“La filosofia non coglie bene le sfumature” – “indulge nell’aut aut esclusivo”: meno male che PROF non cita Søren, diversamente qualcuno che conosco avrebbe segnato la frase con il lapis blu, altro che bluewashing: egli scrisse enten eller!

“Nel frattempo, ricordiamoci che la buona filosofia sta quasi sempre nel noioso mezzo.” – ecco un esempio: “In guerra, se mi va bene, ammazzo un uomo./ Se mi va male, quell’uomo ammazza me./ Se mi va così così, entrambi ci ignoriamo./ In medio stat virtus.”

Muto il mio aforisma in: “Nessuna macchina equivale al mio cervello./ Il mio cervello non equivale a nessuna macchina./ Vorrei talvolta ignorare la macchina e che la macchina ignorasse talvolta me./ Non posso vivere senza conflitti, però i conflitti non devono essere la mia condizione costante.”

S-tefano ringrazia PROF perché gli ha donato la nozione della curva sigmoide. L’userò di rado, però. Proverbio arşân: a n gh ē trést cavâ c’ àn vîn bòun ‘na vôlta l’ân – non c’è triste cavagno (cesta di vimini) che non venga utile una volta all’anno (durante la vendemmia).

“E nel 2011 Stephen Hawking ha dichiarato che ‘la filosofia è morta.” – già per lui non stava benissimo quando, nel suo libro più celebre (1988), scriveva che, per Wittgenstein (mi pare lo indicasse come il massimo dei filosofi possibili), alla filosofia non rimanevano che l’esame delle parole. Con la stessa profondità in tale saggio discettava di musica classica.

Per scrupolo sono andato a controllare: in Dal big bang ai buchi neri- breve storia del tempo: 11. Conclusione, scrive: “I filosofi ridussero a tal punto l’ambito delle loro investigazioni che Wittgenstein, il filosofo più famoso di questo secolo, disse: ‘ L’unico compito restante per la filosofia è l’analisi del linguaggio’. Quale caduta dalla grande tradizione della filosofia da Aristotele a Kant!” – non citava, almeno nella mia edizione del 15, la fonte bibliografica.

Il capitolo è dedicato a questo: a tanta gente (Hawking stesso, Gates, Musk, il già presidente esecutivo di Google, Eric Schmidt) la IA fa paura non per quello che è ma per quello che sarà fra non molto. Un certo Kurzweil usò l’espressione “singolarità tecnologica”, forse inteso come un buco nero attira-tutto, e indicò nel 2029 come l’anno in cui… Bum!, ci sarà “la vera IA”.

PROF ammette cheabbiamo una limitatissima comprensione di come funzionano il nostro cervello e la nostra intelligenza. È anche improbabile che la nostra concezione dell’intelligenza rimanga incontrastata, in termini di fenomeno unificato” – ergo: tra brà, che nel gergo dei figli del 2000 significa: be quiet, fratello!

“Non ho mai sostenuto che le tecnologie digitali pensino meglio di noi, ma che possano fare sempre più cose meglio di come le facciamo noi senza pensare.” – discuto la frase. Cosa significa pensare? Come già scrissi, è intensivo di pesare un qualcosa, conferendogli un significato in termini di valore. Il computer ha due valori: acceso e spento, 1 e 0. Pensa secondo questa logica. Ma pensa. È il cervello umano un computer: sì, eccezionale, e funziona grazie a messaggi di natura chimico-elettrica, ed è il computer in dotazione all’uomo fin dalla nascita. La IA, no. L’uomo può renderla umanistica, istruendola grazie a quel comando spento/acceso. O no?

Nella disamina di un precedente saggio, Uccidere il tiranno di Aldo Andrea Cassi, mi posi un quesito: “Tu sei un ucraino e sai che, pigiando il bottone di un mouse, oppure con un semplice touch su un punto preciso dello schermo, colui che è storicamente e irrimediabilmente responsabile dell’uccisione di un numero altissimo di ucraini, sarà a sua volta ucciso. Cosa decidi? Intendi premere o no quel tasto, desideri toccare o no quel punto dello schermo? O lasci che sia il tuo personal (in maniera non random si spera) a elaborare la risposta?”

L’uomo può scegliere, disobbedendo all’uomo, il computer no: deve obbedire a chi lancia un comando, qualunque esso sia, a meno che un altro uomo non abbia creato una protezione (per esempio una password, o un’inibizione a compiere determinate azioni). Al momento questa scelta è soltanto umana.

L’undicesimo capitolo è La società per la buona IA. “L’IA può rendere possibile la realizzazione di sé, ossia la capacitò delle persone di prosperare in termine di caratteristiche, interessi, capacità o abilità potenziali, aspirazioni o progetti di vita.” – e ci si auspica che questo avvenga nell’ottica di una responsabilità morale che preveda la giustizia. La decisione ultima sulle scelte importanti della IA deve essere umana. Questo credo di dedurre da alcuni passi del testo di PROF.

“Tuttavia il rischio è che i sistemi di IA possano erodere l’autodeterminazione umana, poiché possono portare a cambiamenti non pianificati e voluti nei comportamenti umani per adattarsi alla routine che agevolano il funzionamento dell’automazione e rendono la vita delle persone più facile.”

PROF parla di un necessario e continuo “trade-off”: di una scelta continua fra opposte direzioni. Acceso/Spento. 1/0. Enten/Eller. Sì/no. Ora, poi. Di più, di meno.

Quello che non è commerciabile è la possibilità di scegliere. Ulteriore problema: chi sceglierà? Pioli, Gates, Floridi o il più ricco uomo del mondo che, anche in questi giorni ucraini, appare sui social a dire la sua con la sua bella faccia sorridente? Oppure l’umanità, concetto un po’ largo, essendo composta da otto miliardi di individui, fra cui spicca in questo momento un leader russo.

Il capitolo seguente è Il gambetto: l’impatto dell’IA sul cambiamento climatico. Il gambetto è, negli scacchi, il sacrificio di un pezzo per permettere a un altro di avanzare. La IA aiuterà a gestire il problema indicato nel titolo, grazie al sacrificio di qualche pezzo a cui siamo affezionati, in ossequio al sacramento derivato dal “matrimonio tra il verde di tutti i nostri habitat e il blu di tutte le nostre tecnologie digitali”.

Nel paragrafo 12.3 IA e cambiamento climatico sfide etiche, colgo l’unica esagerazione in tutto il saggio di PROF: gli europei “sono ampiamente disposti a condividere i propri dati per contribuire alla protezione dell’ambiente, una netta maggioranza (53%) lo farebbe solo a condizioni rigorose di protezione dei dati.”. Forse preso dall’emozione, PROF giudica un valore pari a poco più di metà decisamente significativo. In democrazia però lo è.

Un esempio di gambetto: “… numerosi modelli di IA, il cui addestramento richiede molta energia, tuttavia alleviano o sostituiscono del tutto compiti che altrimenti richiederebbero più tempo, spazio, sforzo umano e persino energia.”

Il penultimo capitolo è L’IA e gli obiettivi di sviluppo sostenibile delle Nazioni Unite. Lo scopo di PROF “è contribuire a identificare i problemi urgenti che, se disattesi, rischiano di ostacolare l’efficacia delle iniziative di AI4SG.” Questo è un compito planetario, per cui “gli obiettivi di sviluppo sostenibile (OSS) sono stati fissati dall’Assemblea generale delle Nazioni Unite nel 2015 per integrare gli aspetti economici, sociali e ambientali dello sviluppo sostenibile.”

Come il precedente e il successivo capitolo, come per tutto il saggio, l’unica cosa che mi pare ovviamente doveroso (allucinato ossimoro) consigliare è leggere ogni pensiero ivi esposto con la dovuta attenzione.

Meno male che sono sopravvissuto, giungendo al quattordicesimo capitolo!

Il verde e il blu di Luciano Floridi
Il verde e il blu di Luciano Floridi

Conclusione: il verde e il blu, in cui PROF cita Hobbes, le cui parole non riporto, così il lettore di questo mio striminzito articolo sceglierà di leggere l’intera opera. Il senso è: vivere è studiare, studiare è meglio che sopravvivere.

“La società dell’informazione è concepita più adeguatamente come società manifatturiera in cui materie prime ed energia sono state sostituite da dati e informazioni, il nuovo oro digitale e la vera fonte di valore aggiunto.” – ma sempre sovrastrutturale. La struttura principale è sempre l’economia e la domanda: a che ora si mangia oggi, e che?

“L’infosfera è uno spazio comune che deve essere preservato a beneficio di tutti.” – in un’ottica che deve riguardare ciascuno di quegli otto miliardi di bipedi, a casa loro o a casa nostra quando diventa casa loro.

Il saggio si conclude con una non troppo larvata minaccia di PROF: “La questione è che non potremo essere padroni dei nostri destini senza ripensare un’altra forma dell’agire, quella politica. per questo, la politica dell’informazione sarà il tema del mio prossimo libro.” – attendo, sfinito ma fiducioso.

PROF: il tuo libro è uno dei più chiari e cristallini (che è la stessa cosa) che abbia mai letto. Alla fine ci sei riuscito a farti capire almeno per cinque settimi, complimenti!

Ti attendo al solito posto, la buca delle lettere.

Un ultimo quesito, leggendo la risicata, appena 38 pagine, Bibliografia: Louise A. Dennis e Louise Dennis sono la medesima persona?

 

Written by Stefano Pioli

 

Bibliografia

Luciano Floridi, Etica dell’intelligenza artificiale, Raffaello Cortina Editore, 2022

 

Un pensiero su ““Etica dell’intelligenza artificiale” di Luciano Floridi: l’ultima generazione che ha vissuto l’offline

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *