Site icon LSDI

Umani e artificiali (1)

La professoressa Paola Inverardi  insegna informatica all’università dell’Aquila. In quella stessa università  è stata anche rettrice per sei anni dal 2013 al 2019. La dottoressa Inverardi si occupa di una delle questioni centrali della nostra società digitale -  a nostro avviso -  una componente estremamente rilevante nei rapporti sempre più complessi che si vanno sviluppando fra “uomini e macchine”. La questione etica. In particolare la professoressa Inverardi assieme ad un nutrito e composito team di ricercatori si occupa di studiare l’etica dei sistemi di software. Al festival “informatici senza frontiere”,  svoltosi a Rovereto nell’ottobre scorso,  la dottoressa Inverardi ha tenuto una conferenza su questo tema, dal titolo emblematico: ” Sistemi autonomi ed etica delle decisioni nelle interazioni con gli esseri umani”. E noi sbobinando il suo intervento, e aggiungendo spunti, nostre note e altre citazioni, vorremmo oggi proprio parlarVi di:  intelligenza artificiale e questione morale.  Ringraziamo dunque gli organizzatori del Festival e la professoressa Inverardi, con cui speriamo di poter presto collaborare direttamente, e Vi invitiamo a leggere e commentare qui e sui nostri account social questo pezzo. ;)

 

 

 

Di oggetti e loro “sentimenti” ci siamo occupati in più di un’occasione, la nostra più recente incursione sul tema è stata ad aprile di quest’anno, l’articolo si intitolava: Ponti e algoritmi e prendeva spunto dal libro della matematica di Hanna Fry “Hello world essere umani nell’era delle macchine”

 

 

 

Può un oggetto essere “cattivo”? O meglio, quanto può essere cattivo un oggetto?  La domanda arriva direttamente da un libro, un testo molto interessante che abbiamo letto e  studiato di recente e del quale vorremmo parlarVi oggi.  Il saggio si intitola “Hello world. Essere umani nell’era delle macchine” ed è stato scritto dalla professoressa di matematica Hannah Fry.  La scienziata inglese si interroga sul rapporto “uomo-macchina” ed esamina con dettagliati esempi e studi approfonditi, il mondo moderno e l’uso sempre più evidente e “invadente” di algoritmi informatici per tentare di “controllare” il mondo medesimo.

 

La storia abbonda di esempi di oggetti e invenzioni il cui potere si estende oltre il loro scopo dichiarato. In alcuni casi si tratta di una scelta malevola e deliberata di chi li ha progettati, ma altre volte tutto nasce da qualche dimenticanza sconsiderata: pensate, ad esempio, alla mancanza di rampe per disabili nei centri urbani. Talvolta è una conseguenza imprevista, come nel caso dei telai meccanici del XIX secolo: progettati per facilitare la realizzazione di tessuti dai motivi complicati, a lungo andare il loro impatto sui salari, sull’occupazione e sulle condizioni di lavoro li resero indiscutibilmente più tirannici del peggior capitalista vittoriano.

Le invenzioni moderne non sono diverse. Chiedete agli abitanti di Scunthorpe, nel nord dell’Inghilterra, impossibilitati ad aprire account Internet con AOL perché il provider, uno dei giganti della rete, aveva attivato un filtro anti-oscenità che censurava il nome della cittadina. O a Chukwuemeka Afigbo, il nigeriano che ha scoperto che un dispenser automatico distribuiva sapone senza problemi ogni volta che il suo amico bianco metteva la mano sotto il sensore ma rifiutava di riconoscere la sua pelle scura.

 

 

Come fare dunque a dare un’etica alle macchine? Ammesso che questo sia possibile, servono scienziati che studino queste dinamiche e riescano a mettere insieme le necessarie competenze per formulare una sorta di nuovo codice morale. Qualcosa di completamente nuovo, diverso e mai tentato prima. Siamo ai limiti della fantascienza. Siamo soprattutto in una dimensione tutta da costruire. Aggiungiamo dunque al ragionamento alcuni estratti dall’intervento della professoressa Inverardi

 

 

 

Io sono una informatica mi sono occupata nella mia vita fondamentalmente di ingegneria del software cioè di come si costruiscono sistemi software che possano convivere pacificamente e rispettosamente nel nostro mondo degli umani

 

Il mondo nel quale viviamo è un mondo digitale e naturale al tempo stesso. La distinzione tra cosa è digitale e che cosa è naturale è molto difficile – sempre più difficile -  da comprendere. Capire dove finisce, nella nostra vita ordinaria, il mondo reale e inizia il mondo digitale,  non è più così chiaro. Abbiamo parti della nostra vita che vivono nel mondo digitale, si intersecano con il mondo digitale,  e questo ha a che fare con le nostre relazioni sociali,  con i nostri affari privati col nostro lavoro. Siamo già immersi in una realtà ibrida.  Luciano Floridi,  filosofo italiano, è stato il primo che ha lavorato estensivamente sui problemi etici della società digitale, e chiama questa nostra società la società delle mangrovie.

Le mangrovie – dice – sono quelle piante che vivono in genere alla confluenza degli estuari dei fiumi, quindi vivono in in un contesto naturale e ambientale misto dove non si capisce se l’acqua è dolce o salata.

Ecco questa metafora secondo me è molto bella.  Le radici delle mangrovie rappresentano la metafora della nostra società:  un po’ analogica e un po’ digitale.

Al centro della mia chiacchierata ci saranno i sistemi autonomi,  capiremo cosa significano questi sistemi autonomi. Serve un approccio etico nella  progettazione di questi  sistemi. Parlerò di etica digitale.  Allora che cos’è un sistema autonomo e come nasce un sistema autonomo? Noi siamo stati abituati a sistemi digitali che dovevano svolgere un certo compito e che erano “operati” cioè c’era un operatore che forniva i dati al sistema per permettergli di fare il suo mestiere. Immaginate un sistema di controllo di una diga. C’era sicuramente qualche sensore,  qualche elemento fisico che poteva dare elementi di input al sistema di controllo,  ma poi c’era sempre anche un operatore che riusciva  con la  conoscenza del contesto, magari conoscendo le previsioni meteo, a decidere che cosa il sistema di controllo della diga poteva fare in situazioni un po’ più complesse.

Nel mondo tradizionale l’operatore era esterno al sistema digitale ma era funzionale al funzionamento del sistema digitale perché in qualche modo era l’elemento di connessione tra il mondo chiuso del sistema e tutto quello che circondava questo sistema.

Nell’era dell’internet of things cioè nell’era in cui il contesto è digitalizzato a un certo livello di astrazione, esiste la possibilità di comunicare wireless o connessi, le informazioni del contesto direttamente col sistema.  L’utente serve sempre meno. Perché se il sistema ha la capacità di prendersi dati direttamente,  utilizzando dispositivi che sono nel mondo che lo circonda,  il ruolo dell’operatore viene meno. Pensiamo  ad esempio ai veicoli a guida autonoma. L’auto, se la strada è dritta va dritto,  se la strada curva, curva, se c’è un ostacolo frena,  se c’è un semaforo si ferma. Tutto questo la macchina lo può fare da sola a che serve l’operatore? Questo è un sistema autonomo.

Noi siamo andati un po’ oltre. Abbiamo costruito sistemi che magari anticipano quello che un operatore farebbe. Si dice che il sistema è andato oltre i suoi confini e ha invaso i confini, gli  spazi di decisione dell’utente.  Va bene se lo fa la lavatrice,  mi toglie il peso di dove mettere e quanto detersivo usare perché è capace di calcolarsi da solo quanto detersivo ci vuole. Se però lo fa l’auto decidendo se vuole ammazzare una persona allora  sono meno contenta.

Indipendentemente dalla natura,  proprietà e uso delle informazioni che eventualmente il sistema si prende da solo, le decisioni che prende possono impattare  su quelli che sono i diritti morali dei cittadini,  di ognuno di noi.

I sistemi automatici possono toglierci spazi di libertà nell’ambito della sfera delle nostre libere scelte,  e magari non ne siamo nemmeno consapevoli.

Come fa il veicolo a guida autonoma? Vede la strada attraverso  vari sensori, ha le informazioni sulle infrastrutture e sui percorsi grazie alle mappe pre-caricate e aggiornate continuamente.  Noi possiamo stare seduti comodamente e viaggiare senza preoccuparci di niente.  Esattamente come già facciamo da tanti anni sulla linea 1 della metropolitana di Parigi che è a guida autonoma,  ma nessuno lo sa  o sembra preoccuparsene, e sono tutti contenti.

 

 

 

Gli oggetti decidono, hanno sempre “deciso”, autonomamente, anche prima di essere dotati di un proprio “cervello”, lo abbiamo accertato da tempo, e lo abbiamo anche già scritto servendoci di validi esempi dal passato e di teorie ampiamente suffragate da dimostrazioni scientifiche. Ovviamente si tratta di un paradosso per dimostrare che attraverso gli oggetti, la loro costruzione specifica, il loro uso, l’uomo ha inteso “fare la differenza”, interferire, orientare – per usare un eufemismo -  imporre – fuor di metafora -  le decisioni, i comportamenti degli  altri uomini. Ora che l’intelligenza artificiale viene usata in modo sempre più massiccio subentrano ulteriori questioni. E la faccenda si fa, ancora, più complessa. Come spiega molto bene, a nostro avviso,  in questo passaggio Federico Cabitza nel suo ultimo libro, scritto assieme a Luciano Floridi,  che si intitola “Intelligenza artificiale. L’uso delle nuove macchine” :

 

 

 

Bruno Latour (1994) sostiene che gli artefatti traducono il loro “programma di azione”. Questo “programma” può essere descritto da serie di istruzioni, quello che Latour chiama script. Ad esempio un dosso stradale, con la sua forma, durezza, posizione e altezza, rappresenta, a chi abbia l’intelligenza di capirlo, lo script di una istruzione che dice grosso modo così: “rallenta quando mi passi sopra”; una vecchia chiave di albergo, di quelle con un voluminoso portachiavi attaccato, suggerisce all’ospite di restituirla alla reception prima di uscire dall’albergo (perché scomoda da portare con sé). Questi esempi (fatti da Latour stesso) potrebbero suggerire che gli strumenti sono etici e possono perfino avere una funzione moralizzatrice; ma in realtà è una questione di prospettiva: in un esempio reso celebre da Winner (1980), un ponte dall’arcata troppo bassa, costruito sopra una strada statale che unisce un centro cittadino a una località di mare, suggerirà agli autisti di certi mezzi pubblici che non possono passare per quella strada (o almeno si spera lo faccia), e così impedirà ai suoi potenziali passeggeri, persone che presumibilmente non sono abbastanza abbienti da possedere un’automobile di loro proprietà, di raggiungere la costa (se non per strade lunghe e tortuose): ogni artefatto ha un suo programma d’azione, connotato anche politicamente, conclude Winner.
Ovviamente tutti gli artefatti che ho citato sopra sono costruiti da qualcuno in un modo preciso, per esprimere comportamenti desiderabili e scoraggiare quelli indesiderati (VERBEEK, 2005), vincolando l’utente a ciò che si ritiene giusto o semplicemente spingendolo a fare il giusto, come tentano di fare i programmi concepiti dai promotori del cosiddetto “paternalismo libertario” e della pratica del nudging (SUNSTEIN, 2014). Da questa prospettiva si può concludere che ogni programma di azione esprime sempre un qualche valore, codifica certi principi e li traduce in comportamenti in grado di influenzare l’agire umano secondo una precisa (anche se non sempre manifesta) deontologia.
Per le macchine digitali certi discorsi si interpretano anche più facilmente che per chiavi di albergo e ponti: lo script è codificato in termini di “algoritmo”. La sua esecuzione (o interpretazione) da parte di una macchina computazionale fa emergere il programma, e questo esprime un funzionamento, cioè quello che alla luce di “determinate serie di obiettivi definiti dall’uomo” è una funzione della macchina e, nel caso di macchine interattive (come sono molti sistemi AI), dei comportamenti, attuati dall’ibrido uomo-macchina, uomo-e-tecnologia-in- uso. Allora è bene riflettere su una idea che segue quasi naturalmente da quanto detto sopra: se sia possibile inscrivere comportamenti etici nello script delle macchine digitali, e quindi nei loro algoritmi.

 

 

 

Eccoci di nuovo a “bomba”. Dobbiamo comprendere se sia possibile e come eventualmente sia possibile: “inscrivere comportamenti etici nello script delle macchine digitali, e quindi nei loro algoritmi”.  E’ ora, permetteteci l’inciso,  di smettere di seguire i dettami del marketing o peggio che mai, di alcune specifiche aziende, ancorché meta-nazioni digitali, più che aziende. Non possiamo e non dobbiamo lasciare loro l’amministrazione della nostra vita, dei nostri comportamenti, dei nostri desideri, persino dei nostri pensieri. Solo perché sono potenti, ricche, e ci fanno trovare sempre di più la “pappa pronta”.  Non sono loro l’unico futuro possibile. Parafrasando Brenno – Vae victis – guai a noi, soprattutto se ci sentiamo appagati, o meglio vinti proseguendo nella metafora. Il futuro può essere davvero bellissimo e la tecnologia può avere un ruolo determinante nell’aiutarci a renderlo tale, ma solo se la comprenderemo e la useremo con la necessaria consapevolezza. Come ci suggerisce ancora la dott.ssa Inverardi in un altro estratto del suo intervento:

 

 

 

Ci sono lavatrici fantasmagoriche che vengono utilizzate  da remoto via internet e che decidono da sole programmi, lunghezza del lavaggio a seconda del tipo di tessuti.  Un  sistema di gestione automatica delle code  -  alla posta ad esempio – è una cosa bellissima. Sistemi creati per evitare di farci perdere tempo nelle code,   in grado anche di calcolare quanto tempo devi aspettare e comunicarti con precisione estrema – tramite l’invio di un sms -  quando presentarti allo sportello. Ma se decidessimo di scambiarci di posto in coda con qualcuno che riteniamo abbia più urgenza di noi di arrivare allo sportello? Lo facciamo spesso, ad esempio al supermercato. Ebbene in sistemi come questo è molto poco probabile che si possa fare.

Il sistema sarà stato progettato con un algoritmo: first in first out – il primo arrivato sarà servito.

Ecco è questo che ci rende diversi. Svolgere un’azione etica importante,  ci rende unici,  ci rende uomini e donne,  ci rende esseri umani. Un sistema che mi toglie questa libertà di scelta, di azione,  impatta sulla mia morale,  sui miei diritti morali.

Si può dunque progettare un sistema che non ci imponga questi limiti? Certo che si può! Basta che il sistema sappia quali sono le decisioni non negoziabili e quali quelle negoziabili.  E quindi per tutta la sfera delle decisioni  negoziabili sia in grado di accettare l’interazione con l’utente. Quindi sia progettato per scambiarsi di posto nelle code, ad esempio.

Un sistema di questo tipo è una cosa impegnativa da progettare, ma perché sia rispettata l’etica, siano rispettati i diritti delle persone, deve essere pensato in questo modo. Questa è la prospettiva del nostro progetto.  Il nostro punto di vista.

Facciamo un esempio. Il problema della privacy è quello più noto a tutti. La privacy ha una dimensione etica. C’è una dimensione di informazioni personali su cui noi vogliamo mantenere un diretto controllo, questa definizione sta dentro la carta dei diritti dell’uomo europea,  non è un caso che l’Europa sia stata la prima a fare una legge in tal senso:  il gdpr – general data protection regulation – che è una legge varata nel maggio del 2018, ed è la legislazione più avanzata sul diritto alla privacy.

Ogni volta che accedete a un  sito web vi viene fuori un banner che vi chiede di accettare la politica dei cookies, viene fuori per via del gdpr.  Il gdpr chiede il consenso al trattamento dei dati per fare in modo che chi utilizza il sistema sia informato di quello che potenzialmente può succedere ai propri dati.  I sistemi devono chiedere questo consenso per legge,  ma questo non significa che  il mio diritto sia salvaguardato,  perché se cerco una certa informazione darò il consenso al trattamento dei miei dati a tutti per riuscire ad arrivare a quell’informazione. Questo fatto già delinea il concetto fondamentale che io voglio portare alla Vs attenzione,  e cioè  che in una società digitale come la nostra,  non basta la norma. Una legge non mi consente di essere allo stesso livello, di agire alla pari, degli altri soggetti coinvolti, ad esempio le piattaforme che raccolgono i miei dati. La legge dice che rubare è reato. Ma questo non significa che  non ci siano i ladri e non implica  nemmeno che io lasci le porte di casa aperte. In quanto cittadino di uno Stato, sono protetto dalle leggi del mio Paese,  ma questo non mi da garanzie assolute. Per aumentare il livello di protezione devo  anche essere proattivo cioè evitare  di lasciare le porte e finestre aperte, oggetti costosi in vista, etc.etc. La stessa cosa succede nel mondo digitale. Gli strumenti di intelligenza artificiale devono  essere spiegabili si deve  poter scoprire come sono arrivati alla decisione. Sono strumenti tecnici che servono a noi per costruire i sistemi in modo che siano più trasparenti.  Negli studi avanzati di robotica,  in quelle che si chiamano tecnologie autonome,  hanno un posto sempre più grande questioni  relative alla  sfera morale. Manca però, una visione complessiva,  un modo collettivo di ragionare,  un processo di riflessione e dialogo che abbia come centro i valori intorno ai quali noi vogliamo organizzare la nostra società che, a questo punto, è una società digitale. Quali sono questi valori?  Si tratta di dilemmi etici, dilemmi da cui non possiamo scappare. Ad esempio il problema del carrello.

 

 

 

Macchine avanti adagio, e alla via così. Scusate e permetteteci l’inserto marinaresco, per concludere questo post. Invero trattasi solo della prima parte dell’articolo dedicato all’etica delle macchine e allo sbobinamento con inserti, aggiunte, riflessioni e altri ammenicoli testé scritto et or ora rilasciato al pubblico giudizio su questi lidi. Siamo dei giocherelloni, lo sapete!

RingraziandoVi  tutti e tutte, per la pazienza e la lettura, Vi rimandiamo alla prossima settimana per la seconda e ultima parte del testo, e Vi lasciamo col video integrale dell’intervento della professoressa Inverardi sui “Sistemi autonomi ed etica delle decisioni” tenuto al Festival “Informatici senza frontiere” di Rovereto. Buona settimana ;)

 

 

 

(La parte sbobinata in questo nostro primo post va dal minuto 00 al minuto 28 ca.)

 

./.

 

 

Exit mobile version