Site icon LSDI

I relatori di #digits17 – Deborah Bianchi

Prosegue la discesa a tappe verso #digits17, anzi meglio, verso il primo appuntamento con la nostra manifestazione che come oramai avrete saputo, se ci seguite un pochino, quest’anno si sdoppia e prosegue dopo la Toscana, anzi meglio, dopo il  ” PIN di Prato 28 ottobre ”  verso altri lidi nel resto dell’Italia, preparandosi a diventare un modello esportabile, perchè no?

 

 

Pronto finalmente il programma definitivo, anche impaginato e graficamente rifinito grazie al lavoro di Francesco Vieri, artista fotografo pratese già passato per digit, che si è prestato -  bontà sua -  a darci una mano per realizzare il manifesto della tappa pratese della nostra manifestazione, eccolo a Voi diviso in due:

 

 

Nella prima parte troviamo il panel introduttivo sul tema degli algortimi e i workshop specifici sui singoli argomenti. Nella seconda parte i tavoli tematici di discussione, una novità introdotta lo scorso anno a digit, che ha avuto un enorme successo, e che ci ha convinto della bontà dell’idea e della possibilità di replicarla e ampliarla. Quest’anno in tema di algortimi i primi 5 tavoli di approfondimento si occuperanno di approfondire il tema dell’ambiente: parleremo assieme ad un nutrito pool di esperti: Valentina Grasso, Marco Talluri, Alfonso Crisci, Sergio Ferraris, Cristina Galasso di energia, di rifiuti, di clima, di qualità dell’aria e dell’acqua e di emergenze ambientali. Ne parleremo provando a capire come attraverso l’analisi dei dati realizzata usando appunto gli algoritmi si sia, o molto presto, saremo in grado di prevedere i comportamenti della natura. Siamo o saremo in grado di gestire al meglio i nostri consumi energetici, ma anche la nostra produzione di rifiuti e magari anche lo smaltimento dei suddetti: forse meglio concentrarsi sulla non produzione degli scarti invece che comprendere meglio come smaltirli?

Partiremo dunque alle 9,30 di sabato 28 ottobre provando a capire l’origine degli algoritmi e il loro impiego prima in matematica e poi con l’avvento delle macchine di calcolo in informatica. Lo fareme assieme a Michele Mezza che è a nostro avviso il giornalista italiano meglio informato sul tema, e assieme a pensatori illustri come Derrick de Kerckhove che degli algortimi sta studiando la funzione sociale, Piero Dominici che è lo studioso italiano dell’ipercomplessità sociale e Mario Rasetti, fisico digitale come lui stesso si definisce, che studia e realizza algortimi previsionali, quello delle epidemie è una sua scoperta.

 

A supportare gli scienziati e per farci comprendere meglio come vengano usati questi algoritmi nella vita di tutti i giorni, ci sarà un amministratore pubblico ovvero un politico regolarmente eletto e che nella sua funzione di sindaco o di assessore abbia o debba avere sempre di più nella realtà quotidiana, anche un poco l’obbligo di usare questa gigantesca mole di dati che ogni giorno ciascuno di noi diffonde online per realizzare al meglio il proprio mandato, e ci sarà anche un esperto di marketing, Pier Luca Santoro, che ci aiuterà a comprendere come tutti questi dati che diffondiamo e che le aziende interpretano attraverso l’applicazione di specifici algortimi, siano un modo per fare profitto e forse anche un poco alle nostre spalle?

 

Nel pomeriggio a partire dalle 13 fino alle 19 nelle tre aule del PIN di Prato in cui si realizzerà la nostra manifestazione si alterneranno relatori e nuovi workshop a cadenza di due ore l’uno dall’altro. Dei tavoli Vi abbiamo già parlato, vediamo ora nel dettaglio i sei workshop: si comincerà con Libertà e Politica due temi giganteschi che analizzati attraverso la lente degli algoritmi dovrebbero fornirci molti utili elementi di comprensione della quotidianità e dei comportamenti di taluni professionisti realizzati proprio mettendo in relazione gli algoritmi con tali tematiche. Ad esempio Pier Luca Santoro e Lorenzo Pregliasco potrebbero farci capire come la profilazione dattagliata dell’elettorato, realizzata proprio applicando specifici algortimi, abbia determinato la vittoria nelle ultime due elezioni in America e Francia di Donald Trump ed Emmanuel Macron e di come questi meccanismi difficilmente potranno essere messi in atto nel BelPaese a poche settimane dalle nostre elezioni. Benedetto Ponti e Claudia Dani ci spiegheranno invece come sia possibile che in America i giudici usino gli algortimi per prendere decisioni fondamentali per la vita di alcune categorie di persone.

 

Nei workshop che si svolgeranno fra le 15 e le 17 torneremo a parlare di giornalismo, in particolare Marco Giovannelli e Andrea Boscaro ci spiegheranno perchè il giornalismo locale è così importante per la sopravvivenza stessa della nostra professione e come mai anche Google si stia interessando a questi specifici contenuti giornalistici. Nell’altro workshop Luca Boscaro e Vittorio Pasteris proveranno invece a farci capire come funzionano le camere dell’eco: di facebook ad esempio; introducendo un elemento di semplificazione per fare in modo di permetterci di riprendere il controllo di queste bolle, o meglio, di averne piena consapevolezza attraverso l’uso di uno strumento informatico.

 

A conclusione della giornata di lavoro – dalle 17 alle 19 -  andranno in scena due workshop dedicati all’ innovazione e alla cultura. 5G e algoritmi sarà un modo per capire come in quattro massimo cinque anni ci troveremo di nuovo immersi nell’ennesima rivoluzione tecnologica che avrà enormi ripercussioni sulla qualità della nostra vita; e di come sia sempre più importante di pari passo all’evoluzione delle tecnologie tenere conto delle relative evoluzioni culturali per comprendere i cambiamenti in atto. E proprio di queste evoluzioni e della necessità di facilitarne o meglio agevolarne la comprensione si occuperà il workshop dedicato ad algortimi e comunicazione in cui Daniele Chieffi e Stefania Iannizzotto ci aiuteranno a comprendere queste dinamiche fornendoci utili elementi di interpretazione.

 

 

Ma come sapete e come già sottolineato poche righe più sopra in questo stesso post, digit quest’anno si trasforma in digits, e oltre all’evento del 28 ottobre a Prato, saranno molti altri gli eventi che realizzeremo in giro per l’Italia. In questi altri eventi che si svolgeranno a Roma, Milano, Perugia, Venezia e in tanti altri luoghi del BelPaese parleremo sempre del nostro tema dell’anno: gli algoritmi, ma ne parleremo provando a declinarli assieme ad altri esperti in tanti altri modi diversi. Una delle prossime protagoniste di uno degli altri eventi digit che andremo a realizzare sarà l’avvocato Deborah Bianchi.  Deborah che studia e si occupa da anni di diritto e internet, sarà relatore di un workshop e certamente anche di un tavolo di lavoro, dedicati al delicato e attualissimo tema del diritto all’oblio. Ma lasciamo che sia lei stessa a parlarcene e Buona lettura e buon #digits17 a tutti!

 

>>> il programma scaricabile<<<

 

 

 

Oblio contro Big Data: “non essere” per “essere”.
La tutela giuridica della persona poggia sul principio fondante secondo cui ciascun essere umano e’ unico e irripetibile degno di una valutazione ad hoc per ogni caso giudiziario.
I Big Data invece appartengono al mondo dei sistemi automatizzati e degli algoritmi che si fondano sull’analisi massiva dei comportamenti più frequenti da cui si evincono previsioni di comportamento tese a standardizzare, a costruire “identita’ di gruppo”. Il rischio principe di uno scenario siffatto e’ la perdita stessa del “valore uomo”.
La lettura del Parere del Comitato Nazionale di Bioteca sui Big Data offre il quadro preciso della situazione:
I comportamenti selezionati sono solo quelli frequenti: la frequenza è l’elemento chiave della rilevazione statistica. Con la conseguenza che comportamenti non frequenti (isolati o rari) rischiano di essere marginalizzati nell’era digitale, … Bisognerebbe invece rendere consapevole l’utente digitale che gli algoritmi costruiscono correlazioni e predizioni che riguardano la “probabilità” (calcolata matematicamente) e che non coincidono con la realtà (né con l’evidenza, o la causalità o l’imprevedibilità che deve rimanere sempre possibile e pensabile). Gli algoritmi costruiscono un’identità che diviene sempre più collettiva. Si parla di group identity. È la profilazione, che identifica la maggiore e minore probabilità o propensione ad agire in certi modi, di certi gruppi stratificati di individui.
Ma sulla base di quali criteri sono costruiti gli algoritmi? La rilevanza etica della trasparenza nell’uso degli algoritmi utilizzati dai provider riguarda il rilascio e il trattamento dei dati personali“(“Tecnologie dell’informazione e della comunicazione e Big Data: profili bioetici”, Comitato Nazionale Bioetica, 25.11.2016, 2.2. Trasparenza: l’etica degli algoritmi e la neutralità della rete).
Il legislatore europeo ha colto dunque nel segno. Occorre un istituto “radicale” per sottrarre il “valore persona” all’omologazione degli algoritmi predittivi. Occorre cancellarsi, “non essere” per continuare a “essere” se stessi e conservare la propria identità personale sia on line che off line.
Da qui la stretta correlazione tra trasparenza dell’algoritmo, Big Data e diritto all’oblio.
Potremmo dire che l’oblio sia la valvola di sicurezza della Società delle Intelligenze Artificiali.
Il danno discriminatorio da Data Analytic.
Il 6 gennaio 2016 la Federal Trade Commission ha pubblicato il rapporto “Big Data: a Tool for Inclusion or Exclusion?”https://www.ftc.gov/reports/big-data-tool-inclusion-or-exclusion-understanding-issues-ftc-report dedicato all’utilizzo dei Data Analytic nell’ambito del settore commerciale privato da cui si evince un forte rischio di discriminazione delle parti di popolazione a più basso reddito. Le aree maggiormente critiche risultano il settore bancario, quello assicurativo e quello scolastico.
Settore Bancario. La legge antidiscriminazione americana – Equal Opportunity Law – vieta agli istituti di credito di operare discriminazioni nella concessione dei prestiti. Le analisi di settore condotte sulla scorta dei Big Data hanno rivelato che le persone single hanno maggiori difficoltà a restituire i denari prestati rispetto alle persone sposate. Pertanto l’istituto di credito che rifiuta il finanziamento o lo concede a condizioni più gravose al single rispetto a un soggetto coniugato assume una condotta discriminatoria a danno dei single.
Settore Scolastico. Gli istituti scolastici hanno usato gli algoritmi applicati ai Big Data per individuare gli studenti idonei per le classi avanzate introducendo una governance improntata al determinismo piuttosto che al rispetto del libero arbitrio dello studente di scegliere la classe da frequentare. Anche in questo caso si materializza una discriminazione che causa un danno da perdita di chances a carico degli studenti esclusi per non aver potuto intraprendere un determinato tipo di studi che avrebbe dato accesso a un certo tipo di carriera.
Settore Medico. Nel settore medico i Data Analytic registrano un alto tasso di rischio discriminazione. Quest’ultimo dato si registra anche in Italia. Il Comitato Nazionale per la Bioetica nel parere “Mobile-health e applicazioni per la salute: aspetti bioetici” 28.5.2015 ha osservato che “qualsiasi informazione può assumere rilievo e divenire discriminatoria se collegata ad altre e utilizzata per effettuare profili dei singoli utenti … Possono emergere elementi rilevanti per il mercato dei farmaci, delle prestazioni mediche, delle assicurazioni e del lavoro…. Come impedire, ad esempio, che chi frequenta siti o acquista app sui problemi cardiaci sia classificato come possibile cardiopatico e che poi questa informazione giunga al mondo del lavoro o al mercato delle assicurazioni? … Si pensi all’ipotesi in cui nell’immediato futuro i cittadini per la stipula di polizze assicurative ramo vita e/o sanitarie potrebbero essere classificati in diversi „clusters‟ a condizioni economiche più vantaggiose, in funzione del dimostrato utilizzo di tali pacchetti tecnologici (cioè i mobile-Health Kit), talché l’uso stesso si renderebbe “quasi obbligatorio”, pena l’esclusione dai gruppi di assicurati a minor premio. … Inoltre emerge il problema dell‟esclusione di chi non ha accesso alla tecnologia, ossia il problema del divario tra chi ha strumenti e competenze e chi è emarginato per mancanza di tecnologie o mancanza di conoscenza dell‟uso delle tecnologie e/o motivazioni alla conoscenza (anziani, disabili, persone indigenti e non sufficientemente competenti per l‟uso effettivo delle tecnologie)“.
Conclusioni
Gli algoritmi della Data Analytic, a seconda della logica impressa, possono costituire delle funzioni di inclusione o di esclusione individuale e sociale.
Il nostro compito è far capire alla gente quali sono gli algoritmi “cattivi” e quali sono gli algoritmi “buoni” ovvero quelli che servono all’inclusione delle persone e non alla loro esclusione. Pertanto vorrei evidenziare che il criterio cardine per stabilire se un algoritmo sia buono o cattivo non risiede nella relativa capacità di risolvere problemi e di essere di utilità perché anche gli algoritmi cattivi sono utili. Il criterio cardine risiede nella capacità inclusiva.
Nessuno ordinamento giuridico civile o civico può ammettere anche solo la possibilità che la persona possa essere discriminata e quindi esclusa da una macchina.
La lesione viene inflitta da sistemi automatizzati rispondenti all’intelligenza artificiale degli algoritmi predittivi. In definitiva il soggetto viene sottoposto al vaglio di una macchina. Questa incivile offesa e umiliazione del “valore persona” non può che essere adeguatamente risarcita riconoscendo anche il danno morale.
Deborah Bianchi 
Avvocato specializzato in diritto dell’Internet
(attenzione per prenotare  i nostri eventi dentro la piattaforma sigef selezionare il pulsante corsi enti terzi)
Exit mobile version