Nelle prossime settimane recensiremo – a modo nostro - il bellissimo saggio di Cathy O’Neil Armi di distruzione matematica, oggi intanto, permetteteci di estrarre dal volume della matematica americana una serie di passaggi che raccontano in modo chiaro in cosa consistano le tecniche di microtargeting e profilazione avanzata utilizzate nelle ultime campagne elettorali ad esempio dagli analisti di Cambridge Analytica, dice la scienziata americana:
“Non mi spingerei, già ora, a qualificare gli algoritmi di Google e Facebook come armi di distruzione matematica, perchè non ho prove per dimostrare che utilizzino le loro reti per arrecare danni. Tuttavia, il rischio di abusi è alto. L’attività si svolge in codice e al riparo da imponenti firewall. E come vedremo, queste tecnologie possono posizionare ciascuno di noi nella nostra accogliente nicchia politica.
Alla fine del 2015, The Guardian ha riferito che una società di analisi dei dati, la Cambridge Analytica, aveva pagato alcuni docenti e ricercatori universitari britannici per raccogliere profili Facebook di elettori americani, con informazioni demografiche e i “mi piace” di ogni utente. Queste informazioni sono state poi utilizzate per elaborare analisi psicografiche di oltre 40 milioni di elettori, che sono stati classificati in base ai tratti della personalità secondo il modello dei “Big Five”: apertura mentale, coscienziosità , estroversione, amicalità e stabilità emotiva.
Secondo Zaynep Tufekci, tecno-sociologa e docente presso la University of North Carolina, questi gruppi prendono di mira elettori vulnerabili per poi bombardarli con campagne che agitano spauracchi, come una minore sicurezza per i loro figli o l’aumento dell’immigrazione clandestina. Allo stesso tempo, possono fare in modo che quegli stessi annunci non arrivino agli occhi di elettori che ne sarebbero indispettiti ( o addirittura disgustati ).
La validità del microtargeting spiega in parte perchè nel 2015 più del 43 per cento dei Repubblicani, secondo un sondaggio, credeva ancora alla bugia secondo cui il presidente Obama sarebbe di religione musulmana. E il 20 per cento degli americani credeva al fatto che fosse nato al di fuori degli Stati Uniti e che quindi la sua presidenza fosse illegittima.
Per questo motivo, sarà sempre più difficile vedere i messaggi politici indirizzati ai nostri conoscenti e, di conseguenza, capire perchè credono determinate cose, spesso in maniera appassionata. Persino un giornalista ficcanaso avrà difficoltà a ricostruire il messaggio. Non basta limitarsi a visitare la pagina web del candidato, perchè anche i siti internet profilano e targettizzano ciascun visitatore, passandolo ai raggi x: qual è il suo codice di avviamento postale, quali link clicca sulla pagina, quali fotografia dà l’impressione di guardare. E’ anche inutile creare dozzine di profili fasulli (fake), perchè il sistema associa ogni elettore reale a un’approfondita sommatoria di conoscenze che includono informazioni su acquisti, indirizzi, numeri di telefono, precedenti elettorali, nonchè il numero della previdenza sociale e i profili Facebook. Perchè il sistema possa credere di avere a che fare con una persona realmente esistente, a ogni profilo fake dovrebbe essere associato un ingente volume di dati.
Chi fa marketing in ambito politico possiede un corposo dossier su ciascuno di noi, ci somministra le informazioni goccia a goccia e misura le nostre reazioni. Ma veniamo tenuti all’oscuro delle informazioni che vengono invece fornite ai nostri conoscenti.
Trattano separatamente con le diverse parti in maniera tale che nessuno sappia cosa è stato detto all’altro.
Questa asimmetria dell’informazione impedisce alle parti in causa di unire le forze, che è invece l’obiettivo di un governo democratico.
Questa scienza in ascesa del microtargeting, con i suoi profili e le sue previsioni, si inserisce sin troppo bene nel nostro cupo campionario di armi di distruzione matematica. E’ di vasta portata, poco trasparente e fuori da ogni controllo. Fa da copertura ai politici, incoraggiandoli a presentarsi in modo diverso a persone diverse.
L’attribuzione di un punteggio a ogni singolo elettore rappresenta anche una minaccia per la democrazia, perchè una minoranza di persone viene ritenuta più importante, mentre gli altri sono relegati a un ruolo di secondo piano”.
Torneremo a citare Cathy O’Neil al termine di questa nostra riflessione in cui cercheremo di inglobare altri pareri, come siamo soliti fare in genere, per provare a fornirVi un ventaglio di considerazioni e ipotesi interpretative sulla questione che stiamo trattando il più ampio possibile. E’ delle ultime ore un pronunciamento ufficiale sulla questione “elettorale” e sugli strumenti più o meno leciti per influenzare il voto in forma digitale, degli stessi padroni del vapore, più volte chiamati in causa a proposito del polverone sollevato dallo scandalo Cambridge Analytica. Si tratta dei “compagni di Menlo Park” che hanno distribuito un copioso dossier sul tema che Repubblica ha ripreso in modo molto dettagliato. Nessun dubbio che se vorrete approfondire il tema seguirete il link che vi abbiamo postato, intanto sulla questione riportiamo la dichiarazione di un giornalista e dirigente del gruppo Gedi, Andrea Iannuzzi; il quale ha così sintetizzato alcuni dei passaggi salienti del dossier sulla sua pagina Facebook:
” Oggi ho partecipato a un incontro (telefonico) con i responsabili di Facebook (tra cui Nick Clegg) sul tema dell’ integrità delle elezioni europee.
Se vi interessa sapere cosa stanno facendo, con quali sforzi e quali limiti, ecco il resoconto
In breve:
– Mi pare che siano molto impegnati a rifarsi una reputazione dopo le vicende americane, Cambridge Analytica, etc…
– Sanno che l’Unione Europea non tollererà altri errori, interferenze, mancanza di trasparenza
– L’intelligenza artificiale è importante ma serve a poco se non è combinata e gestita da esperti umani
– C’è una guerra tecnologica in atto tra le piattaforme social e chi cerca di violarne le regole (ogni giorno milioni di falsi account vengono individuati e cancellati)
– C’è un problema di trasparenza, soprattutto nelle procedure (il caso Morisi lo dimostra)
– Quello che succede qui dentro ha un peso e conseguenze enormi sullo sviluppo della democrazia. Fb sembra rendersene conto, ma è importante che lo faccia ciascuno di noi
l’idea è reprimere ed eliminare non solo gli illeciti, ma anche contenuti leciti di cui però vogliamo eliminare traccia dal mondo. Almeno da quello digitale. E di farlo soprattutto attraverso strumenti tecnologici, in particolare attraverso algoritmi, gli unici che consentirebbero – secondo questa visione, consentiranno – di estirpare le erbacce prodotte dalle libertà in Rete abbastanza rapidamente da estinguere il fuoco purificatore che arde nelle redazioni e nelle stanze governative ”
Il nostro giudizio sull’operazione è molto preciso, molti di Voi già lo conoscono, noi siamo contro le gabbie, gli steccati e quindi le nuove norme più o meno fantasiose. Siamo soprattutto contrari all’affidamento “chiavi in mano” delle sorti del pianeta alle “armi di distruzione matematica” o peggio ancora, “ai titolari di queste nuove armi”. Una bella sintesi del nostro pensiero la ha messa insieme in una sua riflessione sul tema il nostro associato Marco Dal Pozzo, Ve la vorremmo proporre, dice Dal Pozzo:
“Se in gioco vi è il corso democratico dell’Europa (cioè deciso su una base di conoscenza comune acquisita con metodo trasparente) e se il rischio che si vizi il voto è concreto dopo i conclamati casi della Brexit e dell’elezione di Trump (raccontati da Carole Cadwalladr nel Ted X) non riesco a tenere per me il senso di disagio nel constatare che la linea che Facebook si appresta ad adottare per le elezioni europee sia stata presentata in un consesso ristretto e non con un comunicato pubblico. Il politically correct imporrebbe forse dei modi e uno stile diversi. Ma proprio non ci riesco. Ma mi auguro ci si possa confrontare su questo specifico punto.
Penso che per Facebook sia poi stato molto meglio mettere sotto una testata giornalistica un comunicato che, se fosse uscito da Menlo Park, avrebbe avuto molto meno impatto: scusate il disguido, pare dicano, ma da questo giro i buoni siamo noi.Â
Per quale motivo ci si dovrebbe fidare di uno scudo protettivo contro i rischi di manipolazione dei cittadini?Â
Con l’Associazione LSDI stiamo portando avanti una battaglia per la trasparenza degli algoritmi intendendo con ciò la trasparenza dei processi con cui i nostri dati personali vengono utilizzati (anche) per alimentare la news feed. Basterebbe solo questo. E invece no.ÂEmerge un paternalismo che se fosse solo irritante sarebbe il meno. Il pericolo è uno solo e si chiama censura: ciascun cittadino ha diritto di stabilire da sé la propria dieta informativa e nessuno può né deve imporre una notizia piuttosto che un’altra.Â
Dov’è la trasparenza di cui parla Clegg? Quali sono queste organizzazioni indipendenti di fact checking? Possiamo saperlo?Â
No, la soluzione non è la chiusura di Facebook né la sua nazionalizzazione (quest’ultima sarebbe peggio della malattia che si intende curare). La soluzione non è nemmeno l’automatica cancellazione di post per il solo fatto che qualcuno li abbia segnalati.
Diteci come funziona, per favore. Non insegnateci a vivere, vi preghiamo. Al resto ci pensiamo noi. Â
Il post di Morisi? A me non scandalizza che Facebook non l’abbia cancellato, anzi: direi che è un suo punto di forza (meglio non cancellarlo che cancellarlo in base ad un regola che non conosciamo!) Mi ha scandalizzato piuttosto che qualcuno abbia creduto lo potesse fare davvero. Ci ha infastidito? Bene, anche a me. Soluzione del problema? Ignorare, non amplificare!
Molto utili per comprendere ancora di più tutta la questione sono altre interessanti riflessioni che fa Fabio Chiusi su Valigia Blu  riflessioni che vanno oltre la questione di Cambridge Analytica e affrontano con grande precisione e dovizia di particolari la reazione più o meno scomposta dei potenti del mondo - in particolar modo dei governi - sul tema ancora più grande e importante delle “cosiddette” regole per la rete. Abbiamo anche in questo caso estratto alcuni passaggi dall’articolo di Chiusi :
” E allora ecco il duty of care, che dovrebbe segnare il passaggio da un approccio reattivo alla gestione dei contenuti online (si rimuovono previa segnalazione) a un approccio proattivo in cui sono le piattaforme ad assumersi alcune responsabilità circa i contenuti dei propri utenti, cercando di prevenire di trovarsi nella situazione di ricevere notifiche per la presenza di illeciti.
Ma la ratio è la stessa in tutto il mondo, sui problemi più svariati. L’idea di responsabilizzare le piattaforme, in un modo o nell’altro, è presente in diversi progetti di legge e testi normativi già approvati negli ultimi mesi – e sempre si accompagna a un potente incentivo, spesso implicito per evitare polemiche in termini di restrizione dei diritti online, all’adozione di “upload filters”, cioè di sistemi di filtraggio automatico dei contenuti illeciti o dannosi che ne impediscano non solo la diffusione, ma anche la stessa pubblicazione. Caso di scuola è la direttiva UE sul copyright, i cui proponenti hanno per mesi e mesi giurato non riguardasse sistemi di filtering, solo per poi ammettere che sarà possibile evitarli solo “finché possibile” (la Germania), o che anzi saranno obbligatori (Francia). Nelle parole del Commissario UE, Gunther Oettiger: «Per come stanno le cose, gli upload filters non possono essere completamente evitati».
Difficile giustificare questa foga censoria quando, come ricorda sempre l’ONU, “il diritto alla libertà di espressione si estende “non solo a “informazioni” e “idee” con cui siamo d’accordo, o riteniamo inoffensive o meritevoli di indifferenza, ma anche a quelle che offendono, scioccano e disturbano lo Stato o qualunque fascia della popolazione”.
il sito Archive.org bersagliato solo nelle ultime settimane da centinaia di richieste a livello UE di rimozione di materiale ritenuto falsamente di natura terroristica. Quando si rischierà , come secondo la proposta in esame, una multa fino al 4% del proprio fatturato per non aver comunque rimosso i contenuti segnalati entro un’ora, casi di questo tipo si moltiplicheranno, con ogni probabilità , senza fine.
A tollerare lo Sri Lanka che spegne i social media in concomitanza con la serie coordinata di attentati che ha causato la morte di oltre 250 persone il giorno di Pasqua, prima ancora che contenuti di disinformazione cominciassero a circolare: le piattaforme vengono ritenute responsabili, e punite, per la mera possibilità che vi circolino”.
Particolarmente illuminante sulla vicenda è un articolo di Jeff Jarvis citato anche da Fabio Chiusi nel suo pezzo e che si intitola:   Proposals for Reasonable Technology Regulation and an Internet Court e che vi consigliamo di leggere integralmente. Come al solito il professore-giornalista grande esperto di mondi digitali non tira fuori nessun coniglio dal cilindro ma invita alla riflessione tutti i soggetti in campo esortando allo studio e a rinnovare gli sforzi di comprensione e approfondimento delle problematiche evitando l’adozione di facili scorciatoie legislative che portano a scelte censorie e contrarie alla libera circolazione delle informazioni. Noi come al solito e a nostro giudizio proviamo ad estrarre alcuni punti salienti del lungo articolo del grande giornalista anglosassone:
Una società di tecnologia stabilisce un patto con i suoi utenti e le autorità che garantiscono ciò che fornirà . Di solito, questo documento obbliga gli utenti agli standard della comunità a governare comportamenti e contenuti indesiderati. Ma questo patto dovrebbe anche obbligare la compagnia a fornire specifiche garanzie sul prodotto erogato, al di là e al di là di quanto richiesto dalla legge.
Piuttosto che pensare alla rete come a un medium – e a ciò che appare lì come contenuto – ho esortato il gruppo (come faccio a chiunque mi leggesse qui) a pensarlo invece come un meccanismo per le connessioni in cui avviene la conversazione. Quella conversazione pubblica, con nuove voci a lungo ignorate e finalmente ascoltate, merita protezione. Ecco perché sostengo che la rete non è né editore né utilità ma qualcosa di nuovo: la macchina di connessione.
È fondamentale che qualsiasi discussione sugli sforzi legislativi inizi a livello di principi piuttosto che come risposta al panico momentaneo o al vantaggio politico
il punto migliore per iniziare è la Dichiarazione Universale dei Diritti Umani, in particolare:
Articolo 19.
Ogni individuo ha diritto alla libertà di opinione e di espressione; questo diritto include la libertà di tenere opinioni senza interferenze e di cercare, ricevere e diffondere informazioni e idee attraverso qualsiasi media e indipendentemente dalle frontiere.
Il NetzDG della Germania si spinge verso l’applicazione della civiltà richiedendo piattaforme per reprimere non solo l’incitamento all’odio, ma anche “diffamazione o insulto”. Google ha segnalato 52.000 denunce di questo tipo e ne ha cancellate 12.000. Tuttavia, a volte, l’insulto è giustificato. Dico che la civiltà e la civilizzazione non possono essere legiferate.
Sono preoccupato per l’appello di Zuckerberg per la regolamentazione globale, temo che la rete sarà gestita secondo il minimo comune denominatore di libertà e la più alta filigrana della regolamentazione.
Niente di tutto questo è facile e né le aziende né i governi – né noi come il pubblico – possiamo sottrarci ai nostri doveri di ricerca, discernimento, dibattito e decidere il tipo di internet e della società che vogliamo costruire. Questo è un processo lungo e arduo di tentativi ed errori e di negoziazione delle nostre nuove leggi e norme.
SalutandoVi ci congediamo – come anticipato - con un ultimo estratto dal libro di Cathy O’Neil: Armi di distruzione matematica. Un passaggio a nostro avviso bellissimo - quasi poetico - oltreché emblematico e che fotografa perfettamente l’istante, il momento esatto in cui stiamo vivendo. Un principio che potrebbe essere d’aiuto, di grande aiuto – se applicato - a tutti i soggetti coinvolti in questi complessi ragionamenti. Grazie dell’attenzione e a presto.
I processi basati sui Big data codificano il passato. Non inventano il futuro, cosa per la quale occorre la percezione che solo l’uomo possiede. Dobbiamo esplicitamente inglobare valori più nobili nei nostri algoritmi, creando modelli basati sui Big data che seguano la nostra guida etica. E talvolta questo comporta di dover anteporre l’equità al profitto.