Umanità e sistemi di calcolo
Zeynep Tufekci, sociologa turco-statunitense che studia l’impatto reciproco di tecnologia e società , pensa che gli algoritmi per loro natura abbiano in se una tendenza alla parzialità perchè sono creati da esseri umani che sono di parte e “ottimizzano il prodotto in base ai parametri scelti dall’azienda in condizioni ugualmente scelte dall’azienda”. L’algoritmo fa coincidere il concetto di rilevanza con il concetto di interesse individuale. Strutturalmente tu vedrai delle cose che lui pensa che ti interessino, non tutto quello che c’è da vedere. Tutta la rete, tutta quella che viene  filtrata da un motore di ricerca, da un social, dagli algoritmi insomma funziona in questo modo. Utilizzare un approccio unicamente software-based può essere rischioso e portare ad azioni non utili o addirittura dannose. Spesso non sappiamo abbastanza su come i sistemi algoritmici lavorano per sapere se sono più giusti di quanto gli esseri umani sarebbero da soli. In parte perché i sistemi fanno scelte sulla base di ipotesi sottostanti che non sono chiare anche ai progettisti dei sistemi, non è necessariamente possibile determinare quali algoritmi sono distorti e quali no. E anche quando la risposta sembra chiara la verità a volte è più complicata di come appare.
Sul lavoro della tecno-sociologa, che ha scritto anche alcuni libri, nessuno di questi purtroppo tradotto nel nostro Paese, abbiamo provato a formulare alcune nostre riflessioni. In particolare partendo dalle dichiarazioni della studiosa di origine turca che vive e lavora in America riportate qui sopra abbiamo estratto alcuni passaggi a nostro giudizio esplicativi di alcune sue teorie ricavandoli da un suo speech ad una conferenza Ted x di cui trovate qui sotto il video integrale.
Guardiamo a un fatto semplice delle nostre vite digitali, le pubblicità . Giusto? Tendiamo a ignorarle. Sembrano rozze, di scarso effetto. Tutti abbiamo avuto la sensazione di essere inseguiti sul web da pubblicità basate su cose che abbiamo cercato o letto. Lo sapete, cercate un paio di stivali e per giorni, questi stivali vi seguiranno dovunque andiate. Persino quando cedete e li acquistate, continueranno a seguirvi ancora. Siamo quasi abituati a questo tipo di manipolazione grossolana. Alziamo gli occhi e pensiamo, “Sai? Queste cose non funzionano.” Tranne che, online, le tecnologie digitali non sono solo pubblicità . Per capire meglio, prendiamo un esempio del mondo fisico. Sapete che nei supermercati, proprio vicino alle casse trovate dolci e gomme ad altezza occhi di bambino? È fatto apposta per farli piagnucolare proprio mentre i genitori stanno per pagare alla cassa. Questa è architettura persuasiva. Non è bella, ma funziona. E infatti la vedete in tutti i supermarket. Nel mondo reale, queste architetture persuasive sono un po’ limitate, perché si può caricare fino a un certo punto l’angolo della cassa. Inoltre dolci e gomme, sono uguali per tutti, anche se funziona di più per le persone che hanno piccoli bimbi frignanti accanto. Nel mondo fisico, viviamo con queste limitazioni.
Nel mondo digitale, invece, le architetture persuasive possono essere costruite su larghissima scala e possono colpire, dedurre, capire, essere costruite su misura per singoli individui, uno per uno, scoprendo le debolezze, e possono essere inviate sugli schermi privati dei nostri telefoni, così da non essere visibili a tutti. E questo è differente. Questa è una delle cose basilari che l’intelligenza artificiale può fare.
In Usa i dati di navigazione e di esperienza sono raccolti e venduti, in Europa ci sono leggi più restrittive.
Ciò che succede e che gli algoritmi lavorano sui dati che vengono collezionati cercando di apprendere i nostri comportamenti. Ma lavorano in modo tale che alla lunga nemmeno più chi li ha progettati riesce a capire come funzionano, pur avendo a disposizione tutti i dati che l’algoritmo stesso utilizza. Sarebbe come pretendere di capire a cosa sta pensando il cervello umano se ne visualizzassimo una sezione.
È un meccanismo, una intelligenza che alla fine non capiamo più.
Un ingegnere disse che con un algoritmo funzionante sui post pubblicati su Facebook si può riuscire ad anticipare uno stato maniacale prima che si manifestino i sintomi clinici. Ma non sapeva esattamente come questo fosse possibile.
Studiando la campagna di Trump su Youtube, l’algoritmo ci presentava video sui suprematisti bianchi. Guardando quelli di Hillary l’algoritmo proponeva filmati sulle tesi cospirazioniste di sinistra. La riflessione che questi comportamenti mi suggeriscono è: “anche se l’algoritmo di Youtube è proprietario, ha capito che se può attrarre gente e pensare che può portarli su cose ancora più spinte le persone rimangono su Youtube fino a farle entrare nella tana del coniglio (la pubblicità ). Mentre Google mostra le sue pubblicità â€.
Nel 2010 è nel 2012 è stato dimostrato che il post di Facebook che metteva in evidenza chi dichiarava di essere andato a votare ha portato alle urne rispettivamente circa 300.000 e circa 100.000 elettori. Se pensiamo che nel 2016 Trump ha vinto con 100.000 voti di scarto si capisce quanto una scelta fatta da una piattaforma privata possa influenzare il voto pubblico. L’algoritmo può capire la nostra inclinazione politica e potrebbe anche decidere di spegnere un candidato e pomparne un altro.
Questo accadrebbe senza che nessuno se ne accorga. Perché nessuno sa cosa sta guardando l’altro sul proprio telefonino.
Questo dà anche l’idea di quanto sia potente chi detiene i dati. Immaginiamo cosa potrebbe accadere se uno stato usasse in qualche modo le informazioni e i profili  dei propri cittadini. La Cina sta costruendo dei sistemi di riconoscimento facciale per riconoscere e arrestare le persone. Ecco la tragedia: costruiamo questa infrastruttura di controllo autoritario solo per ottenere click sulle pubblicità .  Se utililizzi evidenti meccanismi del terrore per spaventare le persone, saremo spaventati ma sapremo perché. Odieremo e resisteremo.
Ma se le persone che hanno potere utilizzassero questi algoritmi per osservarci placidamente, per giudicarci e per spingerci, per predire i ribelli e identificarli, per costruire una architettura della persuasione su larga scala e per manipolare egli individui uno per uno, utilizzando le loro debolezze e le vulnerabilità individuali attraverso i  nostri schermi privati, cosicché non sappiamo neppure quello che i nostri vicini e concittadini stanno vedendo, questo autoritarismo ci avvolgerà come tela di ragno senza che ce ne rendiamo conto.
E’ la datacrazia, ragazzi! – direbbe il sociologo Derrik De Kerckhove, – nostro relatore a #digit17 presso il Polo Universitario di Prato. Nel corso del suo intervento l’allievo di Marshall McLuhan , ci raccontava, già quasi due anni fa, del caso Singapore e dell’esistenza di un controllo permanente che produce delle “vite previste”; Un controllo a sua volta capace di generare pace sociale, in qualche modo artificiale, che – con quello che De Kerckhove chiama fascismo elettronico – annulla l’autonomia, la memoria, il sé, le culture (perché col controllo appiattisce le diversità ).
I modi in cui l’intelligenza artificiale può intrecciarsi con banche e assicurazioni sono numerosi. A partire dalla sicurezza: tramite sistemi di riconoscimento facciale, a Singapore – così riporta Wired in un recente articolo – ogni cliente viene identificato prima che possa svolgere qualsiasi genere di operazione. L’approccio con cui a Singapore l’intelligenza artificiale è entrata nel campo dello shopping è decisamente cliente-centrico. Raccogliendo i dati su abitudini e preferenze di ciascun potenziale acquirente – si continua su Wired – un algoritmo tenta di prevedere quale genere di prodotto potrebbe interessare all’interno di un negozio, guidando il cliente direttamente davanti allo scaffale giusto.
Ora il punto è: vogliamo questo oppure no?
Cosa potrebbe succedere se su una piattaforma di distribuzione dei contenuti agisse una censura automatica e non trasparente di detti contenuti “giornalistici” e generati direttamente dalle conversazioni degli utenti? Siamo sicuri che l’eventuale “nazionalizzazione” di Facebook potrebbe risolvere il problema? Riuscite a immaginare un Facebook nelle mani Lee Hsien Loong, governante di Singapore che già non brilla per la libertà di Stampa?
Vorremmo a questo punto delle nostre riflessioni aggiungere un ulteriore elemento di analisi, un apporto a nostro avviso assai utile per inserire nel ragionamento uno spunto di concretezza e chiarezza per comprendere quanto studi e discorsi astratti coincidano con i comportamenti in atto fra le cosiddette techno-corporation. Ci riferiamo in particolare alla sperimentazione in corso da parte di Facebook, il Free Basic Program. Che – a nostro avviso - è un po’ come se facebook tentasse di diventare uno Stato. Così recita la pagina in oggetto dentro alla piattaforma sociale:
“Free Basics rende Internet accessibile a un maggior numero di utenti fornendo loro servizi di base gratuiti come notizie, salute, viaggi, lavori disponibili in zona, sport, comunicazione e informazioni sulle amministrazioni locali.
A oggi, siamo in grado di offrire questi servizi a un miliardo di utenti tra Asia, Africa e America Latina, con l’intento di coinvolgerne un numero sempre maggiore per migliorarne la qualità della vita attraverso i benefici portati da Internet.
Free Basics è parte dell’iniziativa Internet.org di Facebook.â€
“Gli utenti novizi di questa piattaforma potrebbero non essere consapevoli del fatto che vedono solo una piccola selezione, per altro fatta a mano, di siti web”. Così dice Ludwig Siegele in uno speciale dell’Economist sui trend e sulle più importanti questioni da monitorare nel 2019 . Serve un approccio critico alla corsa alla connessione, soprattutto nelle nazioni più povere, per le quali Facebook’s Free Basic programme è stato pensato. Si sta correndo un rischio serio, a nostro avviso, soprattutto chi – come lo stesso Siegele puntualizza – avendo poca esperienza su altri media, tende ad avere incondizionata fiducia – a prescindere – verso chi parla loro dai canali online.
Qual è la soluzione? Lavorare sulla media literacy, creare degli spazi sicuri online o tassare l’utilizzo dei social media non sembrano essere convincenti, riflette Siegele. Idee più promettenti, continua, sono quelle che prevedono che i giganti del web cambino i loro modelli rientrando così nel “Contract for the Web” proposto da Tim- Berners-Lee). Un esempio potrebbe essere quello di rendere la vita più difficile alla diffusione delle informazioni, ponendo le basi per una via che potremmo definire: “Slow Social”.
Ma, sorge spontanea la domanda, a chi – come noi di LSDI – diffida dalle soluzioni preconfezionate, soprattutto quando partono da una ipotesi confutabile, che è quella del fenomeno delle fake news: a cosa serve andare più lentamente sui social? Zuckemberg ha abbassato il numero di persone alle quali poter inviare messaggi via whatsapp, ricorda Siegele. Bene. Ma davvero si riesce in questo modo ad arginare il fenomeno delle fake news? E poi, per l’appunto, stiamo ancora parlando davvero di arginare il fenomeno delle fake news? Come se fosse questo il vero problema? L’impressione, come dice ancora Siegele, è che l’obiettivo di facebook sia semplicemente quello di mettersi al riparo dalla critica di essere il responsabile di quello che è successo e sta succedendo, ad esempio con lo scandalo Cambridge Analytica. Che poi, da un punto di vista meramente tecnologico, la limitazione del numero di persone alle quali mandare inviare contenuti a noi sembra essere molto facilmente aggirabile.
Dice ancora nel suo intervento al Ted X la sociologa turco-americana Zeynep Tufkeci:
L’algoritmo persuasivo di Facebook funziona bene, che si vendano scarpe o politica. Ciò che è stato pensato per essere manipolati dalle pubblicità , organizza anche il flusso di informazioni politiche, personali e sociali. Questo deve cambiare.
Non sono qui a criticare i social dei quali ho riconosciuto gli effetti positivi per tenere in contatto persone, organizzare movimenti e superare la censura. Non critico nemmeno i padroni delle piattaforme che hanno sempre fatto belle dichiarazioni e sono sicura che la loro intenzione non sia quello di polarizzare ed estremizzare le conversazioni e i gruppi sociali; ma non sono le intenzioni di queste persone a fare la differenza, ma i loro business model.
O Facebook è una truffa da miliardi di dollari in cui le pubblicità non funzionano, oppure il suo potere di influenza è fonte di grande preoccupazione. Per Google la situazione è analoga.
Quindi, cosa possiamo fare? Serve un cambiamento. Non sono in grado di offrire una ricetta semplice, perché dobbiamo ristrutturare per intero il modo in cui opera la tecnologia digitale. Tutto: dal modo in cui la tecnologia viene sviluppata alla maniera in cui gli incentivi, economici o di altro tipo, sono costruiti dentro il sistema. Dobbiamo confrontarci e occuparci della mancanza di trasparenza creata dagli algoritmi proprietari, la sfida strutturale dell’opacità del “machine learning”, tutti questi dati su di noi che vengono raccolti indiscriminatamente. Abbiamo un grande compito di fronte a noi. Dobbiamo mobilitare la nostra tecnologia, la nostra creatività e sì, la nostra politica così da costruire un’intelligenza artificiale che ci supporti negli obiettivi umani ma che sia anche vincolata dai nostri valori umani.
“Occorrono nuove forme di conoscenza per avere nuovi saperi”, ha detto a #digit17 il professor Mario Rasetti, fisico di fama mondiale e presidente dell’Isi Foundation, una società di ricerca scientifica che realizza “algoritmi predittivi” attraverso l’uso dei quali – fra le altre cose – coordinandosi con i medici dell’ Organizzazione Mondiale della Sanità , è possibile monitorare la diffusione di alcune delle peggiori epidemie di malattie incurabili nel mondo come: ebola, zika o l’aviaria. Nel corso del suo intervento a digit, Rasetti, fornì un approccio nuovo e creativo, riferendosi in quella occasione al mondo del lavoro, e ragionando sui metodi necessari per reinserire nella società le persone, i lavoratori, “vittime” più o meno coscienti, dei risultati del rapidissimo e incessante sviluppo tecnologico.
Le conclusioni del Prof. Rasetti sono, in qualche modo, anche quelle cui giunge la tecno-sociologa turca nel corso del suo intervento al Ted X:
Capisco che non sarà semplice. Potremmo non accordarci facilmente sul significato di questi termini. Ma se prendiamo seriamente come operano questi sistemi da cui dipendiamo così tanto, non vedo come possiamo rimandare ancora questa discussione. Queste strutture stanno organizzando il modo in cui funzioniamo e stanno controllando ciò che possiamo e non possiamo fare. Molte piattaforme che si finanziano con pubblicità . si vantano di essere gratuite. In questo contesto, significa che noi siamo i prodotti da vendere. Serve un’economia digitale dove i nostri dati e la nostra attenzione non sono venduti al miglior offerente autoritario o demagogico.
Ed è su queste riflessioni finali che ringraziandoVi come sempre dell’attenzione e del tempo che ci avete dedicato Vi salutiamo cordialmente dandoVi appuntamento alla prossima settimana. ;)