False dicotomie
Abbiamo parlato spesso di complessità sulle nostre colonne, forse non abbastanza, ma svariate volte. Oggi, complice il nostro associato Piero Dominici, e attingendo a piene mani dai contenuti di una sua recente partecipazione ad una conferenza TED che si è svolta a Roma il 3 maggio scorso, vorremmo provare ad aggiungere dati e spiegazioni a questo tema. O meglio vorremo provare ad associare il concetto di complessità ad alcuni comportamenti “più o meno tipici” del nostro tempo. Ci ha molto preoccupato un tema recentemente balzato agli onori delle cronache. Si tratta del cosiddetto “deepfake”. Video creati con tecniche di intelligenza artificiale che sono in grado di mettere la faccia di qualcuno sul corpo di altri e/o far fare cose, o far dire cose, a qualcuno senza che “egli o ella” lo abbia realmente fatto. Questo tipo di applicazione fa il paio con un’altro sofisticato uso dell’intelligenza artificiale di cui avevamo parlato anche qui non molto tempo fa e che era in grado di creare foto di persone, letteralmente, dal nulla.
Questo programma permette a ciascuno di noi, o meglio crea per chiunque lo voglia e glielo chieda, foto e probabilmente a breve anche piccoli video, di persone che non esistono. Questa cosa turba solo me o sentite anche Voi un brividino lungo la schiena? Vi ricordate di quando facebook nelle settimane subito successive allo scandalo di Cambridge analytica ha messo mano al proprio contratto con gli utenti, cambiandolo, a nostro avviso in peggio? Ricordate, se siete nostri lettori fedeli dovreste, che fra le aggiunte al nuovo contratto con i propri utenti i signori di Menlo Park inserirono una cosetta chiamata riconoscimento facciale? Queste due cose: il generatore di persone inesistenti e il riconoscimento facciale, possono in qualche modo stare insieme? La protezione dei nostri dati personali e l’essere schedati sul sistema di comunicazione più diffuso al mondo, e interconnesso tramite la rete a tutti o quasi i sistemi di rilevamento volti, facce, persone, posizionati lungo le strade, dentro i luoghi sensibili, fuori dai negozi del mondo, e un software che crea persone dal nulla, possono rappresentare una tematica comune di cui preoccuparsi? A Voi e poi ai posteri il giudizio. Noi proviamo a fare il nostro lavoro e quindi vi segnaliamo la notizia e le fonti a cui abbeverarsi per approfondire la tematica. Se poi ci è permessa un’aggiunta sul tema vorremmo dire che questa cosa riguarda sicuramente il giornalismo oltre a tanti altri settori dello scibile umano dall’applicazione del libero arbitrio in poi.
Poi leggiamo sulla newsletter di Carola Frediani “guerre di rete” di un’altra fantasiosa applicazione dell’intelligenza artificiale che si chiama “deep nude” che insiste sul tema, portandolo ancora una volta alle estreme e – a parer nostro – devastanti, conseguenze:
Un tizio ha creato una app che usa algoritmi di machine learning per spogliare immagini di donne vestite. In pratica crea una immagine realistica e nuda della donna ritratta. Si chiama DeepNude (riprendendo il concetto dei DeepFakes di cui abbiamo parlato tante volte) ed era stata messa in vendita per 50 dollari. Secondo Motherboard, che l’aveva provata, poteva dare risultati passabili. Funzionava solo con le donne perché, secondo il suo autore, è più facile trovare immagini di donne nude online con cui allenare l’algoritmo alla base della app (ne sono servite 10mila). Inutile dire che la app è diventata virale ma ha anche sollevato un polverone di critiche visti i suoi possibili usi malevoli (diffondere foto artefatte di donne reali, ritratte nude anche se non lo erano, ad esempio). Così, l’autore di DeepNude ci ha ripensato e ha ritirato l’app (Motherboard).
Ed è a questo punto che per fortuna arrivano – nella nostra personale narrazione dei fatti – gli studi e le considerazioni davvero illuminanti del sociologo della complessità Piero Dominici. Considerazioni e studi attraverso i quali è più facile accostare i comportamenti delle persone e gli usi della tecnologia che abbiamo provato a sintetizzare in breve negli esempi citati qui sopra. Usi a dir poco disturbati e fuorvianti. E porre in relazione questi comportamenti – purtroppo sempre più tipici e ricorrenti nei nostri tempi –  con la profonda mancanza di cultura di base alla comprensione e all’uso del mondo digitale. Difficile, se non impossibile, abitare un mondo se non ne conosciamo le regole minime di sopravvivenza, o peggio, se non comprendiamo che per questo nostro mondo digitale esistono nuove e diverse regole d’ingaggio. Aggiungiamo dunque informazioni sulla questione, e, grazie agli studi di Piero Dominici, e di tanti altri illustri scienziati, ed andiamo ad estrarre dall’intervento del professore romano al TedX di Roma del 4 maggio scorso, alcuni passaggi, particolarmente ricchi di contenuto. Passaggi che troverete assieme a tante altre utili informazioni nel video integrale della manifestazione postato a conclusione di questo articolo, buona lettura e grazie dell’attenzione:
Il primo punto che vorrei provare a trattare con voi è la questione di come noi stiamo provando a gestire la complessità , di come stiamo provando a gestire un cambiamento e un mutamento senza precedenti. Ci sono state altre trasformazioni nel susseguirsi delle civiltà umane, ma mai così profonde e radicali, e ora stiamo provando a gestire qualcosa che in realtà non è gestibile. Questo gigantesco fraintendimento tra il complicato e il complesso
… tra le grandi narrazioni della civiltà ipertecnologica e iperconnessa c’è quella che ci racconta sempre, continuamente, che la tecnologia va ad una velocità e la cultura non riesce a starle dietroÂ
ecco questa a mio avviso è già una evidenza di questa premessa fuorviante e ingannevole, perché ci presenta la tecnologia come un qualcosa di neutrale, come un qualcosa di esterno ai contesti culturali e alla cultura
stiamo provando a governare processi che non sono governabili processi che di fatto ci mettono in condizione di operare un irreversibile salto di qualitÃ
siamo di fronte al ribaltamento di quella interazione complessa tra l’evoluzione biologica e l’evoluzione culturaleÂ
ora in virtù delle straordinarie scoperte scientifiche e delle innovazioni tecnologiche è l’evoluzione culturale a determinare quella biologica e lo sarà sempre di più, perché questa trasformazione antropologica si basa, tra le tante questioni, sul progressivo impossessarsi da parte degli esseri umani delle leve della propria evoluzione
 credo che questa sia la sfida delle sfide, quello che ho chiamato il gigantesco fraintendimento tra complicato e complesso
 quando parliamo di sistemi complicati parliamo di sistemi artificiali e meccanici parliamo del mondo degli oggetti e delle cose che è governato da forze, da variabili in cui la presenza dell’osservatore e la sofisticazione degli strumenti è importante
sono sistemi, insieme di parti, governati da interazioni che si muovono come insieme, ma di fatto sono sistemi in cui noi possiamo scomporre e isolare le parti, osservarle sulla base della individuazione di relazioni lineari
pensate a un orologio, al motore di un aereo, a un computer: possiamo far sì che questi sistemi siano prevedibili e gestibili proprio perché rispondenti a relazioni lineariÂ
i sistemi complessi sono: i sistemi umani, sociali, relazionali, con qualche sfumatura biologica, non rispondono a relazioni lineari, la relazione è sempre sistemica, non si può isolare la parte per risolvere il problema
pensate anche alle illusioni della civiltà ipertecnologica iperconnessa, e anche di certa politica, di trovare soluzioni semplici a problemi complessiÂ
e dietro le soluzioni semplici c’è ancora una volta il ricorso ad approcci che sono riduzionistici, deterministici; c’è ancora una volta la tentazione, l’illusione, di poter gestire qualcosa che non è gestibile
 la complessità non si può gestire, non è un problema di parole, possiamo provare a governarla, possiamo provare ad abitarlaÂ
abitare la complessità o l’ipercomplessità – ci sono dei motivi dietro queste definizioni – significa in primo luogo mettere mano in maniera radicale all’educazione e alla formazione
i processi educativi e formativi non possono sostanziarsi semplicemente in un adeguamento, in un’estensione di un’educazione tradizionale al cambiamento tecnologico
bisogna lavorare per creare e diffondere una cultura dell’errore
l’errore, l’imprevedibilità non sono solo le basi su cui si fonda la conoscenza scientifica e la ricerca; l’errore e l’imprevedibilità sono i fattori che ci rendono umani, sono i fattori che ci rendono esseri umani aggiungo, sono i fattori che ci rendono esseri umani liberiÂ
l’errore è la base della conoscenza, ed è alla base del nostro progredireÂ
dobbiamo porci il tema dell’empatia, visto che abbiamo il problema del ripensare la democrazia, il nostro abitare, stare insiemeÂ
c’è un altro punto a cui tengo molto: l’idea di educare alla libertà – come avrebbe detto qualcuno – e alla responsabilità , laddove però, le dobbiamo ripensare in una chiave che è relazionaleÂ
libertà e responsabilità presuppongono il noi non l’ioÂ