Le questioni
“Molte sono le questioni aperte. Fake news, hate speech, cyberbullismo, eterna memoria della rete, ma anche minacce cibernetiche, algoritmi predittivi, uso massivo dei big data, persuasione occulta e social engineering funzionale ad attacchi informatici. Questi ultimi in Italia, nel solo mese di maggio, hanno toccato la soglia di 140 al giorno. Dal 25 maggio sono aumentate di oltre il 500% le comunicazioni di data breach al Garante, che hanno interessato, assieme a quelli notificati a partire da marzo, oltre 330.000 persone.
D’altra parte, in un mondo dove tutto di noi sarà sempre più connesso, saremo sempre più vulnerabili, perché ogni oggetto con cui veniamo a contatto può diventare il canale di accesso per un attacco informatico, per una violazione della nostra persona. Per questo è indispensabile fare della protezione dei dati una priorità delle politiche pubbliche”.
Le notizie false, i profili social appositamente creati per veicolare false informazioni e/o confutare o peggio screditare il lavoro di professionisti seri, l’uso dei ro(bot) e dell’intelligenza artificiale per realizzare strategie di disinformazione e/o di destabilizzazione; sono temi che hanno molto a che vedere con la professione giornalistica così come la difficoltà di gestione dei cosiddetti “discorsi d’odio”, che rivelano una carenza profonda proprio del comparto dell’informazione professionale. Un gap da colmare al più presto come rivelano anche i dati raccolti nel corso della ricerca sull’hate speech che abbiamo realizzato assieme al Cospe in sei diversi paesi dell’Unione Europea. La gestione dei commenti da parte delle redazioni degli organi di informazione sulle proprie bacheche social – in ogni caso – e in particolar modo quando la discussione degenera a causa di commenti violenti e inappropriati; non è un fatto esterno al giornalismo. Spesso “gli odiatori” si inseriscono sulle bacheche più frequentate per distogliere l’attenzione dai problemi reali, diffondere confusione e malanimo, alimentare falsi miti collettivi e notizie inventate; il tutto a scapito della corretta informazione.
I padroni degli algoritmi
“Il web di cui facciamo esperienza non è, dunque, la rete, ma soltanto la sua parte selezionata da algoritmi che, analizzando le nostre attività e preferenze, ci espongono a contenuti il più possibile affini ad esse, per esigenze di massimizzazione dei ricavi da parte dei gestori, legate al tempo di permanenza e al traffico online.
Siamo dunque soggetti – più di quanto ne siamo consapevoli – a una sorveglianza digitale, in gran parte occulta, prevalentemente a fini commerciali e destinata, fatalmente, ad espandersi anche su altri piani, con effetti dirompenti sotto il profilo sociale“.
Il caso Cambridge Analytica e le sue conseguenze sono la dimostrazione più evidente di quanto questo specifico passaggio dell’analisi del Presidente Soro sia importante. In particolare, a proposito di sorveglianza digitale, uno degli effetti dello scandalo Facebook/Cambridge Analytica è stata la revisione da parte dei vertici del social di Menlo Park dei propri regolamenti di gestione e accesso per gli utenti. Revisione, come abbiamo sottolineato direttamente in un nostro post specifico, che ha portato in alcuni casi, ad un peggioramento di tali condizioni non – come sarebbe stato lecito attendersi – un miglioramento. In particolare l’introduzione di uno strumento di controllo – con effetti dirompenti sotto il profilo sociale – per usare le parole della relazione dell’Autorità per la privacy, come il “controllo facciale”.
L’intelligenza artificiale
“Indicativo il fatto che il 10 aprile scorso 25 governi abbiano sottoscritto un accordo volto a sancire l’Alleanza Europea per l’Intelligenza Artificiale, decuplicando gli investimenti in ricerca, promuovendo una strategia per affrontarne l’impatto socio-economico e un codice etico fondato sul binomio responsabilità sicurezza. Sono infatti dirimenti le questioni etiche connesse alle varie applicazioni dell’intelligenza artificiale e al rapporto tra uomo e macchina: a partire dall’interrogativo se possa quest’ultima, del tutto indipendentemente dal suo creatore, assumere scelte proprie e imprevedibili, divenendo autonomo soggetto di diritto, centro di imputazione di responsabilità giuridica.
Dall’esattezza dei dati utilizzati e dalla logica del trattamento alla base della configurazione degli algoritmi dipende l’intelligenza delle loro scelte. Se è errata la classificazione delle casistiche di riferimento fornita all’algoritmo per decidere, ad esempio, la natura di una patologia o per valutare un marker, sarà poi la conseguente diagnosi ad essere sbagliata, con effetti potenzialmente anche fatali per il paziente.
Le possibili implicazioni, sul piano sociale, sono tutt’altro che marginali. Gli algoritmi non sono neutri sillogismi di calcolo, ma opinioni umane strutturate in forma matematica che, come tali, riflettono, in misura più o meno rilevante, le precomprensioni di chi li progetta, rischiando di volgere la discriminazione algoritmica in discriminazione sociale”.
Dopo Cambridge Analytica
“I primi accertamenti condotti, in cooperazione con le altre Autorità , sul caso Cambridge Analytica-Facebook, hanno messo in luce le implicazioni, spesso sottovalutate, del sistema di gestione delle inserzioni sulle grandi piattaforme del web. Esso determina, infatti, un flusso di dati degli utenti verso innumerevoli “terze parti†poco trasparente e, nella maggior parte dei casi, del tutto ignorato dagli interessati.
È, questa, una frontiera aperta su cui le Autorità di protezione dati interverranno, presumibilmente a lungo, avvalendosi dei nuovi strumenti loro riconosciuti – anche rispetto agli OTT – dal Regolamento generale e dal Regolamento e-privacy”.
Gig economy
“Emergono nuovi tipi di lavoro, attratti nella categoria generale della gig economy e, come nel caso dei riders, sempre più inscritti in un rapporto strettissimo tra uomo e algoritmo, in cui è il secondo a impartire direttive al primo, privato persino della relazione interpersonale con un datore di lavoro, verso il quale esercitare i propri diritti.
In tale contesto, caratterizzato peraltro dalla sottoposizione del lavoratore a inedite quanto pervasive forme di controllo, la protezione dati assurge a presupposto necessario di libertà del lavoratore nell’esecuzione della prestazione, nonché fattore di riequilibrio di un rapporto di forza sempre più sbilanciato”.
Sicurezza informatica
“A fronte della necessità di ricorrere sempre più allo scambio telematico dei dati e all’interconnessione dei sistemi informativi pubblici, si riscontra l’esigenza di una maggiore consapevolezza e di competenze idonee a fronteggiare l’incremento dei rischi, suscettibili di derivarne, per i diritti dei cittadini.
All’aumento di tali rischi dovrebbe, infatti, corrispondere una costante attenzione nella gestione dei sistemi informativi e un crescente impegno nell’osservanza degli obblighi di sicurezza e di qualità dei dati, di cui i soggetti pubblici devono farsi carico.
In questo quadro, abbiamo sollecitato una forte iniziativa, da parte delle diverse istituzioni coinvolte nei processi decisionali relativi all’ innovazione tecnologica del Paese, per una verifica puntuale dello stato di sicurezza delle banche dati pubbliche e dei processi in corso di attuazione dell’ Agenda digitale”.
CONTINUA…