Il Carousel a cui ci riferiamo assomiglia molto di più al programma pubblicitario più famoso della tv italiana di tutti i tempi: Carosello; più che all’omologo in lingua inglese estratto dal celebre romanzo e poi film di fantascienza. Quel particolare carousel della fantascienza entrato in funzione nell’anno 2300 – giorno più giorno meno - era, come si legge testualmente su wikipedia:
“una spettacolare cerimonia collettiva periodica, condotta in un anfiteatro con tanto di pubblico giubilante, al termine della quale si fa credere che il soggetto venga “rinnovato” reincarnandosi in un nuovo nascituro per ricominciare il ciclo della vita, ma in realtà viene ucciso in modo spettacolare per far posto al suo successore neonato”.Â
Mentre il Carosello della pubblicità , come recita ancora wikipedia:
Consisteva in una serie di filmati (spesso sketch comici sullo stile del teatro leggero o intermezzi musicali) seguiti da messaggi pubblicitari. Carosello non era e non poteva essere solo un contenitore di messaggi pubblicitari: erano predeterminati il numero di secondi dedicati alla pubblicità , il numero di citazioni del nome del prodotto, il numero di secondi da dedicare allo “spettacolo”, la cui trama doveva essere di per sé estranea al prodotto.Â
Diciamo che fuor di metafora, entrambe le definizioni e i “caroselli” che ne conseguono, ci potrebbero aiutare a capire, a nostro avviso, il funzionamento – oggi – di questi particolari ambienti digitali. Da una parte siamo bombardati di sollecitazioni visive che dovrebbero appagarci e orientare le nostre scelte di vita, a partire da quelle commerciali, ma non solo – secondo l’algoritmo che le gestisce - e dall’altra il sistema di piattaforme e di algoritmi che li governano, sta andando a costruire giorno dopo giorno, tutto attorno a noi: il sistema mondo. Nella sua interezza. Ed evoca- ahi, ahi, ahi  – in modo sempre più evidente, quella umanità del “futuro prossimo venturo” descritta da William F. Nolan e George Clayton Johnson nel loro romanzo di fantascienza del 1967. Una umanità tenuta rigorosamente sotto osservazione e governata completamente dall’intelligenza artificiale. Un’AI madre, padrona, e unica entità di gestione, che – per preservare la vita sulla terra – ha preso il controllo assoluto, e con precisione chirurgica, esercitando la massima ingerenza possibile: la vita e la morte di ciascuno. Di tutti gli umani. Decidendo – letteralmente – chi potrà vivere, e chi dovrà morire.
Il tema del “controllo” delle persone, magari attraverso l’uso dell’AI e dei robot, è un argomento molto presente nella fantascienza. Quello che fa effetto, è vedere come questo spauracchio evocato nella fiction da decenni, si stia in qualche modo realizzando, in modo sempre più evidente, e con il nostro bene placito, nelle epoche più recenti. E nonostante tutti gli avvisi e gli avvertimenti arrivati dalla fantascienza. Come ci racconta, fra le altre cose, proprio lo stesso Francesco Marino nel suo libro:
Nel 2019, due studenti universitari cinesi si dedicano a un progetto di intelligenza artificiale basato su un semplice gioco, il cui concept è vecchio quanto il mondo: “lupo contro pecoraâ€. Le regole sono facili: due lupi e sei pecore vengono posizionati su una sorta di tavolo da gioco digitale da un computer. I lupi devono cacciare tutte le pecore in venti secondi, evitando alcuni ostacoli. Per spingere l’intelligenza artificiale a crescere e a migliorare sempre di più, gli studenti programmano una sorta di sistema a punti. Ogni volta che un lupo caccia una pecora, vengono aggiunti dieci punti; se colpisce un ostacolo, ne viene tolto uno; per ogni secondo trascorso, vengono sottratti 0,1 punti. L’obiettivo dei lupi, governati dall’intelligenza artificiale, è semplice: fare più punti possibile, imparando ogni volta dai loro errori.
Dopo circa 200.000 iterazioni – e quindi tentativi – succede una cosa particolare. I due studenti si accorgono che i lupi hanno iniziato semplicemente a scontrarsi contro un ostacolo e quindi a suicidarsi all’inizio di ogni sessione di gioco. Dopo tre giorni di studio, i due riescono a capire cosa stia succedendo. Semplicemente, con la sua logica, l’intelligenza artificiale aveva dedotto che scontrarsi subito all’inizio del percorso fosse la soluzione che garantiva un punteggio più alto.
Nei primi tentativi, infatti, i lupi avevano avuto grandi difficoltà a catturare le pecore, perdendo quindi tempo e punti preziosi. Insomma, l’intelligenza artificiale stava facendo il suo lavoro: stava ottimizzando la sua performance per perdere meno punti possibili.
Goccioline di sudore freddo ci scorrono sulla schiena. Quante similitudini, verrebbe da dire. E che paura! Le macchine decidono e decideranno sempre di più in autonomia. Questo è un dato di fatto. La mole di dati da gestire è, già oggi, tale e tanta, da costringerci obbligatoriamente a delegare ai computer la gestione di processi di grande complessità da realizzarsi in tempi molto rapidi. E se il suicidio dei lupi fosse – davvero – la strada migliore da prendere?
La realtà ci sta restituendo una fotografia che assomiglia sempre di più a scenari prefigurati cinquanta, settanta, anche cento anni fa da persone con una fantasia davvero molto florida, ma anche – a quanto pare – venata da premonizioni di grande realismo. Dove sta la differenza fra la fantascienza e gli scenari odierni? Dove possiamo, ancora, agire per comprendere e usare in modo adeguato e soddisfacente questi ausili tecnologici, invece di esserne succubi o peggio, totalmente manipolati?  Come spiega ancora in modo eccellente Marino, i sistemi algoritmici più importanti e diffusi rispondono a logiche precise, riassumibili in poche “sintetiche e molto facilmente comprensibili” note:
tutti i principali algoritmi di raccomandazione funzionano esattamente così. Ovvero, mettono in relazione caratteristiche di contenuto variabili – tutto, naturalmente, dipende dal tipo di suggerimento o previsione – e caratteristiche di community, di gruppo. Netflix, per esempio, funziona come Spotify e quella percentuale che vediamo sotto al titolo quando selezioniamo il film è il frutto di questa elaborazione. Ma in qualche modo, anche Facebook e Google usano questo approccio. Alla base del suggerimento, da un lato c’è quello che fanno gli altri, dall’altro un qualche tipo di analisi del contenuto.
La mission di Google è “organizzare le informazioni e rendere il mondo più aperto e connessoâ€.
La mission di Facebook, aggiornata nel 2017, è “costruire comunità e rendere il mondo più unitoâ€: il suo algoritmo ha questo obiettivo.
La mission di YouTube è “offrire a chiunque la possibilità di esprimersi e offrire un punto di osservazione sul mondoâ€.
La prima cosa che si nota entrando su Spotify è la schermata iniziale: da qui iniziano i consigli di ascolto. Questa homepage è governata da un sistema di intelligenza artificiale chiamato Bandits for Recommendations as Treatments o, più semplicemente, BaRT. Se l’utente è su Spotify da molto tempo, il lavoro di BaRT è consigliare musica sulla base delle precedenti attività di ascolto.
TikTok , secondo l’analisi dell’esperto di tecnologia statunitense Eugene Wei, è il primo caso di progettazione grafica completamente orientata al funzionamento di un sistema di raccomandazione, di un’intelligenza artificiale. Se di solito il design di una qualunque applicazione web deve avere come primo pensiero l’utilizzatore finale, nel caso del social network cinese al centro c’è l’algoritmo. Perché, spiega Wei, “per essere davvero al servizio dell’utente, prima di tutto devi essere al servizio dell’algoritmoâ€.
Non ci sono tecnologie neutre. Nessuna compagnia privata opererà mai per raggiungere obiettivi etici. “Fare del mondo un
come utenti abbiamo la percezione di qualcosa di presente quando utilizziamo una piattaforma, di una mano che guida le scelte che facciamo, le decisioni che prendiamo. Non sempre, però, riusciamo a disvelarne la natura, a spiegarne il funzionamento, a capirne l’effettivo impatto. Non possiamo ricostruire ogni selezione operata da un algoritmo.
Possiamo però scegliere di sapere, di essere educati, di essere formati a un uso consapevole della tecnologia. Possiamo in primo luogo sapere che quella selezione è operata da una macchina. Possiamo poi avere contezza delle modalità di base attraverso le quali queste macchine operano delle decisioni, fanno delle scelte. Possiamo infine avere consapevolezza che quelle selezioni, quei suggerimenti, quelle scelte, possono avere delle conseguenze su di noi e sulle nostre comunità di riferimento. Possiamo quindi decidere di essere pronti, di essere preparati.