di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni personali vengono condivise e ciò, sottolinea la studiosa, determina il collasso dell’integrità contestuale, dunque la perdita di controllo nella costruzione del sé in quanto non si padroneggiano più le modalità con cui ci si presenta in pubblico. Si tenga presente che alla creazione dell’identità online concorrono tanto atti coscienti (materiali caricati volontariamente) che pratiche reattive (like lasciati, commenti ecc.) spesso in assenza di un’adeguata riflessione.

Nel costruire la propria identità online si concorre anche alla costruzione di quella altrui, come avviene nello sharenting, ove i genitori, insieme alla propria, concorrono a costruire l’identità online dei figli persino da prima della loro nascita. In generale si può affermare che manchi il pieno controllo sulla costruzione della propria (e altrui) identità online visto che si opera in un contesto in cui ogni traccia digitale può essere utilizzata da sistemi di intelligenza artificiale e di analisi predittiva per giudicare gli individui sin dall’infanzia.

Se a partire dalla fine degli anni Ottanta la Convenzione delle Nazioni Unite sui diritti dell’infanzia ha posto l’accento su come i bambini non debbano essere intesi come individui subordinati agli adulti e bisognosi di protezione ma piuttosto come soggetti autonomi dotati di specifici diritti, il capitalismo della sorveglianza [su Carmilla], evidenzia Barassi, li ha nei fatti privati della loro autonomia. Sia perché il “consenso dei genitori” diviene il grimaldello per trattare i loro dati che perché le loro tracce digitali sono prodotte, raccolte e condivise da altri soggetti ben al di là del consenso e del controllo genitoriale. Ciò avviene in svariati ambiti – istruzione, intrattenimento, salute… – e le tracce digitali dei bambini prodotte tanto da loro stessi quanto da altri [su Carmilla] vengono utilizzate per indagare i loro modelli comportamentali, per fare ipotesi circa le loro tendenze psicologiche e per costruire storie pubbliche relative alla loro identità.

Essendo che le tracce digitali hanno a che vedere con l’identità sociale, nell’era del capitalismo digitale, sostiene Barassi, i social media sono divenuti un terreno di conflitto e negoziazione per le famiglie. Insistere tuttavia quasi esclusivamente sulle responsabilità dei genitori smaniosi di condividere dati sui figli rischia di mettere in secondo piano le responsabilità delle multinazionali della raccolta-elaborazione dei dati. Piattaforme dedicate all’infanzia come Messanger Kids di Facebook condividono le informazioni raccolte con terzi e ciò avviene perché tutte le principali Big Tech stanno investendo parecchio nella profilazione dell’infanzia e lo stanno facendo davvero con ogni mezzo necessario aggirando facilmente le legislazioni in materia.

Sebbene a proposito dell’impatto dei social media sul benessere psicologico dei bambini vi siano posizioni differenti all’interno dell’ambito accademico, non è difficile immaginare come tali piattaforme possano perlomeno contribuire a rafforzare culture e stereotipi negativi. Alcuni studi hanno mostrato, ad esempio, come le bambine siano indotte a conformarsi a stereotipi sessualizzati al fine di essere accettate socialmente. Trattandosi di strumenti espressamente realizzati per facilitare la raccolta, il tracciamento e la cessione dei dati ad altri soggetti, non è difficile immaginare come tutto questo materiale raccolto ed elaborato possa incidere sulla vita degli individui.

In una società ad alto tasso di digitalizzazione sono molteplici le modalità con cui si raccolgono dati sui bambini. La studiosa mette in evidenza come dietro ad alcune pratiche, spesso fruite come del tutto innocue e non intrusive, si nascondano vere e proprie strategie di profilazione. Si pensi non solo ai dati raccolti sui bambini dalle piattaforme didattiche utilizzate nelle scuole, di cui non è affatto chiara la gestione da parte delle aziende fornitrici del “servizio”, al tracciamento facciale a cui sono sottoposti sin da piccoli negli aeroporti e persino all’ingresso di parchi giochi come Disneyland, ove vengono loro fotografati i volti all’ingresso motivando blandamente tale pratica, nei rarissimi casi in cui i genitori ne chiedano il motivo, come un’operazione volta alla sicurezza, come ad esempio facilitare il loro rinvenimento in caso di smarrimento. Sebbene cosa ne faccia il colosso Disney delle foto scattate ai volti dei bambini non è dato a sapere, certo è che si tratta di dati estremamente sensibili essendo la fotografia del volto a tutti gli effetti un dato biometrico unicamente riconducibile all’identità di un individuo al pari dell’impronta digitale e della voce.

Altri sistemi di profilazione con cui entrano in contatto facilmente i bambini sono i giochi scaricati sugli smartphone o su altri dispositivi – che in alcuni casi, nota la studiosa, questi continuano a carpire immagini tramite la la videocamera dell’apparecchio anche quando il gioco non è in funzione –, i dati raccolti da piattaforme di intrattenimento come Netflix che, non a caso, lavorano sulla creazione di profili ID univoci. Persino le ricerche effettuate dai genitori attraverso i motori di ricerca online a proposito di disturbi o malattie dei figli concorrono all’accumulo di dati sensibili utili alla costruzione della loro identità digitale sin da bambini.

Tutto ciò non può che porre importanti interrogativi circa il concetto di privacy tenendo presente come questo derivi da uno specifico contesto politico, sociale e culturale. Buona parte del dibattito attorno alla privacy rapportata alle nuove tecnologie ruota attorno all’idea di una necessaria e netta distinzione tra una sfera pubblica (visibile) e una privata (riservata). Se l’avvento dei social media, su cui si è indotti a esibire/condividere tutto di se stessi [su Carmilla], sembra annullare sempre più la distinzione tra pubblico e privato, conviene secondo Barassi soffermarsi sull’importanza di tale dicotomia in quanto «consente di capire la filosofia individualista – e problematica – che definisce l’approccio occidentale verso la privacy e la protezione dei dati» (p. 89). La dicotomia tra ciò che è pubblico e ciò che è privato nella cultura occidentale «suggerisce che c’è una chiara differenza tra la sfera collettiva e quella personale, tra Stato e individuo, tra ciò che è visibile e ciò che è segreto» (p. 89).

Il concetto di privacy occidentale ha le sue radici nell’idea che «che dobbiamo proteggere il nostro interesse personale e le nostre famiglie nucleari prima di pensare alla dimensione pubblica/collettiva» (p. 89). Ed è in tale filosofia individualista della privacy che secondo la studiosa si annida il vero problema:

rapportare il concetto di privacy a quello di interesse individuale porta sempre a una riduzione del suo valore una volta che la privacy viene posta di fronte all’interesse collettivo. Questo è chiaro se pensiamo ai dibattiti sul riconoscimento facciale, sul contact tracing o su altre tecnologie implementate in nome dell’interesse collettivo. Dall’altra parte, intendere la privacy come fenomeno individuale ci porta a cercare soprattutto soluzioni individualiste a problemi che sono invece di natura collettiva (p. 90).

Circa la privacy dei bambini, dall’indagine svolta da Barassi emerge con forza nei genitori una sorta di “rassegnazione digitale”, dettata dall’impressione di non aver altra scelta, di cui approfitta il capitalismo della sorveglianza che però, nota la studiosa, si avvale anche della “partecipazione digitale forzata”. I soggetti fornitori di servizi a cui ricorrono quotidianamente le famiglie, dai servizi sanitari alle istituzioni educative, sempre più si affidano alla raccolta e all’analisi dei dati personali.

È attraverso la partecipazione digitale forzata a una pluralità di istituzioni, private e non, che i bambini vengono datificati, ed è per questa ragione che dobbiamo andare oltre la privacy come interesse privato dei bambini per studiare invece cosa voglia dire crescere in una società dove siamo continuamente costretti ad accettare termini condizioni di utilizzo, e dove i dati dei nostri figli vengono raccolti e condivisi in modi che sfuggono alla nostra comprensione e la nostro controllo. Solo così riusciremo a fare luce sulle ingiustizie e sulle ineguaglianze della nostra società datificata, e sul fatto che il mondo in cui pensiamo al valore della privacy nella vita di tutti i giorni dipende spesso dalla nostra posizione sociale […] C’è qualcosa di profondamente ingiusto nel diverso impatto che queste trasformazioni hanno avuto sulle famiglie altamente istruite o ad alto reddito da un lato, e su quelle a basso reddito o meno istruite dall’altro (pp. 94-95).

La diseguaglianza sociale in effetti, sottolinea la studiosa, gioca un ruolo importante nelle modalità in cui viene vissuta e affrontata la datificazione a cui si è sottoposti quotidianamente. I sistemi automatizzati di intelligenza artificiale tendono ad amplificare tale ingiustizia. Nelle società a forte datificazione i dati raccolti ed elaborati finiscono per essere utilizzati per profilare e indirizzare le vite degli individui. Piuttosto che concentrarsi esclusivamente sul problema della privacy, occorrerebbe piuttosto indagare quanto «la sorveglianza digitale e la datificazione di massa [siano] strettamente interconnesse con la giustizia sociale» (p. 97).

Sebbene spesso si parli di profilazione riferendosi al ricorso a tecnologie e algoritmi per l’analisi predittiva, in realtà, sottolinea Barassi, si tratta innanzitutto di «un processo antropologico che si estende oltre il mondo digitale e che ha a che vedere con la classificazione e la creazione di categorie, di raggruppare persone, animali, piante e cibi sulla base delle loro similitudini e differenze. È attraverso la creazione di categorie che definiamo le regole sociali» (p. 103). Tale pratica viene utilizzata anche per identificare il rischio. «Nella società moderna la profilazione è anche storicizzatone connessa al controllo della popolazione e all’oppressione razziale e sociale» (p. 103). La profilazione ha finito per far parte della vita quotidiana tanto nel farvi ricorso quanto nell’esservi sottoposti [su Carmilla]; «la profilazione è per definizione una pratica di correlazione di dati che serve per formare un giudizio» (p. 104).

Sebbene la profilazione sia un fenomeno sociale, antropologico e personale in atto ben da prima della trasformazione digitale, è nel passaggio di millennio che si determinano cambiamenti sostanziali: l’avvento di nuove tecnologie ha comportato tanto un aumento spropositato della quantità di informazioni personali che possono essere raccolte e intrecciate, quanto di strumenti utili a ottenerle al fine di realizzare profilazioni sempre più sofisticate. Nel saggio Big Other: Surveillance Capitalism and the Prospects of an Information CIvilization (2015) pubblicato sul “Journal of Informatin Technology” (30 gennaio 2015), Shoshana Zuboff ha spiegato come a suo avviso sia più efficace indicare tale contesto come “Big Other”, piuttosto che “Big Data”, in quanto tale dicitura rende meglio l’idea dell’architettura globale – composta da computer, network, sistema di accordi e relazioni… – di cui si avvale il capitalismo della sorveglianza nello scambiare, vendere e rivendere i dati personali.

Barassi evidenzia come un ruolo centrale all’interno di tale Big Other sia svolto dai “data broker”, aziende che raccolgono informazioni personali sui consumatori, le aggregano sotto forma di profili digitali per poi venderli a terzi. La raccolta di dati avviene sia dai registri pubblici che dalle piattaforme digitali e dalle ricerche di mercato, oltre che acquistandole dalle aziende che gestiscono app e social media. Un data broker può identificare, ad esempio, un individuo anche in base al suo aver manifestato interesse all’argomento diabete non solo per vendere l’informazione a produttori di alimenti senza zucchero, ma anche alle assicurazioni che, in base a ciò, lo classificheranno come “individuo a rischio” alzando il prezzo della sua polizza. Analogamente gli individui vengono profilati sulla base del reddito, dello stile di vita, dell’etnia, della religione, dell’essere o meno socievoli o introversi e così via agendo di conseguenza nei loro confronti. La raccolta di questi dati avviene in un regime da Far West a partire dalla più tenera età così da poter aggiornare costantemente e affinare il profilo individuale.

La studiosa sottolinea anche come i dati raccolti dalle Big Tech in ambito domestico non siano soltanto personali/individuali ma raccontino anche la famiglia intesa come gruppo sociale a partire dai contesti socioeconomici, valoriali e comportamentali e tutto ciò può condurre a gravi forme di discriminazione. Un’inchiesta di ProPublica, organizzazione no-profit statunitense, ha rivelato come Facebook consentisse pubblicità mirate discriminatorie rivolte alle sole “famiglie bianche”. Barassi sottolinea come tali meccanismi possano imprigionare i bambini in stereotipi discriminatori e riduzionisti limitandone la mobilità sociale; si rischia di divenire sempre più prigionieri delle classificazioni assegnate al proprio profilo digitale.

Dal 2019 Amazon raccoglie informazioni fisiche ed emotive degli utenti attraverso la profilazione della voce, mentre Google ed Apple stanno lavorando da tempo a sensori in grado di monitorare gli stati emotivi degli individui e tutti questi dati vanno ad aggiungersi a quelli raccolti a scopo di profilazione quando si cercano informazioni sulla salute su un motore di ricerca. Come non bastasse, le Big Tech affiancano alla raccolta dati sulla salute ingenti investimenti nell’ambito dei sistemi sanitari. Qualcosa di analogo avviene nel sistema scolastico-educativo ed anche in questo caso le grandi corporation tecnologiche hanno saputo approfittare dell’emergenza sanitaria per spingere sull’acceleratore della loro entrata in pompa magna nel sistema dell’istruzione.

I media occidentali da qualche tempo danno notizia con un certo allarmismo del sofisticato sistema di sorveglianza di massa e di analisi dei dati raccolti sui singoli individui e sulle aziende messo a punto dal governo cinese tra il 2014 e il 2020 al fine di assegnare un punteggio di “affidabilità” fiscale e civica in base al quale gratificare o punire i soggetti attraverso agevolazioni o restrizioni in base al rating conseguito. All’interesse per il sistema di sorveglianza cinese non sembra però corrispondere altrettanta attenzione a proposito di ciò che accade nei paesi occidentali, ove da qualche decennio «governi e forze dell’ordine stanno utilizzando i sistemi IA per profilarci, giudicarci e determinare i nostri diritti» (p. 122), impattando in maniera importante soprattutto sul futuro delle generazioni più giovani.

Sebbene non sia certo una novità il fatto che governi e istituzioni raccolgano dati o sorveglino i comportamenti dei cittadini, la società moderna ha indubbiamente “razionalizzato” tale pratica soprattutto in funzione efficientista-produttivista rafforzando insieme alla burocrazia statale gli interessi aziendali. In apertura del nuovo millennio, scrive Barassi, anche sfruttando l’allarmismo post attentati terroristici che hanno colpito gli Stati Uniti e l’Europa, molti governi hanno iniziato ad integrare le tecnologie di sorveglianza quotidiana dei dati con i sistemi di identificazione e autenticazione degli individui.

Alcuni studi hanno dimostrato come le pratiche di profilazione digitale messe in atto in diversi paesi, oltre ad essere discriminatorie, minino alle fondamenta i sistemi legali in quanto determinano in segreto quanto un cittadino sia da considerare “un rischio” per la società senza concedergli la possibilità di usufruire di un’adeguata tutela legale. Altro che “giusto processo”; soprattutto grazie alle leggi anti-terrorismo emanate dopo l’11 settembre 2001 ci si può ritrovare “condannati” senza nemmeno conoscerne il motivo.

Barassi riporta il caso della Palantir Technologies, vero e proprio colosso privato della sorveglianza e profilazione dei cittadini, capace di offrire servizi di raccolta e analisi dei dati ai governi e alle aziende private soprattutto occidentali. Ai sevizi di tale azienda, creata nel 2003, ricorrono le principali agenzie governative statunitensi (dall’FBI alla CIA, dal’Immigration and Customs Enforcement al Department of Homeland Security ed al Department of Justice). Attiva in oltre 150 paesi nel 2010, la Palantir Technologies ha saputo sfruttare abilmente l’attuale pandemia per diffondere i sui servizi in Europa.

La profilazione digitale dei cittadini si rivela strategica per molti paesi occidentali in cui istituzioni governative e apparati di polizia ricorrono sempre più a sistemi di IA, il più delle volte gestiti direttamente da aziende private, per prendere decisioni importanti sulla vita dei cittadini. Barassi sottolinea anche come numerosi studi abbiano dimostrato come le tecniche per il riconoscimento facciale, ad esempio, siano tutt’altro che attendibili e come le stesse tecnologie per l’analisi predittiva, oltre che non affidabili, tendano ad amplificare i pregiudizi e ad alimentare la diseguaglianza sociale. Una ricerca del 2019 pubblicata su “Science”, ad esempio, ha rivelato come il sistema sanitario statunitense ricorra ad algoritmi razzisti nel prendere decisioni in merito alla salute pubblica.

«Nell’era de capitalismo della sorveglianza non esistono più dati “innocui”, perché i dati che offriamo come consumatori molto spesso vengono utilizzati per determinare i nostri diritti di cittadini» (p. 133). Il software CLEAR, ad esempio, attinge dati di oltre 400 milioni di consumatori da un’ottantina di società che si occupano di bollette domestiche di vario tipo per poi rivenderli ad istituzioni governative che si occupano di frode fiscale e sanitaria, di immigrazione e riciclaggio di denaro o di prendere decisioni relative all’affidamento di bambini. «Senza che se ne rendano conto, i dati che gli utenti […] producono in qualità di consumatori domestici possono venire incrociati, condivisi e utilizzati per investigazioni federali» (p. 134). Altro inquietante caso riportato da Barassi riguarda Clearview AI, società produttrice di software per il riconoscimento facciale. Un inchiesta del “New York Times” del 2020 ha evidenziato come in alcune giurisdizioni statunitensi le forze di polizia utilizzassero tale software per confrontare le fotografie di individui ritenuti sospetti con gli oltre tre miliardi di immagini presenti online, soprattutto sui social.

***

È di questi giorni la notizia delle sanzioni comminate in Italia dall’Autorità Garante della Concorrenza e del Mercato a due tra le maggiori Big Tech

Tra gli utenti di Apple e Google e le due aziende esiste “un rapporto di consumo, anche in assenza di esborso monetario“. Perché “la controprestazione”, cioè il pagamento, “è rappresentata dai dati che essi cedono utilizzando i servizi di Google e di Apple”. È con questa premessa che l’Antitrust ha multato i due gruppi per un totale di 20 milioni di euro – 10 ciascuno, il massimo edittale – per due violazioni del Codice del Consumo, una per carenze informative e un’altra per pratiche aggressive legate all’acquisizione e all’utilizzo dei dati dei consumatori a fini commerciali (Apple e Google, multa Antitrust da 20 milioni: “Informazioni carenti sull’uso dei dati personali degli utenti e pratiche aggressive”, “Il Fatto Quotidiano”, 26 novembre 2021.

Nel Comunicato stampa emesso dall’AGCM il 26 novembre 2021 viene evidenziato come nella fase di creazione dell’account, Google «l’accettazione da parte dell’utente al trasferimento e/o all’utilizzo dei propri dati per fini commerciali» risulti pre-impostata consentendo così «il trasferimento e l’uso dei dati da parte di Google, una volta che questi vengano generati, senza la necessità di altri passaggi in cui l’utente possa di volta in volta confermare o modificare la scelta pre-impostata dall’azienda». Nel caso di Apple, prosegue il Comunicato stampa, l’architettura di acquisizione «non rende possibile l’esercizio della propria volontà sull’utilizzo a fini commerciali dei propri dati. Dunque, il consumatore viene condizionato nella scelta di consumo e subisce la cessione delle informazioni personali, di cui Apple può disporre per le proprie finalità promozionali effettuate in modalità diverse». Nel dettaglio si vedano: Testo del provvedimento GoogleTesto del provvedimento Apple

Alla luce di quanto detto in precedenza, è difficile immaginare che tutti questi dati sugli utenti raccolti subdolamente, legalmente o meno, vengano sfruttati “solo” a livello commerciale. Intanto si accumulano, poi potranno essere messi sul mercato ed essere elaborati e utilizzati per gli scopi più diversi.

È il capitalismo della sorveglianza, bellezza. E tu non ci puoi far niente! Se ci si deve per forza rassegnare a tale ennesimo adagio impotente, occorrerebbe allora riprendere anche l’efficace titolo di un recente film italiano: E noi come stronzi rimanemmo a guardare (2021, di Pierfrancesco Diliberto “Pif”).


Su Carmilla – Serie completa Culture e pratiche della sorveglianza