dati biometrici – Carmilla on line https://www.carmillaonline.com letteratura, immaginario e cultura di opposizione Thu, 01 May 2025 23:18:21 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.26 Culture e pratiche di sorveglianza. Costruzione identitaria e privacy tra rassegnazione digitale e datificazione forzata https://www.carmillaonline.com/2021/12/03/culture-e-pratiche-di-sorveglianza-costruzione-identitaria-e-privacy-tra-rassegnazione-digitale-e-datificazione-forzata/ Fri, 03 Dec 2021 21:00:32 +0000 https://www.carmillaonline.com/?p=69431 di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni [...]]]> di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni personali vengono condivise e ciò, sottolinea la studiosa, determina il collasso dell’integrità contestuale, dunque la perdita di controllo nella costruzione del sé in quanto non si padroneggiano più le modalità con cui ci si presenta in pubblico. Si tenga presente che alla creazione dell’identità online concorrono tanto atti coscienti (materiali caricati volontariamente) che pratiche reattive (like lasciati, commenti ecc.) spesso in assenza di un’adeguata riflessione.

Nel costruire la propria identità online si concorre anche alla costruzione di quella altrui, come avviene nello sharenting, ove i genitori, insieme alla propria, concorrono a costruire l’identità online dei figli persino da prima della loro nascita. In generale si può affermare che manchi il pieno controllo sulla costruzione della propria (e altrui) identità online visto che si opera in un contesto in cui ogni traccia digitale può essere utilizzata da sistemi di intelligenza artificiale e di analisi predittiva per giudicare gli individui sin dall’infanzia.

Se a partire dalla fine degli anni Ottanta la Convenzione delle Nazioni Unite sui diritti dell’infanzia ha posto l’accento su come i bambini non debbano essere intesi come individui subordinati agli adulti e bisognosi di protezione ma piuttosto come soggetti autonomi dotati di specifici diritti, il capitalismo della sorveglianza [su Carmilla], evidenzia Barassi, li ha nei fatti privati della loro autonomia. Sia perché il “consenso dei genitori” diviene il grimaldello per trattare i loro dati che perché le loro tracce digitali sono prodotte, raccolte e condivise da altri soggetti ben al di là del consenso e del controllo genitoriale. Ciò avviene in svariati ambiti – istruzione, intrattenimento, salute… – e le tracce digitali dei bambini prodotte tanto da loro stessi quanto da altri [su Carmilla] vengono utilizzate per indagare i loro modelli comportamentali, per fare ipotesi circa le loro tendenze psicologiche e per costruire storie pubbliche relative alla loro identità.

Essendo che le tracce digitali hanno a che vedere con l’identità sociale, nell’era del capitalismo digitale, sostiene Barassi, i social media sono divenuti un terreno di conflitto e negoziazione per le famiglie. Insistere tuttavia quasi esclusivamente sulle responsabilità dei genitori smaniosi di condividere dati sui figli rischia di mettere in secondo piano le responsabilità delle multinazionali della raccolta-elaborazione dei dati. Piattaforme dedicate all’infanzia come Messanger Kids di Facebook condividono le informazioni raccolte con terzi e ciò avviene perché tutte le principali Big Tech stanno investendo parecchio nella profilazione dell’infanzia e lo stanno facendo davvero con ogni mezzo necessario aggirando facilmente le legislazioni in materia.

Sebbene a proposito dell’impatto dei social media sul benessere psicologico dei bambini vi siano posizioni differenti all’interno dell’ambito accademico, non è difficile immaginare come tali piattaforme possano perlomeno contribuire a rafforzare culture e stereotipi negativi. Alcuni studi hanno mostrato, ad esempio, come le bambine siano indotte a conformarsi a stereotipi sessualizzati al fine di essere accettate socialmente. Trattandosi di strumenti espressamente realizzati per facilitare la raccolta, il tracciamento e la cessione dei dati ad altri soggetti, non è difficile immaginare come tutto questo materiale raccolto ed elaborato possa incidere sulla vita degli individui.

In una società ad alto tasso di digitalizzazione sono molteplici le modalità con cui si raccolgono dati sui bambini. La studiosa mette in evidenza come dietro ad alcune pratiche, spesso fruite come del tutto innocue e non intrusive, si nascondano vere e proprie strategie di profilazione. Si pensi non solo ai dati raccolti sui bambini dalle piattaforme didattiche utilizzate nelle scuole, di cui non è affatto chiara la gestione da parte delle aziende fornitrici del “servizio”, al tracciamento facciale a cui sono sottoposti sin da piccoli negli aeroporti e persino all’ingresso di parchi giochi come Disneyland, ove vengono loro fotografati i volti all’ingresso motivando blandamente tale pratica, nei rarissimi casi in cui i genitori ne chiedano il motivo, come un’operazione volta alla sicurezza, come ad esempio facilitare il loro rinvenimento in caso di smarrimento. Sebbene cosa ne faccia il colosso Disney delle foto scattate ai volti dei bambini non è dato a sapere, certo è che si tratta di dati estremamente sensibili essendo la fotografia del volto a tutti gli effetti un dato biometrico unicamente riconducibile all’identità di un individuo al pari dell’impronta digitale e della voce.

Altri sistemi di profilazione con cui entrano in contatto facilmente i bambini sono i giochi scaricati sugli smartphone o su altri dispositivi – che in alcuni casi, nota la studiosa, questi continuano a carpire immagini tramite la la videocamera dell’apparecchio anche quando il gioco non è in funzione –, i dati raccolti da piattaforme di intrattenimento come Netflix che, non a caso, lavorano sulla creazione di profili ID univoci. Persino le ricerche effettuate dai genitori attraverso i motori di ricerca online a proposito di disturbi o malattie dei figli concorrono all’accumulo di dati sensibili utili alla costruzione della loro identità digitale sin da bambini.

Tutto ciò non può che porre importanti interrogativi circa il concetto di privacy tenendo presente come questo derivi da uno specifico contesto politico, sociale e culturale. Buona parte del dibattito attorno alla privacy rapportata alle nuove tecnologie ruota attorno all’idea di una necessaria e netta distinzione tra una sfera pubblica (visibile) e una privata (riservata). Se l’avvento dei social media, su cui si è indotti a esibire/condividere tutto di se stessi [su Carmilla], sembra annullare sempre più la distinzione tra pubblico e privato, conviene secondo Barassi soffermarsi sull’importanza di tale dicotomia in quanto «consente di capire la filosofia individualista – e problematica – che definisce l’approccio occidentale verso la privacy e la protezione dei dati» (p. 89). La dicotomia tra ciò che è pubblico e ciò che è privato nella cultura occidentale «suggerisce che c’è una chiara differenza tra la sfera collettiva e quella personale, tra Stato e individuo, tra ciò che è visibile e ciò che è segreto» (p. 89).

Il concetto di privacy occidentale ha le sue radici nell’idea che «che dobbiamo proteggere il nostro interesse personale e le nostre famiglie nucleari prima di pensare alla dimensione pubblica/collettiva» (p. 89). Ed è in tale filosofia individualista della privacy che secondo la studiosa si annida il vero problema:

rapportare il concetto di privacy a quello di interesse individuale porta sempre a una riduzione del suo valore una volta che la privacy viene posta di fronte all’interesse collettivo. Questo è chiaro se pensiamo ai dibattiti sul riconoscimento facciale, sul contact tracing o su altre tecnologie implementate in nome dell’interesse collettivo. Dall’altra parte, intendere la privacy come fenomeno individuale ci porta a cercare soprattutto soluzioni individualiste a problemi che sono invece di natura collettiva (p. 90).

Circa la privacy dei bambini, dall’indagine svolta da Barassi emerge con forza nei genitori una sorta di “rassegnazione digitale”, dettata dall’impressione di non aver altra scelta, di cui approfitta il capitalismo della sorveglianza che però, nota la studiosa, si avvale anche della “partecipazione digitale forzata”. I soggetti fornitori di servizi a cui ricorrono quotidianamente le famiglie, dai servizi sanitari alle istituzioni educative, sempre più si affidano alla raccolta e all’analisi dei dati personali.

È attraverso la partecipazione digitale forzata a una pluralità di istituzioni, private e non, che i bambini vengono datificati, ed è per questa ragione che dobbiamo andare oltre la privacy come interesse privato dei bambini per studiare invece cosa voglia dire crescere in una società dove siamo continuamente costretti ad accettare termini condizioni di utilizzo, e dove i dati dei nostri figli vengono raccolti e condivisi in modi che sfuggono alla nostra comprensione e la nostro controllo. Solo così riusciremo a fare luce sulle ingiustizie e sulle ineguaglianze della nostra società datificata, e sul fatto che il mondo in cui pensiamo al valore della privacy nella vita di tutti i giorni dipende spesso dalla nostra posizione sociale […] C’è qualcosa di profondamente ingiusto nel diverso impatto che queste trasformazioni hanno avuto sulle famiglie altamente istruite o ad alto reddito da un lato, e su quelle a basso reddito o meno istruite dall’altro (pp. 94-95).

La diseguaglianza sociale in effetti, sottolinea la studiosa, gioca un ruolo importante nelle modalità in cui viene vissuta e affrontata la datificazione a cui si è sottoposti quotidianamente. I sistemi automatizzati di intelligenza artificiale tendono ad amplificare tale ingiustizia. Nelle società a forte datificazione i dati raccolti ed elaborati finiscono per essere utilizzati per profilare e indirizzare le vite degli individui. Piuttosto che concentrarsi esclusivamente sul problema della privacy, occorrerebbe piuttosto indagare quanto «la sorveglianza digitale e la datificazione di massa [siano] strettamente interconnesse con la giustizia sociale» (p. 97).

Sebbene spesso si parli di profilazione riferendosi al ricorso a tecnologie e algoritmi per l’analisi predittiva, in realtà, sottolinea Barassi, si tratta innanzitutto di «un processo antropologico che si estende oltre il mondo digitale e che ha a che vedere con la classificazione e la creazione di categorie, di raggruppare persone, animali, piante e cibi sulla base delle loro similitudini e differenze. È attraverso la creazione di categorie che definiamo le regole sociali» (p. 103). Tale pratica viene utilizzata anche per identificare il rischio. «Nella società moderna la profilazione è anche storicizzatone connessa al controllo della popolazione e all’oppressione razziale e sociale» (p. 103). La profilazione ha finito per far parte della vita quotidiana tanto nel farvi ricorso quanto nell’esservi sottoposti [su Carmilla]; «la profilazione è per definizione una pratica di correlazione di dati che serve per formare un giudizio» (p. 104).

Sebbene la profilazione sia un fenomeno sociale, antropologico e personale in atto ben da prima della trasformazione digitale, è nel passaggio di millennio che si determinano cambiamenti sostanziali: l’avvento di nuove tecnologie ha comportato tanto un aumento spropositato della quantità di informazioni personali che possono essere raccolte e intrecciate, quanto di strumenti utili a ottenerle al fine di realizzare profilazioni sempre più sofisticate. Nel saggio Big Other: Surveillance Capitalism and the Prospects of an Information CIvilization (2015) pubblicato sul “Journal of Informatin Technology” (30 gennaio 2015), Shoshana Zuboff ha spiegato come a suo avviso sia più efficace indicare tale contesto come “Big Other”, piuttosto che “Big Data”, in quanto tale dicitura rende meglio l’idea dell’architettura globale – composta da computer, network, sistema di accordi e relazioni… – di cui si avvale il capitalismo della sorveglianza nello scambiare, vendere e rivendere i dati personali.

Barassi evidenzia come un ruolo centrale all’interno di tale Big Other sia svolto dai “data broker”, aziende che raccolgono informazioni personali sui consumatori, le aggregano sotto forma di profili digitali per poi venderli a terzi. La raccolta di dati avviene sia dai registri pubblici che dalle piattaforme digitali e dalle ricerche di mercato, oltre che acquistandole dalle aziende che gestiscono app e social media. Un data broker può identificare, ad esempio, un individuo anche in base al suo aver manifestato interesse all’argomento diabete non solo per vendere l’informazione a produttori di alimenti senza zucchero, ma anche alle assicurazioni che, in base a ciò, lo classificheranno come “individuo a rischio” alzando il prezzo della sua polizza. Analogamente gli individui vengono profilati sulla base del reddito, dello stile di vita, dell’etnia, della religione, dell’essere o meno socievoli o introversi e così via agendo di conseguenza nei loro confronti. La raccolta di questi dati avviene in un regime da Far West a partire dalla più tenera età così da poter aggiornare costantemente e affinare il profilo individuale.

La studiosa sottolinea anche come i dati raccolti dalle Big Tech in ambito domestico non siano soltanto personali/individuali ma raccontino anche la famiglia intesa come gruppo sociale a partire dai contesti socioeconomici, valoriali e comportamentali e tutto ciò può condurre a gravi forme di discriminazione. Un’inchiesta di ProPublica, organizzazione no-profit statunitense, ha rivelato come Facebook consentisse pubblicità mirate discriminatorie rivolte alle sole “famiglie bianche”. Barassi sottolinea come tali meccanismi possano imprigionare i bambini in stereotipi discriminatori e riduzionisti limitandone la mobilità sociale; si rischia di divenire sempre più prigionieri delle classificazioni assegnate al proprio profilo digitale.

Dal 2019 Amazon raccoglie informazioni fisiche ed emotive degli utenti attraverso la profilazione della voce, mentre Google ed Apple stanno lavorando da tempo a sensori in grado di monitorare gli stati emotivi degli individui e tutti questi dati vanno ad aggiungersi a quelli raccolti a scopo di profilazione quando si cercano informazioni sulla salute su un motore di ricerca. Come non bastasse, le Big Tech affiancano alla raccolta dati sulla salute ingenti investimenti nell’ambito dei sistemi sanitari. Qualcosa di analogo avviene nel sistema scolastico-educativo ed anche in questo caso le grandi corporation tecnologiche hanno saputo approfittare dell’emergenza sanitaria per spingere sull’acceleratore della loro entrata in pompa magna nel sistema dell’istruzione.

I media occidentali da qualche tempo danno notizia con un certo allarmismo del sofisticato sistema di sorveglianza di massa e di analisi dei dati raccolti sui singoli individui e sulle aziende messo a punto dal governo cinese tra il 2014 e il 2020 al fine di assegnare un punteggio di “affidabilità” fiscale e civica in base al quale gratificare o punire i soggetti attraverso agevolazioni o restrizioni in base al rating conseguito. All’interesse per il sistema di sorveglianza cinese non sembra però corrispondere altrettanta attenzione a proposito di ciò che accade nei paesi occidentali, ove da qualche decennio «governi e forze dell’ordine stanno utilizzando i sistemi IA per profilarci, giudicarci e determinare i nostri diritti» (p. 122), impattando in maniera importante soprattutto sul futuro delle generazioni più giovani.

Sebbene non sia certo una novità il fatto che governi e istituzioni raccolgano dati o sorveglino i comportamenti dei cittadini, la società moderna ha indubbiamente “razionalizzato” tale pratica soprattutto in funzione efficientista-produttivista rafforzando insieme alla burocrazia statale gli interessi aziendali. In apertura del nuovo millennio, scrive Barassi, anche sfruttando l’allarmismo post attentati terroristici che hanno colpito gli Stati Uniti e l’Europa, molti governi hanno iniziato ad integrare le tecnologie di sorveglianza quotidiana dei dati con i sistemi di identificazione e autenticazione degli individui.

Alcuni studi hanno dimostrato come le pratiche di profilazione digitale messe in atto in diversi paesi, oltre ad essere discriminatorie, minino alle fondamenta i sistemi legali in quanto determinano in segreto quanto un cittadino sia da considerare “un rischio” per la società senza concedergli la possibilità di usufruire di un’adeguata tutela legale. Altro che “giusto processo”; soprattutto grazie alle leggi anti-terrorismo emanate dopo l’11 settembre 2001 ci si può ritrovare “condannati” senza nemmeno conoscerne il motivo.

Barassi riporta il caso della Palantir Technologies, vero e proprio colosso privato della sorveglianza e profilazione dei cittadini, capace di offrire servizi di raccolta e analisi dei dati ai governi e alle aziende private soprattutto occidentali. Ai sevizi di tale azienda, creata nel 2003, ricorrono le principali agenzie governative statunitensi (dall’FBI alla CIA, dal’Immigration and Customs Enforcement al Department of Homeland Security ed al Department of Justice). Attiva in oltre 150 paesi nel 2010, la Palantir Technologies ha saputo sfruttare abilmente l’attuale pandemia per diffondere i sui servizi in Europa.

La profilazione digitale dei cittadini si rivela strategica per molti paesi occidentali in cui istituzioni governative e apparati di polizia ricorrono sempre più a sistemi di IA, il più delle volte gestiti direttamente da aziende private, per prendere decisioni importanti sulla vita dei cittadini. Barassi sottolinea anche come numerosi studi abbiano dimostrato come le tecniche per il riconoscimento facciale, ad esempio, siano tutt’altro che attendibili e come le stesse tecnologie per l’analisi predittiva, oltre che non affidabili, tendano ad amplificare i pregiudizi e ad alimentare la diseguaglianza sociale. Una ricerca del 2019 pubblicata su “Science”, ad esempio, ha rivelato come il sistema sanitario statunitense ricorra ad algoritmi razzisti nel prendere decisioni in merito alla salute pubblica.

«Nell’era de capitalismo della sorveglianza non esistono più dati “innocui”, perché i dati che offriamo come consumatori molto spesso vengono utilizzati per determinare i nostri diritti di cittadini» (p. 133). Il software CLEAR, ad esempio, attinge dati di oltre 400 milioni di consumatori da un’ottantina di società che si occupano di bollette domestiche di vario tipo per poi rivenderli ad istituzioni governative che si occupano di frode fiscale e sanitaria, di immigrazione e riciclaggio di denaro o di prendere decisioni relative all’affidamento di bambini. «Senza che se ne rendano conto, i dati che gli utenti […] producono in qualità di consumatori domestici possono venire incrociati, condivisi e utilizzati per investigazioni federali» (p. 134). Altro inquietante caso riportato da Barassi riguarda Clearview AI, società produttrice di software per il riconoscimento facciale. Un inchiesta del “New York Times” del 2020 ha evidenziato come in alcune giurisdizioni statunitensi le forze di polizia utilizzassero tale software per confrontare le fotografie di individui ritenuti sospetti con gli oltre tre miliardi di immagini presenti online, soprattutto sui social.

***

È di questi giorni la notizia delle sanzioni comminate in Italia dall’Autorità Garante della Concorrenza e del Mercato a due tra le maggiori Big Tech

Tra gli utenti di Apple e Google e le due aziende esiste “un rapporto di consumo, anche in assenza di esborso monetario“. Perché “la controprestazione”, cioè il pagamento, “è rappresentata dai dati che essi cedono utilizzando i servizi di Google e di Apple”. È con questa premessa che l’Antitrust ha multato i due gruppi per un totale di 20 milioni di euro – 10 ciascuno, il massimo edittale – per due violazioni del Codice del Consumo, una per carenze informative e un’altra per pratiche aggressive legate all’acquisizione e all’utilizzo dei dati dei consumatori a fini commerciali (Apple e Google, multa Antitrust da 20 milioni: “Informazioni carenti sull’uso dei dati personali degli utenti e pratiche aggressive”, “Il Fatto Quotidiano”, 26 novembre 2021.

Nel Comunicato stampa emesso dall’AGCM il 26 novembre 2021 viene evidenziato come nella fase di creazione dell’account, Google «l’accettazione da parte dell’utente al trasferimento e/o all’utilizzo dei propri dati per fini commerciali» risulti pre-impostata consentendo così «il trasferimento e l’uso dei dati da parte di Google, una volta che questi vengano generati, senza la necessità di altri passaggi in cui l’utente possa di volta in volta confermare o modificare la scelta pre-impostata dall’azienda». Nel caso di Apple, prosegue il Comunicato stampa, l’architettura di acquisizione «non rende possibile l’esercizio della propria volontà sull’utilizzo a fini commerciali dei propri dati. Dunque, il consumatore viene condizionato nella scelta di consumo e subisce la cessione delle informazioni personali, di cui Apple può disporre per le proprie finalità promozionali effettuate in modalità diverse». Nel dettaglio si vedano: Testo del provvedimento GoogleTesto del provvedimento Apple

Alla luce di quanto detto in precedenza, è difficile immaginare che tutti questi dati sugli utenti raccolti subdolamente, legalmente o meno, vengano sfruttati “solo” a livello commerciale. Intanto si accumulano, poi potranno essere messi sul mercato ed essere elaborati e utilizzati per gli scopi più diversi.

È il capitalismo della sorveglianza, bellezza. E tu non ci puoi far niente! Se ci si deve per forza rassegnare a tale ennesimo adagio impotente, occorrerebbe allora riprendere anche l’efficace titolo di un recente film italiano: E noi come stronzi rimanemmo a guardare (2021, di Pierfrancesco Diliberto “Pif”).


Su Carmilla – Serie completa Culture e pratiche della sorveglianza

]]>
Culture e pratiche di sorveglianza. Tracciati e profilati fin da prima della nascita https://www.carmillaonline.com/2021/11/25/culture-e-pratiche-di-sorveglianza-tracciati-e-profilati-fin-da-prima-della-nascita/ Thu, 25 Nov 2021 21:00:39 +0000 https://www.carmillaonline.com/?p=69175 di Gioacchino Toni

«Dal momento in cui i bambini vengono concepiti, le loro informazioni mediche sono spesso condivise su app di gravidanza o sui social media, e dopo essere venuti al mondo tutti i loro dati sanitari e educativi vengono digitalizzati, archiviati e molto spesso gestiti da società private. A man mano che crescono, ogni istante della loro vita quotidiana viene monitorato e trasformato in un dato digitale […] I dati dei nostri bambini vengono aggregati, scambiati, venduti e trasformati in profili digitali, e verranno sempre più utilizzati per giudicarli e per decidere [...]]]> di Gioacchino Toni

«Dal momento in cui i bambini vengono concepiti, le loro informazioni mediche sono spesso condivise su app di gravidanza o sui social media, e dopo essere venuti al mondo tutti i loro dati sanitari e educativi vengono digitalizzati, archiviati e molto spesso gestiti da società private. A man mano che crescono, ogni istante della loro vita quotidiana viene monitorato e trasformato in un dato digitale […] I dati dei nostri bambini vengono aggregati, scambiati, venduti e trasformati in profili digitali, e verranno sempre più utilizzati per giudicarli e per decidere aspetti fondamentali della loro vita» (p. 10)

Così scrive Veronica Barassi nell’ambito di una  sua ricerca, pubblicata originariamente da MIT Press in lingua inglese, volta ad approfondire come la trasformazione digitale in atto, grazie anche all’apporto degli sviluppi dell’intelligenza artificiale, stia conducendo alla datificazione di ogni traccia lasciata dall’individuo sin da prima della sua nascita. Per comprendere meglio la portata di tale trasformazione secondo la studiosa conviene concentrarsi sulla prima generazione che ha subito il processo di datificazione digitale sin da prima di venire al mondo. Tale ricerca è stata tradotta e pubblicata in italiano nel volume da poco disponibile in libreria: Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021).

Se è difficile individuare un momento preciso in cui tutto ciò ha preso il via, secondo l’autrice si possono tuttavia individuare due momenti chiave che hanno permesso l’avvio di tale processo. Un primo momento può essere individuato nella svolta neoliberista thatcher-reaganiana a cavallo tra anni Settanta e Ottanta nel suo porsi alla base di quei processi di globalizzazione che, con le relative ricadute economiche, politiche e sociali, hanno fatto da premessa al secondo fenomeno che ha determinato la trasformazione di cui si sta parlando, ossia la nascita negli anni Novanta di quel capitalismo della sorveglianza di cui ormai si palesano gli effetti in termini di controllo e sfruttamento [su Carmilla].

Nonostante le tecnologie Internet siano nate nel corso degli anni Settanta da reti militari, universitarie, scientifiche, ludiche e alternative, il vero e proprio punto di svolta è riconducibile all’avvento del World Wide Web a metà anni Novanta che ha radicalmente cambiato e influenzato il modo di organizzare e rendere accessibili le informazioni in rete. È tale trasformazione ad aver permesso la nascita di quel capitalismo digitale che, con lo spostamento della produzione industriale nei paesi con un costo della forza lavoro più contenuto, ha dato vita nei paesi tecnologicamente più avanzati a un’economia sempre più incentrata sul marketing, sulla pubblicità e sulla distribuzione supportata da una sempre più marcata flessibilità dei rapporti di lavoro e da un’evidente erosione della distinzione tra tempo di lavoro e tempo libero.

Nonostante gli intenti utopistici che avevano accompagnato la nascita del web, il processo di privatizzazione non ha tardato ad arrivare sotto forma di browser e business dot.com. È dall’implosione di tale economia, naufragata con la bolla speculativa al passaggio di millennio, che è nato il web 2.0 costruito sulla partecipazione attiva degli utenti; non a caso le prime grandi piattaforme 2.0 sono state i social media (Facebook dal 2004, YouTube dal 2005, Twitter dal 2006 ecc.) e a tali standard si sono presto adeguate le piattaforme tradizionali di Google e Amazon a cui si sono poi aggiunte Airbnb (dal 2007) [su Carmilla] e Uber (dal 2009).

Sebbene a ridosso del passaggio tra primo e secondo decennio del nuovo millennio le piattaforme social hanno oggettivamente svolto un ruolo importante nel supportare numerose proteste, l’entusiasmo nei confronti delle nuove tecnologie della connettività ha dovuto fare i conti con il palesarsi del loro operare nella raccolta e nello sfruttamento dei dati personali che con la l’inadeguatezza di queste allo sviluppo duraturo di esperienze di antagonismo sociale [su Carmilla].

Se il web 2.0 ha permesso la raccolta di una quantità di dati prima inimmaginabile, occorre sottolineare come parallelamente a tutto ciò siano avanzate le ricerche nell’ambito dell’intelligenza artificiale ed è dall’intrecciarsi di questi due ambiti che è scaturita quella vera e propria riformulazione della vita quotidiana di cui forse soltanto ora ci si accorge, anche alla luce dell’emergenza pandemica.

Non è azzardato affermare che per il capitalismo della sorveglianza Google ha avuto un ruolo non dissimile da quello esercitato dalla Ford Motor Company e dalla General Motors nello sviluppo del capitalismo industriale [su Carmilla] ed è proprio attraverso colossi come Google che si è diffusa l’analisi predittiva in tutti gli ambiti dell’esistenza; dalle scuole alle banche, dalle assicurazioni alle agenzie interinali, dall’assistenza sociale agli apparati di polizia.

Nell’era del capitalismo della sorveglianza non c’è più confine tra i dati del consumatore, raccolti per proporre pubblicità personalizzate, e i dati del cittadino, raccolti per decidere se possiamo avere accesso o meno a determinati diritti […] Il Capitalismo della sorveglianza ci sta trasformando tutti in cittadini datificati e se davvero vogliamo capire questa trasformazione dobbiamo concentrarci sui bambini nati nell’ultima decade: la prima generazione datificata fin da prima della nascita (p. 19).

È pertanto sui nativi datificati che si concentra la ricerca di Veronica Barassi. Sui bambini datificati cioè sin da prima di nascere anche a causa della condotta dei genitori che condividono sui social informazioni circa il futuro nascituro, dai resoconti sull’attesa alle loro ecografie, proseguendo poi, una volta venuti al mondo, con la diffusione di immagini e racconti dettagliati dei loro istanti di vita quotidiana a cui si aggiungono i dati raccolti dalle tante app utilizzate dai genitori per monitorare la salute e la crescita dei bambini e dalle apparecchiature smart sempre più diffuse all’interno delle abitazioni [su Carmilla]. Poi il profilo dei bambini sarà aggiornato delle piattaforme educative e da tutto l’armamentario di cui dispone il capitalismo della sorveglianza.

In particolare la studiosa si sofferma su quattro tipologie principali di raccolta dati relativi ai bambini: quelli raccolti dagli “assistenti virtuali” presenti nelle abitazioni in cui vivono; quelli immagazzinati dalle scuole attraverso le piattaforme educative on line; quelli relativi alla salute aggregati tanto attraverso app private quanto attraverso l’informatizzazione del sistema sanitario pubblico; quelli raccolti dai social media. Risulta pertanto palese la volontà delle Big Tech di raccogliere il maggior numero di dati personali per poterli aggregare in profili digitali riconducibili a singoli individui attraverso sistemi, anche biomedici, di identificazione e profilazione.

La recente pandemia, ricorda Barassi, ha di certo spinto sull’acceleratore del capitalismo della sorveglianza già in atto, palesando il livello di dipendenza dalle tecnologie digitali e la sempre più difficile distinguibilità tra ambiti privati e pubblici e tra tempi e spazi lavorativi e ricreativi.

Se il tracciamento medico del nascituro non è una novità, scrive Barassi, esistono però almeno due grandi differenze rispetto al passato: un’inedita possibilità di concentrazione dei dati raccolti dalle famiglie (informazioni mediche, psicologiche e relative alla routine quotidiana, agli stili di vita e di consumo ecc.) e un’altrettanto inedita diffusione di tali dati attraverso condivisioni su app e social con ciò che ne consegue in termini di profilazione aziendale. Non a caso, come ha esplicitato l’ONG Electronic Frontier Foundation nel report di Quintin Cooper, The Pregnancy Panopticon (2017), Facebook e Google stanno investendo sulla compravendita dei dati raccolti delle app che accompagnano la gravidanza.

In generale, sostiene Barassi, le Big Tech, oltre a raccogliere dati da terzi, stanno investendo in settori pubblici come la salute e l’educazione (es. Google for Education, che la recente emergenza pandemica ha enormemente contribuito a diffondere anche nel sistema educativo italiano). Sebbene negli USA e in Europa vi siano leggi che proibiscono alle aziende private di vendere a terzi dati raccolti nell’ambito dell’educazione, non è poi così difficile per tali piattaforme aggirare i vincoli legislativi e aggregare i dati sotto un unico profilo ID in grado di seguire l’individuo lungo la sua intera esistenza.

Una ricerca del 2019 pubblicata dal “British Medical Journal” ha mostrato come buona parte delle app relative alla salute condividano i dati raccolti con fornitori di servizi che a loro volta li girano soprattutto a società di ambito tecnologico, pubblicitario e persino ad agenzie di credito: anche i dati raccolti prima della nascita possono concorrere all’ottenimento o meno di un credito in età adulta.

Circa i motivi che spingono tante famiglie a ricorrere a tali app di tracciamento, le interviste sul campo condotte da Veronica Barassi indicano come l’entusiasmo per tali applicazioni derivi soprattutto dalla sensazione di sicurezza e controllo che esse sembrano offrire. Il fenomeno del sharenting, ossia l’ossessione dei genitori di condividere sui social informazioni relative ai figli, spiega la studiosa, sembra derivare dal tentativo di sconfiggere tutte quelle ansie e quelle paure che si proiettano sull’essere genitori per la prima volta attraverso la creazione di un’identità digitale dei figli il più possibile idilliaca. Durante l’inchiesta è emerso come le medesime motivazioni di controllo e sicurezza siano alla base anche del ricorso volontario a tecnologie di tracciamento reciproco, ad esempio tramite smartphone, tra i genitori.

Alla luce dell’incremento esponenziale nell’ultimo decennio di tecnologie di intelligenza artificiale tra le pareti di casa, Barassi invita a chiedersi quale tipo di valori culturali questi dispositivi incorporino e come vengano trasmessi. «Cosa vuol dire far crescere i nostri figli con dispositivi di intelligenza artificiale che insegnano loro a relazionarsi con un oggetto come se fosse una quasi-persona? Che tipo di dati vengono raccolti da queste tecnologie e che impatto hanno sulla privacy dei nostri figli?» (p. 46).

L’idea di intelligenza artificiale, ricorda la studiosa, è nata negli anni Cinquanta del Novecento con riferimento alla possibilità di far eseguire alle macchine cose che necessiterebbero dell’intelligenza umana. Oggi si tende a parlare di intelligenza artificiale tanto in maniera “hollywoodiana” (che la vuole dotata di coscienza e autonomia, in grado di provare emozioni e ingannare l’essere umano), quanto rapportandola all’apprendimento automatico da dati esistenti, alle reti neurali e all’analisi predittiva, cioè a tutto ciò che sta realmente trasformando la realtà quotidiana. «Se davvero vogliamo capire il ruolo dell’intelligenza artificiale nelle nostre case dobbiamo cominciare proprio dalle sensazioni e dalle emozioni che proviamo quando interagiamo con “macchine intelligenti”, e da come molto spesso le nostre interazioni con queste tecnologie siano definite dall’illusione dell’intimità artificiale» (p. 52).

Diverse ricerche sul campo hanno dimostrato come gli individui si relazionino con queste tecnologie come se si trovassero di fronte a esseri umani (ad es. vi si rivolgono con forme di cortesia del tipo “per favore”, “grazie” ecc.) e si rapportano con gli “assistenti virtuali” avendo la sensazione di dialogare confidenzialmente con una persona amica. Sebbene tale sensazione venga maggiormente percepita confrontandosi con robot antropomorfici, è comunque bene presente anche nel rapporto con gli assistenti virtuali con cui sono possibili soltanto forme di interazione vocale.

A partire da tali premesse diviene importante chiedersi che tipo di relazione strutturino i bambini con agenti dotati di intelligenza artificiale. Sebbene non vi sono al momento risposte univoche da parte degli studiosi a proposito del tipo di interazione che i bambini sviluppano con l’intelligenza artificiale, quanto il rapporto possa divenire intimo e personale, di certo però occorre non dimenticare che tali tecnologie domestiche sono pianificate con preconcetti culturali e sociali, dunque è importante domandarsi quale tipo di valori trasmettano ai bambini. Di certo Alexa e Google Assistant sono progettati per incentivare e facilitare il consumo, ma quali preconcetti culturali trasmettono? La scelta della voce femminile in molto tecnologie smart, ad esempio, rafforza il pregiudizio culturale che vuole la donna “assistente” e “servizievole”.

Uno dei casi che più hanno fatto discutere, e su cui si sofferma l’autrice, riguarda Hello Barbie: una bambola rivelatasi in grado di registrare le conversazioni casalinghe per la profilazione dei bambini e dei famigliari. Non meno inquietante è stato l’uso e lo stoccaggio da parte di Amazon dei dati raccolti dai bambini attraverso Echo Dot Kids. Al di là dei prodotti appositamente realizzati per raccogliere dati sui bambini, occorre tener presente anche il rapportarsi di questi ultimi con tecnologie domotiche presenti nelle abitazioni – la studiosa ha in particolare monitorato l’uso di Amazon, Google, Apple e Samsung – che hanno accesso a informazioni relative al contesto socio-economico e agli aspetti valoriali e comportamentali della famiglia. Si tratta di raccolte che avvengono sempre più anche sfruttando la ricognizione vocale.

Un’impronta vocale è esattamente come un’impronta digitale, è un dato biometrico che può essere facilmente associato all’individuo. Questo significa che le aziende che raccolgono i dati dalle nostre case possono integrarli con informazioni biometriche da utilizzare per la creazione di profili ID unici che […] possono essere utilizzati per trarre una varietà di conclusioni sensibili sull’individuo: dal contesto socio-economico in cui vive al suo stato di salute mentale (p. 61).

Oltre a soffermarsi sull’inchiesta del 2019 condotta dalla tv belga VRT NWS venuta in possesso di un migliaio di registrazioni di Google Assistant che includevano conversazioni in camera da letto registrate senza che fosse stato pronunciato “Hey Google”, dunque all’insaputa degli utenti, Barassi riporta le inquietanti ammissioni di un impiegato di Apple rilasciate all’inglese “Guardian” nel 2020 a proposito della pratica diffusa in azienda di far ascoltare ai dipendenti le registrazioni di Siri.

Negli Stati Uniti vi sono già stati diversi casi in cui le registrazioni ottenute tramite Alexa sono state utilizzate in tribunale mentre il “Washington Post” ha ricostruito come l’Immigration and Customs Enforcement (la polizia di controllo dell’immigrazione) si avvalga del database CLEAR di proprietà di una multinazionale canadese contenente oltre 400 milioni di nominativi, indirizzi e dati vari raccolti da un’ottantina di aziende che si occupano di utenze domestiche, internet, telefonia ecc.

Il volume I figli dell’algoritmo di Veronica Barassi dedica uno spazio importante anche al ruolo dei social media nella costruzione contemporanea del sé e alla questione della privacy mettendo in luce, in quest’ultimo caso, come tale concetto sia contingente al contesto politico, sociale e culturale e come il grande limite del concetto di privacy in Occidente derivi dall’essere inteso come fenomeno individuale che induce a cercare soluzioni individualiste a problematiche in realtà di natura collettiva. Occorrerà tornare su questi ultimi aspetti affrontati dalla studiosa.


Su Carmilla – Serie completa Culture e pratiche della sorveglianza

 

]]>