capitalismo della sorveglianza – Carmilla on line https://www.carmillaonline.com letteratura, immaginario e cultura di opposizione Sat, 07 Feb 2026 21:00:44 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.26 In che accidenti di mondo siamo? https://www.carmillaonline.com/2023/12/10/in-che-accidenti-di-mondo-siamo/ Sun, 10 Dec 2023 21:00:13 +0000 https://www.carmillaonline.com/?p=80093 di Gioacchino Toni

“Have you ever questioned the nature of your reality?” (Westworld)

Del volume di Emanuela Piga Bruni, La macchina fragile. L’inconscio artificiale fra letteratura, cinema e televisione (Carocci, 2022), che attraverso l’immaginario fantascientifico incentrato sull’ibridazione umano/macchina affronta i concetti di fragilità e vulnerabilità nella dimensione sociale e tecnologica di una contemporaneità sempre più automatizzata, ci si è già occupati su Carmilla. Di seguito ci si limiterà pertanto a riprendere alcune riflessioni proposte dall’autrice nel confrontare la serie televisiva Westworld prodotta nel nuovo millennio con l’omonima opera cinematografica dei primi anni Settanta di Michael [...]]]> di Gioacchino Toni

“Have you ever questioned the nature of your reality?” (Westworld)

Del volume di Emanuela Piga Bruni, La macchina fragile. L’inconscio artificiale fra letteratura, cinema e televisione (Carocci, 2022), che attraverso l’immaginario fantascientifico incentrato sull’ibridazione umano/macchina affronta i concetti di fragilità e vulnerabilità nella dimensione sociale e tecnologica di una contemporaneità sempre più automatizzata, ci si è già occupati su Carmilla. Di seguito ci si limiterà pertanto a riprendere alcune riflessioni proposte dall’autrice nel confrontare la serie televisiva Westworld prodotta nel nuovo millennio con l’omonima opera cinematografica dei primi anni Settanta di Michael Crichton utili non solo a evidenziare le mutate modalità con cui attraverso il filtro distopico si guarda al rapporto tra gli umani e gli esseri tecnologici antropomimetici e all’emergere della questione della “coscienza artificiale”, ma anche a prendere atto delle nuove forme di sfruttamento introdotte dall’universo digitalizzato contemporaneo.

Dopo essersi soffermata sul perturbante confronto tra l’essere umano e la macchina antropomorfa, sul rapporto tra identità/alterità che ne deriva e sul problema della coscienza a partire da alcuni celebri interrogatori o colloqui psicoanalitici proposti dalla fantascienza – dalle indagini del robopicologo di Mirror Image (1972) di Isaac Asimov, alla misurazione dell’empatia del test Voight-Kampff in Do Androids Dream of Electric Sheep (1968) di Philip K. Dick, poi ripreso dal film Blade Runner (1982) di Ridley Scott, fino al dialogo tra due cyborg ibridazioni umano-tecnologiche di Ghost in the Shell, media franchise sviluppatosi a partire dal celebre manga di Masamune Shirow (dal 1989) – Emanuela Piga Bruni propone un interessante confronto tra il film Il mondo dei robot (Westworld, 1973) di Michael Crichton e la serie televisiva da esso derivata Westworld – Dove tutto è concesso (Westworld, dal 2016) creata da Jonathan Nolan e Linda Joy per HBO suggerendo importanti riflessioni sul contesto contemporaneo ipertecnologico votato alla disincarnazione dell’umano e alla trasformazione del suo immaginario e della sua coscienza.

Un contesto, quello contemporaneo, in cui pur persistendo il fascino per l’avanzata digitale nonostante il palesarsi della deriva a cui questa sta conducendo in termini di controllo e sfruttamento, cresce anche il timore per la perdita del controllo sulle tecnologie da parte degli esseri umani indotti a domandarsi con preoccupazione se i computer potranno mai avere una coscienza simile a quella umana evitando però di chiedersi quanto quest’ultima si stia nel frattempo “computerizzando” per effetto delle moderne Tecnologie dell’informazione e della comunicazione e dell’Intelligenza Artificiale al servizio del capitalismo della sorveglianza e predittivo.

Alcune narrazioni distopiche hanno saputo proporre riflessioni sull’incidenza delle tecnologie sugli esseri umani e su come questi ultimi si stiano trasformando. Se il romanzo di fine anni Sessanta Do Androids Dream of Electric Sheep di Dick si concentra sulle strutture oppressive del potere in un periodo incentrato sul medium televisivo, nel film dei primi anni Ottanta Blade Runner di Scott è invece l’universo informatico nella forma antropomorfa del replicante a conquistare la scena.

Confrontando l’androide del romanzo con il replicante del film si nota come del primo Dick eviti di dare una descrizione tecnologica, tratteggiandolo quasi come una figura magica, mentre il secondo venga utilizzato da Scott per mettere in scena non tanto una guerra tra esseri umani e macchine sfuggite al controllo, quanto piuttosto un tragico confronto tra macchine sempre più intelligenti e intuitive che sembrano dotarsi di coscienza ed esseri umani che stanno perdendo le loro peculiarità.

Se nel romanzo sono gli androidi a mancare di empatia, nel film sono piuttosto gli umani a mostrarsi deficitari in tal senso. Nell’opera di Scott il discrimine tra umano e macchina si sposta sulla presenza o meno di un passato, su quanto i ricordi siano derivati da esperienze vissute o impiantati artificialmente. Evidenziando il processo di artificializzazione del corpo umano, il film, rispetto al romanzo, insiste sulla sempre più difficile distinguibilità tra naturale e artificiale, tra organico e tecnologico.

Nell’opera di Dick l’artificiale assume un ruolo negativo in quanto simboleggia la realtà sintetica creata dai media e dalla farmacologia che ha condotto alla perdita di qualità tipicamente umane come l’empatia, l’amore e l’ironia: lo scrittore invita dunque a cogliere nell’artificiale la manipolazione della realtà operata dal potere.

Si può dire che a marcare una differenza sostanziale tra gli androidi di Dick e i replicanti di Scott è il fatto che mentre i primi vengono considerati demoni perché mancano di un’anima, i secondi si presentano come vittime del demone umano che sembra ormai aver smarrito la propria.

La questione della macchina antropomimetica è affrontata da Dick in un paio di suoi racconti nei primi anni Cinquanta: Second Variety e Impostor pubblicati su riviste di fantascienza nell’estate del 1953 (rispettivamente su “Space Science Fiction” e “Astounding Science Fiction”). Se nel primo il dover distinguere chi è umano da chi non lo è induce il lettore a immedesimarsi con il protagonista umano certo di essere tale, nel secondo caso chi legge è invece portato a identificarsi con chi, sospettato di essere artificiale, sente minacciata la propria identità di essere umano.

La questione della macchina antropomimetica si viene a intrecciare con il motivo del “cogito androide” ripreso da Dick sul finire degli anni Sessanta tanto nel citato Do Androids Dream of Electric Sheep? quanto nel racconto The Electric Ant (1969) in cui non ci si chiede più se si è realmente umani o soltanto programmati come tali, ma ci si domanda come possa reagire un robot organico che si crede umano nel momento in cui viene a conoscenza della sua vera natura. La questione del cogito androide, centrale nel film di Scott, viene affrontata direttamente da Dick nei suoi scritti The Android and the Human (1972) e Man, Android and Machine (1976).

Anche dal confronto tra il film Westworld di Crichton e l’adattamento che ne ha derivato l’omonima serie televisiva creata da Jonathan Nolan e Linda Joy proposto da Emanuela Piga Bruni – che si concentra esclusivamente sulla prima stagione –, permette di evidenziare come siano cambiate le modalità con cui si guarda al rapporto tra gli umani e gli esseri tecnologici antropomimetici, con tanto di emergere della “coscienza artificiale”.

Lo scenario è quello di un parco divertimenti a tema con diverse ambientazioni – antica Roma imperiale, medioevo fiabesco e western di fine Ottocento – di proprietà della corporation Delos Inc. in cui operano robot antropomorfi indistinguibili dagli esseri umani programmati per soddisfare i desideri dei facoltosi visitatori sotto la discreta sorveglianza di operatori umani da una sala di controllo.

Ai clienti è permesso tutto ciò è invece loro proibito nella vita quotidiana in quanto ogni loro comportamento è rivolto contro esseri non umani imprigionati nella coazione a ripetere programmata, impossibilitati a ribellarsi mettendo in pericolo i visitatori. Un guasto nei robot induce uno di loro, il gunslinger “dal cappello nero” – che ha le sembianze dell’attore Yul Brynner, tra i protagonisti del celebre western I magnifici sette (The Magnificent Seven, 1960) di John Sturges – a prendere violentemente di mira uno dei clienti, Peter Martin (Richjard Benjamin), arrivato nel parco insieme all’amico John Blane (James Brolin), dai diversi tratti compartimentali.

Nella serie televisiva i due amici diventano Logan (Ben Barnes), individuo senza scrupoli desideroso di sfogare i suoi peggiori istinti sui personaggi antropomorfi, e William (Jimmi Simpson), che da un iniziale ritrosia a commettere atti violenti si trasforma nel corso delle sue ripetute partecipazioni al gioco facendo pian piano emergere la parte più oscura di sé mentre tenta di risolvere il “mistero del labirinto” e di scoprire il dietro le quinte del parco.

Centrale nella serie è il personaggio di Dolores, prototipo degli host realizzati da Robert Ford (Anthony Hopkins) e dall’ormai deceduto, rispetto al presente narrativo, Arnold Weber (Jeffrey Wright), incline a essere solidale alle proprie “creature”.

Piga Bruni sottolinea come sul piano metanarrativo il testo televisivo non manchi di rinviare alla produzione e al funzionamento tipici della serialità generando un meccanismo di mise en abîme. Il controllo si presenta come un sistema a livelli concentrici con al centro i loops degli host, dunque le gesta dei clienti, i tecnici della corporation e, al livello più esterno, chi osserva la serie televisiva da casa. Ogni anello permette l’osservazione degli anelli che contiene.

Sia le attrazioni che i visitatori vivono nell’illusione di avere una scelta, mentre sono spiati e utilizzati per il profitto. Pur con livelli diversi di consapevolezza e margine d’azione, entrambe le categorie agiscono ritenendo di poter scegliere, di essere responsabili delle proprie azioni, ma le loro scelte sono predeterminate dal ridotto novero di possibilità offerte a monte. È una riflessione che possiamo estendere al cerchio esterno di noi spettatori, seguendo un percorso ricorsivo che attraversa mondi che sono via via reali uno all’altro1.

In tali tipi di narrazioni distopiche la figura dell’androide si presta facilmente a fungere da «allegoria di tutti i (s)oggetti sfruttati» imponendo una riflessione sui risvolti etici e sul ruolo della tecnologia nella nostra contemporaneità.

Se gli esseri antropomimetici del film di Crichton degli anni Settanta venivano presentati come macchine elettromeccaniche rivestite da sembianze umane, gli host della serie televisiva del nuovo millennio mostrano di essere costruiti con ossa, carne e sangue, del tutto simili agli umani ben oltre le sembianze superficiali. L’evoluzione non riguarda solo i corpi di questi esseri artificiali ma tocca anche la dimensione della coscienza e delle emozioni.

A differenziare gli esseri antropomimetici proposti della serie televisiva rispetto da quelli del film è la presenza di qualche manifestazione di coscienza. A palesare la dimensione puramente macchinica dei robot di Crichton, suggerisce la studiosa, sono le immagini in soggettiva del pistolero pixelate e scarsamente definite; scelta stilistica volta a sottolineare che si tratta di una ribellione contro gli umani del tutto inconsapevole, priva di una benché minima autodeterminazione, derivata semplicemente da un malfunzionamento tecnologico.

Come sottolinea Piga Bruni, la presenza di un barlume di coscienza negli esseri artificiali della serie televisiva è individuabile, ad esempio, nello sguardo di Maeve quando, per l’ennesima volta, dopo essere stata uccisa al termine del gioco, viene ritirata dai tecnici per essere rimessa in funzione per poi venire nuovamente destinata a soddisfare i clienti. A differenza della visione pixelata del pistolero del film, «la prospettiva di Maeve è nettamente situata, ed esprimere pienamente la dimensione creaturale di una donna ferita, il suo stupore misto a terrore, la percezione di essere in un incubo ancora più inquietante quando, agonizzante ma cosciente, vede il personale del parco incaricato del ritiro»2.

Le modifiche inserite dai creatori nel codice sorgente degli esseri antropomimetici volte a permettere uno sviluppo autonomo della cognizione di sé – come le reveries, le ricordanze – conducono all’emersione di una “coscienza artificiale” e alla definizione di un “inconscio artificiale” immanente, segnando il passaggio verso l’elaborazione di una loro “coscienza collettiva”, «una coscienza di classe volta a intraprendere azioni per riscattare le oppressioni, le torture e lo sfruttamento. Appare allora evidente l’allegoria per cui la condizione delle macchine antropomorfe nella finzione narrativa sia quella concreta degli esseri umani contemporanei, a un tempo merce del capitalismo digitale e fonte della materia prima nell’era del capitalismo della sorveglianza»3. Insomma, negli esseri antropomimetici oppressi di Westworld dovremmo riconoscerci noi esseri umani del nuovo millennio.

Nella serie, la ribellione degli host creati da Robert Ford – che non manca di evocare, sottolinea Piga Bruni, tanto il legislatore di Brave New World (1931) di Aldous Huxley, quanto il sistema fordista – posseduti dalla corporation Delos Inc. e utilizzati da questa nel suo prodotto/servizio di intrattenimento, non deriva da un malfunzionamento tecnico come nel film «ma è un frutto di un percorso di riconquista di sé, di riappropriazione delle proprie memorie ed esperienze, di autodeterminazione, che viene messo in atto da esseri senzienti dotati di percezioni e capaci di provare emozioni»4.

“Il mito della produzione a tutti i costi”, nella rappresentazione di Westworld, è un sistema pervasivo che controlla il ragionamento degli host, cancella i ricordi delle violenze da essi subite e ne dirige i comportamenti. Il controllo delle menti avviene poi anche attraverso alcune pratiche pseudoipnotiche attraverso le quali è possibile orientare direttamente il comportamento dei singoli soggetti: il codice sorgente caricato nel cervello degli androidi contiene evidentemente alcune subroutine che si attivano al riconoscimento della voce e dei gesti di chi detiene il potere5.

Il meccanismo dispotico si estende nella trama nascosta e illecita volta a sfruttare i visitatori dei quali interessa il “surplus comportamentale”. Insomma, il parco a tema si mostra un grande sistema totalitario in cui gli androidi sono mercificati e sorvegliati dalla corporation e i visitatori umani «sono materia prima per il parco in quanto macchina produttiva totalizzante»6. Tutto ciò si estende anche ai telespettatori.

In riferimento più immediato è alla sfera dei social network, gli spazi virtuali in cui i soggetti si muovono dimenticandone la natura mercantile, in cui agiscono senza curarsi di essere osservati e registrati. La spazialità del parco è un fenomeno sociale (delle relazioni tra umani, androidi e il panopticon), così come lo sono gli spazi digitali privati nei quali immettiamo immagini, spostamenti, ricordi, riflessioni e legami affettivi: la materia prima che le grandi corporation che li possiedono conservano in archivi remoti e analizzano in modo da acquisire competenze sulle nostre vite singolari più di quanto non possiamo noi stessi7.

Per Dolores il labirinto di cui prova a venire a capo diviene metafora del proprio sé profondo che conduce alla presa di coscienza di una condizione di essere sovradeterminato e sfruttato abitante un mondo fittizio creato da altri. «Origine o fulcro della presa di coscienza individuale, la scoperta la spinge a trascendere la fisionomia remissiva assegnatale dai creatori – dai “sognatori”, i proprietari del parco – e divenire il villain»8. Dalla complessità labirintica derivano gli interrogativi che si pone Dolores: “Who am I?”, “When am I?”, “Am I in a dream?”.

L’insistito ricorso alla domanda “Have you ever questioned the nature of your reality?” nella serie televisiva ci invita a domandarci “In che accidenti di mondo siamo?”, “Cosa siamo diventati?”. Se i replicanti di Blade Runner e gli host di Westworld, dotati di un briciolo di coscienza, hanno saputo ribellarsi, per quanto sempre meno umani possiamo essere divenuti, forse ci resta ancora qualche possibilità di farlo anche noi. Domandarcelo sarebbe già un importante passo in avanti.

 

 


  1. Emanuela Piga Bruni, La macchina fragile. L’inconscio artificiale fra letteratura, cinema e televisione, Carocci, Roma 2022, p. 74. 

  2. Ivi, p. 79. 

  3. Ivi, p. 77. 

  4. Ibidem

  5. Ivi, p. 80. 

  6. Ibidem

  7. Ivi, p. 81. 

  8. Ivi, p. 85. 

]]>
Videogame e conflitto sull’immaginario https://www.carmillaonline.com/2023/05/24/videogame-e-conflitto-sullimmaginario/ Wed, 24 May 2023 20:00:40 +0000 https://www.carmillaonline.com/?p=76920 di Gioacchino Toni

Scrive Tommaso Ariemma, Filosofia del gaming. Da Talete alla PlayStation (Tlon, 2023), che l’universo dei videogame dovrebbe interessare quanti «hanno a cuore il destino politico del nostro tempo» e in particolare «coloro che si dichiarano marxisti» in quanto anche attorno a tale ambito «si raccolgono le grandi contraddizioni del presente» e perché anche «attraverso il gaming può essere portata avanti la lotta politica e la resistenza all’ideologia dominante». All’universo del videogame, insomma, occorre guardare come a un territorio di conflitto sull’immaginario in cui si confrontano un dispositivo di gestione del potere da un lato e un’azione di resistenza [...]]]> di Gioacchino Toni

Scrive Tommaso Ariemma, Filosofia del gaming. Da Talete alla PlayStation (Tlon, 2023), che l’universo dei videogame dovrebbe interessare quanti «hanno a cuore il destino politico del nostro tempo» e in particolare «coloro che si dichiarano marxisti» in quanto anche attorno a tale ambito «si raccolgono le grandi contraddizioni del presente» e perché anche «attraverso il gaming può essere portata avanti la lotta politica e la resistenza all’ideologia dominante». All’universo del videogame, insomma, occorre guardare come a un territorio di conflitto sull’immaginario in cui si confrontano un dispositivo di gestione del potere da un lato e un’azione di resistenza e antagonismo dall’altro.

Ariemma invita a guardare ai videogame più maturi – nel loro essere puro divertimento, narrazione complessa, esperienza estetica, laboratorio per dilemmi morali, o tutto ciò al contempo – non solo come a un oggetto di analisi filosofica, ma anche come a uno strumento attraverso e con cui ragionare a proposito di quei temi di cui la filosofia ha sempre discusso: vita e morte, realtà e illusione, umano e non umano, scelta e libertà, giustizia e società ideale ecc.

Nel videogioco Assassin’s Creed: Syndacate (2015)1, che  consente di immergersi nella Londra vittoriana del 1868 attraversata da una rivolta popolare contro i ricchi industriali e da una serie di omicidi efferati, con salti temporali nel 1916, ci si imbatte in Marx. In quel Marx, sottolinea Ariemma, capace di individuare il lavoro anche ove non lo si vede distintamente, ossia nelle merci che qualcuno produce faticando magari alle prese con qualche macchinario. Ad attivarsi per nascondere il lavoro necessario alla produzione delle merci è proprio quell’immaginario dispensato ed aggiornato costantemente dal potere al fine di presentare l’esistente come naturale, immutabile e, persino, giusto. Per svelare la presenza del lavoro celato dall’economia capitalista, ricorda Ariemma, Marx ricorre frequentemente nelle sue opere alla metafora del vampiro/capitale, metafora che, come argomentato da Luca Cangianti, si rivela costitutiva della teoria del plusvalore e dello sfruttamento2.

Occorre ricordare che se l’industria militare statunitense si è interessata ai videogame sin dalla loro origine3, dal momento in cui questi sono stati in grado di simulare la possibilità di sparare sono divenuti terreno fertile per l’ideologia più reazionaria strutturandosi attorno al modello maschio, bianco ed eterosessuale, con tutto ciò che ne consegue nei confronti di chi è estraneo a tale modello4.

Il videogame, sottolinea inoltre Ariemma, «è sempre stato una merce. Una merce particolarmente efficace dal punto di vista ideologico, proprio secondo la definizione che Marx ha dato implicitamente dell’ideologia nella sua opera Il capitale: “Non sanno di far ciò, ma lo fanno”. Il gamer si diverte, ma non sta vedendo un film o leggendo un libro: percepisce come propri, perché li attua attraverso un controller, desideri e azioni progettati da altri»5.

Il rischio che il diffondersi dei videogame potesse impattare sulla produttività distraendo e sottraendo tempo e attenzione durante l’attività lavorativa è stato per certi versi arginato grazie alla trasformazione che ha toccato molti ambiti lavorativi negli ultimi decenni del vecchio millennio, quando si è assistito a quel processo di gamification6 attraverso cui l’economia capitalista ha saputo appropriarsi anche del gioco rendendolo non solo compatibile all’attività lavorativa ma ristrutturando quest’ultima facendo leva sull’ambito motivazionale attraverso le logiche del gioco7.

«Nel mascherare a noi stessi e agli altri i meccanismi di sfruttamento del lavoro che esso alimenta, “fai ciò che ami” rappresenta il più efficace strumento ideologico del capitalismo. Elide il lavoro degli altri e cela il nostro lavoro a noi stessi», scrive Miya Tokumitsu8. In effetti, come ha puntualizzato Ulysses Pascal, il neoliberismo ha saputo sfruttare il potenziale emotivo e motivazionale del gioco per agire a livello comportamentale anche in ambiti extraludici trasformando le meccaniche del gioco (punteggi, premi, classifiche…) in strumenti finalizzati a «rendere quantificabile (dunque misurabile, commensurabile ed esportabile) il comportamento di un utente all’interno di un videogioco»9.

Il videogioco, sostiene Ariemma, sembra dunque essersi «allontanato dalla sua esperienza gioiosa, diventando simile al gambling, al gioco d’azzardo, con i suoi meccanismi d rinforzo variabile: una continua scommessa, capace di creare una pericolosa dipendenza»10 in maniera non dissimile a ciò che avviene frequentemente con il ricorso ai social media.

Soprattutto nel gaming più maturo, scrive Ariemma, «si è attratti dalla possibilità di potenziare delle abilità, di fare esperienze etiche profonde, assumendo punti di vista insoliti, di esplorare nuovi spazi di condivisione, di sentirsi parte di una narrazione epica, di riflettere criticamente sulle condizioni materiali della nostra società»11.

Esiste però un «lato oscuro del gaming più maturo», mette in guardia lo studioso, «proprio nel momento in cui favorisce la nostra più libera espressione, nella misura in cui concorre ad alimentare ciò che Shoshana Zuboff ha chiamato “capitalismo della sorveglianza”: attraverso il gaming i dispositivi permettono sempre più a terze parti di collezione informazioni personali […] fornendo un “surplus comportamentale”, attraverso il quale molte aziende potenziano i propri profitti, facendo la fortuna dei cosiddetti “mercati dell’attenzione”»12.

I dati raccolti permettono dunque di accumulare informazioni comportamentali. GameAnalytics, per fare un esempio, è in grado di raccoglie ed elaborare i dati di oltre 850 milioni di gamer attivi mensili su più di 70 mila videogiochi ottenendo informazioni precise sui valori e sulle abitudini dei giocatori e, visto che, come dimostrano diversi studi accademici, queste hanno relazioni significative con le abitudini degli utenti nel mondo “fuori dagli schermi”, i videogiochi si dimostrano ottimi strumenti per ottenere una precisa profilazione della personalità di chi ne fa uso.

Anche il meccanismo introdotto dai videogame negli anni Dieci del nuovo millennio, che prevede l’accesso gratuito alle modalità basilari del gioco salvo poi richiedere una serie di pagamenti per poter avere accesso a contenuti e funzionalità extra, si rivela, come spiega Daniel James Joseph13, estremamente redditizio per il business videoludico non solo dal punto di vista delle transizioni dirette in denaro ma anche per quelle indirette in termini di dati raccolti.

I giochi ludicizzati si rivelano importanti anche nell’ambito dello sviluppo dell’intelligenza artificiale applicata all’ambito militare14, come dimostrano, ad esempio, gli ingenti investimenti operati dall’agenzia governativa del Dipartimento della Difesa degli Stati Uniti nella sperimentazione di “agenti artificiali” operanti a fianco dei giocatori umani nel videogioco Minecraft15 al fine di sviluppare un’intelligenza artificiale in grado di monitorare e gestire i soldati sul campo di battaglia.

Contestualizzato nell’ambito di quello che Shoshana Zuboff16 ha definito surveillance capitalism (profilazione al servizio dell’indirizzo comportamentale), e facendo riferimento alle riflessioni di Tiziana Terranova17 sul lavoro culturale nell’economia digitale, Pascal sottolinea come

La valorizzazione delle opportunità rese possibili dal lavoro creativo digitale e dal videogioco nelle sfere dei media partecipativi spesso ignora, sottovaluta e trascura la complicità con le strutture di sfruttamento e di disuguaglianza tipicamente capitalistiche. Se l’aspirazione consiste nel guadagnarsi da vivere “facendo ciò che si ama” – in questo caso, videogiocando – un’attività che in origine aveva unicamente un valore d’uso (leggi, intrattenimento e socializzazione), ora possiede anche un valore di scambio. Da parte sua, la fruizione videoludica partecipa a entrambe le sfere del valore, dal momento che gli utenti sono letteralmente “pagati per giocare”. Così facendo, tuttavia, il gameplay digitale – pratica liminale in bilico tra due sfere di valore – è rimodellato in modo significativo poiché diversamente mobilitato, “giocato” e “riscattato” in tali sfere. Tale trasformazione, da un lato rende invisibile un lavoro aspirational estremamente precario e non adeguatamente ricompensato e, dall’altro, svaluta e impoverisce la nozione e la pratica ludica. I giocatori sono a loro volta giocati da modalità capitalistiche di produzione digitale che impoveriscono tanto il gioco quanto la giocosità, dato che il giocare è rimpiazzato da una performance pubblica e da una correlata ossessione per le metriche, il posizionamento, i guadagni. Detto altrimenti, la gratificazione intrinseca sottesa al giocare si riduce a un puro esercizio economico. Questo stravolgimento di valore condanna tanto il giocatore quanto lo spettatore, che finiscono entrambi per essere strumentalizzati dalla logica della transazione»18.

Sospesi tra l’essere strumenti di controllo e indirizzo comportamentale, oltre che culturale, e l’offrire inedite possibilità non soltanto ricreative ma anche di riflessione critica, i videogiochi, anche alla luce della loro enorme diffusione, non solo meritano di essere studiati con attenzione ma anche di essere utilizzati come strumento – tra gli altri – con cui portare avanti un’opposizione critica, consapevole e risoluta nei confronti di un sistema di dominio a cui occorre opporrsi dentro e fuori gli schermi. La battaglia sull’immaginario, insomma, deve essere condotta con ogni mezzo necessario, videogioco compreso.



  1. Assassin’s Creed: Syndacate (2015), nono capitolo della serie Assassin’s Creed, sviluppato da Ubisoft Quebec. 

  2. Cfr. Luca Cangianti, FantaMarx. Critica dell’economia immaginaria, pp. 85-86, in: Luca Cangianti, Alessandra Daniele, Sandro Moiso, Franco Pezzini, Gioacchino Toni, Immaginari alterati. Politico, fantastico e filosofia critica come territori dell’immaginario, Mimesis edizioni, Milano-Udine, 2018 

  3. Cfr. Jamie Woodcock, Marx at the Arcade: Consoles, Controllers, and Class Struggle, Haymarket Books, Chicago, 2019. 

  4. Cfr. Alfie Bown, Il sogno videoludico. Come i videogiochi trasformano la nostra realtà, Luiss University Press, Roma, 2022 [su Carmilla]; Matteo Bittanti, a cura di, Game Over. Critica della ragione videoludica, Mimesis, Milano-Udine, 2020 [su Carmilla]; Matteo Bittanti, a cura di, Reset. Politica e videogiochi, Mimesis, Milano-Udine, 2023 [su Carmilla]

  5. Tommaso Ariemma, Filosofia del gaming, cit. pp. 71-72. 

  6. Cfr. Gioacchino Toni, Gamification e controllo comportametnale, in “Pulp”, 22 febbraio 2023. 

  7. Cfr. Sarah Mason, Punteggio massimo, compenso minimo. Ludicizzazione: un gioco che i lavoratori non possono vincere, in Matteo Bittanti (a cura di), Game Over, cit. 

  8. Miya Tokumitsu, In the name of love, in “Jacobin”, 12 gennaio 2014. 

  9. Ulysses Pascal, La ludicizzazione dei videogiochi, in Matteo Bittanti (a cura di), Game over, cit, p. 463. 

  10. Tommaso Ariemma, Filosofia del gaming, cit., p. 72. 

  11. Ivi. 73. 

  12. Ivi. 74. 

  13. Cfr. Daniel James Joseph, Capitalismo Battle Pass, in Matteo Bittanti (a cura di), Reset, cit. 

  14. Cfr. Ulysses Pascal, La ludicizzazione dei videogiochi, cit. 

  15. Minecraft è un videogioco sandbox open world sviluppato da Mojang Studios e pubblicato come gioco completo nel 2011. Per una disamina di tale videogioco si veda Daniel Dooghan, I conquistatori digitali: Minecraft e gli apologeti del neoliberismo, in Matteo Bittanti (a cura di), Game over, cit. 

  16. Shoshana Zuboff, Il capitalismo della sorveglianza. Il Futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma, 2019 [su Carmilla]

  17. Cfr. Tiziana Terranova, Free labour: Producing culture for the digital economy, in “Social Text”, vol. 18, n. 2, 2000, pp. 33-58. 

  18. Ulysses Pascal, La ludicizzazione dei videogiochi, in Matteo Bittanti (a cura di), Game over, cit., pp. 368-369. 

]]>
Culture e pratiche di sorveglianza. Costruzione identitaria e privacy tra rassegnazione digitale e datificazione forzata https://www.carmillaonline.com/2021/12/03/culture-e-pratiche-di-sorveglianza-costruzione-identitaria-e-privacy-tra-rassegnazione-digitale-e-datificazione-forzata/ Fri, 03 Dec 2021 21:00:32 +0000 https://www.carmillaonline.com/?p=69431 di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni [...]]]> di Gioacchino Toni

Riferendosi all’età contemporanea, le scienze sociali tendono ad assegnare una certa importanza al ruolo dei social media nella “costruzione del sé”, nella “costruzione antropologica della persona”. Nel recente volume di Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021) [su Carmilla], l’autrice evidenzia come, nell’era del capitalismo della sorveglianza, con la possibilità offerta dalle piattaforme digitali di raccontare storie personali negoziando la posizione che si occupa in società, sorgano alcune importanti questioni su cui vale la pena riflettere.

Innanzitutto si opera nell’impossibilità di controllare il contesto in cui le informazioni personali vengono condivise e ciò, sottolinea la studiosa, determina il collasso dell’integrità contestuale, dunque la perdita di controllo nella costruzione del sé in quanto non si padroneggiano più le modalità con cui ci si presenta in pubblico. Si tenga presente che alla creazione dell’identità online concorrono tanto atti coscienti (materiali caricati volontariamente) che pratiche reattive (like lasciati, commenti ecc.) spesso in assenza di un’adeguata riflessione.

Nel costruire la propria identità online si concorre anche alla costruzione di quella altrui, come avviene nello sharenting, ove i genitori, insieme alla propria, concorrono a costruire l’identità online dei figli persino da prima della loro nascita. In generale si può affermare che manchi il pieno controllo sulla costruzione della propria (e altrui) identità online visto che si opera in un contesto in cui ogni traccia digitale può essere utilizzata da sistemi di intelligenza artificiale e di analisi predittiva per giudicare gli individui sin dall’infanzia.

Se a partire dalla fine degli anni Ottanta la Convenzione delle Nazioni Unite sui diritti dell’infanzia ha posto l’accento su come i bambini non debbano essere intesi come individui subordinati agli adulti e bisognosi di protezione ma piuttosto come soggetti autonomi dotati di specifici diritti, il capitalismo della sorveglianza [su Carmilla], evidenzia Barassi, li ha nei fatti privati della loro autonomia. Sia perché il “consenso dei genitori” diviene il grimaldello per trattare i loro dati che perché le loro tracce digitali sono prodotte, raccolte e condivise da altri soggetti ben al di là del consenso e del controllo genitoriale. Ciò avviene in svariati ambiti – istruzione, intrattenimento, salute… – e le tracce digitali dei bambini prodotte tanto da loro stessi quanto da altri [su Carmilla] vengono utilizzate per indagare i loro modelli comportamentali, per fare ipotesi circa le loro tendenze psicologiche e per costruire storie pubbliche relative alla loro identità.

Essendo che le tracce digitali hanno a che vedere con l’identità sociale, nell’era del capitalismo digitale, sostiene Barassi, i social media sono divenuti un terreno di conflitto e negoziazione per le famiglie. Insistere tuttavia quasi esclusivamente sulle responsabilità dei genitori smaniosi di condividere dati sui figli rischia di mettere in secondo piano le responsabilità delle multinazionali della raccolta-elaborazione dei dati. Piattaforme dedicate all’infanzia come Messanger Kids di Facebook condividono le informazioni raccolte con terzi e ciò avviene perché tutte le principali Big Tech stanno investendo parecchio nella profilazione dell’infanzia e lo stanno facendo davvero con ogni mezzo necessario aggirando facilmente le legislazioni in materia.

Sebbene a proposito dell’impatto dei social media sul benessere psicologico dei bambini vi siano posizioni differenti all’interno dell’ambito accademico, non è difficile immaginare come tali piattaforme possano perlomeno contribuire a rafforzare culture e stereotipi negativi. Alcuni studi hanno mostrato, ad esempio, come le bambine siano indotte a conformarsi a stereotipi sessualizzati al fine di essere accettate socialmente. Trattandosi di strumenti espressamente realizzati per facilitare la raccolta, il tracciamento e la cessione dei dati ad altri soggetti, non è difficile immaginare come tutto questo materiale raccolto ed elaborato possa incidere sulla vita degli individui.

In una società ad alto tasso di digitalizzazione sono molteplici le modalità con cui si raccolgono dati sui bambini. La studiosa mette in evidenza come dietro ad alcune pratiche, spesso fruite come del tutto innocue e non intrusive, si nascondano vere e proprie strategie di profilazione. Si pensi non solo ai dati raccolti sui bambini dalle piattaforme didattiche utilizzate nelle scuole, di cui non è affatto chiara la gestione da parte delle aziende fornitrici del “servizio”, al tracciamento facciale a cui sono sottoposti sin da piccoli negli aeroporti e persino all’ingresso di parchi giochi come Disneyland, ove vengono loro fotografati i volti all’ingresso motivando blandamente tale pratica, nei rarissimi casi in cui i genitori ne chiedano il motivo, come un’operazione volta alla sicurezza, come ad esempio facilitare il loro rinvenimento in caso di smarrimento. Sebbene cosa ne faccia il colosso Disney delle foto scattate ai volti dei bambini non è dato a sapere, certo è che si tratta di dati estremamente sensibili essendo la fotografia del volto a tutti gli effetti un dato biometrico unicamente riconducibile all’identità di un individuo al pari dell’impronta digitale e della voce.

Altri sistemi di profilazione con cui entrano in contatto facilmente i bambini sono i giochi scaricati sugli smartphone o su altri dispositivi – che in alcuni casi, nota la studiosa, questi continuano a carpire immagini tramite la la videocamera dell’apparecchio anche quando il gioco non è in funzione –, i dati raccolti da piattaforme di intrattenimento come Netflix che, non a caso, lavorano sulla creazione di profili ID univoci. Persino le ricerche effettuate dai genitori attraverso i motori di ricerca online a proposito di disturbi o malattie dei figli concorrono all’accumulo di dati sensibili utili alla costruzione della loro identità digitale sin da bambini.

Tutto ciò non può che porre importanti interrogativi circa il concetto di privacy tenendo presente come questo derivi da uno specifico contesto politico, sociale e culturale. Buona parte del dibattito attorno alla privacy rapportata alle nuove tecnologie ruota attorno all’idea di una necessaria e netta distinzione tra una sfera pubblica (visibile) e una privata (riservata). Se l’avvento dei social media, su cui si è indotti a esibire/condividere tutto di se stessi [su Carmilla], sembra annullare sempre più la distinzione tra pubblico e privato, conviene secondo Barassi soffermarsi sull’importanza di tale dicotomia in quanto «consente di capire la filosofia individualista – e problematica – che definisce l’approccio occidentale verso la privacy e la protezione dei dati» (p. 89). La dicotomia tra ciò che è pubblico e ciò che è privato nella cultura occidentale «suggerisce che c’è una chiara differenza tra la sfera collettiva e quella personale, tra Stato e individuo, tra ciò che è visibile e ciò che è segreto» (p. 89).

Il concetto di privacy occidentale ha le sue radici nell’idea che «che dobbiamo proteggere il nostro interesse personale e le nostre famiglie nucleari prima di pensare alla dimensione pubblica/collettiva» (p. 89). Ed è in tale filosofia individualista della privacy che secondo la studiosa si annida il vero problema:

rapportare il concetto di privacy a quello di interesse individuale porta sempre a una riduzione del suo valore una volta che la privacy viene posta di fronte all’interesse collettivo. Questo è chiaro se pensiamo ai dibattiti sul riconoscimento facciale, sul contact tracing o su altre tecnologie implementate in nome dell’interesse collettivo. Dall’altra parte, intendere la privacy come fenomeno individuale ci porta a cercare soprattutto soluzioni individualiste a problemi che sono invece di natura collettiva (p. 90).

Circa la privacy dei bambini, dall’indagine svolta da Barassi emerge con forza nei genitori una sorta di “rassegnazione digitale”, dettata dall’impressione di non aver altra scelta, di cui approfitta il capitalismo della sorveglianza che però, nota la studiosa, si avvale anche della “partecipazione digitale forzata”. I soggetti fornitori di servizi a cui ricorrono quotidianamente le famiglie, dai servizi sanitari alle istituzioni educative, sempre più si affidano alla raccolta e all’analisi dei dati personali.

È attraverso la partecipazione digitale forzata a una pluralità di istituzioni, private e non, che i bambini vengono datificati, ed è per questa ragione che dobbiamo andare oltre la privacy come interesse privato dei bambini per studiare invece cosa voglia dire crescere in una società dove siamo continuamente costretti ad accettare termini condizioni di utilizzo, e dove i dati dei nostri figli vengono raccolti e condivisi in modi che sfuggono alla nostra comprensione e la nostro controllo. Solo così riusciremo a fare luce sulle ingiustizie e sulle ineguaglianze della nostra società datificata, e sul fatto che il mondo in cui pensiamo al valore della privacy nella vita di tutti i giorni dipende spesso dalla nostra posizione sociale […] C’è qualcosa di profondamente ingiusto nel diverso impatto che queste trasformazioni hanno avuto sulle famiglie altamente istruite o ad alto reddito da un lato, e su quelle a basso reddito o meno istruite dall’altro (pp. 94-95).

La diseguaglianza sociale in effetti, sottolinea la studiosa, gioca un ruolo importante nelle modalità in cui viene vissuta e affrontata la datificazione a cui si è sottoposti quotidianamente. I sistemi automatizzati di intelligenza artificiale tendono ad amplificare tale ingiustizia. Nelle società a forte datificazione i dati raccolti ed elaborati finiscono per essere utilizzati per profilare e indirizzare le vite degli individui. Piuttosto che concentrarsi esclusivamente sul problema della privacy, occorrerebbe piuttosto indagare quanto «la sorveglianza digitale e la datificazione di massa [siano] strettamente interconnesse con la giustizia sociale» (p. 97).

Sebbene spesso si parli di profilazione riferendosi al ricorso a tecnologie e algoritmi per l’analisi predittiva, in realtà, sottolinea Barassi, si tratta innanzitutto di «un processo antropologico che si estende oltre il mondo digitale e che ha a che vedere con la classificazione e la creazione di categorie, di raggruppare persone, animali, piante e cibi sulla base delle loro similitudini e differenze. È attraverso la creazione di categorie che definiamo le regole sociali» (p. 103). Tale pratica viene utilizzata anche per identificare il rischio. «Nella società moderna la profilazione è anche storicizzatone connessa al controllo della popolazione e all’oppressione razziale e sociale» (p. 103). La profilazione ha finito per far parte della vita quotidiana tanto nel farvi ricorso quanto nell’esservi sottoposti [su Carmilla]; «la profilazione è per definizione una pratica di correlazione di dati che serve per formare un giudizio» (p. 104).

Sebbene la profilazione sia un fenomeno sociale, antropologico e personale in atto ben da prima della trasformazione digitale, è nel passaggio di millennio che si determinano cambiamenti sostanziali: l’avvento di nuove tecnologie ha comportato tanto un aumento spropositato della quantità di informazioni personali che possono essere raccolte e intrecciate, quanto di strumenti utili a ottenerle al fine di realizzare profilazioni sempre più sofisticate. Nel saggio Big Other: Surveillance Capitalism and the Prospects of an Information CIvilization (2015) pubblicato sul “Journal of Informatin Technology” (30 gennaio 2015), Shoshana Zuboff ha spiegato come a suo avviso sia più efficace indicare tale contesto come “Big Other”, piuttosto che “Big Data”, in quanto tale dicitura rende meglio l’idea dell’architettura globale – composta da computer, network, sistema di accordi e relazioni… – di cui si avvale il capitalismo della sorveglianza nello scambiare, vendere e rivendere i dati personali.

Barassi evidenzia come un ruolo centrale all’interno di tale Big Other sia svolto dai “data broker”, aziende che raccolgono informazioni personali sui consumatori, le aggregano sotto forma di profili digitali per poi venderli a terzi. La raccolta di dati avviene sia dai registri pubblici che dalle piattaforme digitali e dalle ricerche di mercato, oltre che acquistandole dalle aziende che gestiscono app e social media. Un data broker può identificare, ad esempio, un individuo anche in base al suo aver manifestato interesse all’argomento diabete non solo per vendere l’informazione a produttori di alimenti senza zucchero, ma anche alle assicurazioni che, in base a ciò, lo classificheranno come “individuo a rischio” alzando il prezzo della sua polizza. Analogamente gli individui vengono profilati sulla base del reddito, dello stile di vita, dell’etnia, della religione, dell’essere o meno socievoli o introversi e così via agendo di conseguenza nei loro confronti. La raccolta di questi dati avviene in un regime da Far West a partire dalla più tenera età così da poter aggiornare costantemente e affinare il profilo individuale.

La studiosa sottolinea anche come i dati raccolti dalle Big Tech in ambito domestico non siano soltanto personali/individuali ma raccontino anche la famiglia intesa come gruppo sociale a partire dai contesti socioeconomici, valoriali e comportamentali e tutto ciò può condurre a gravi forme di discriminazione. Un’inchiesta di ProPublica, organizzazione no-profit statunitense, ha rivelato come Facebook consentisse pubblicità mirate discriminatorie rivolte alle sole “famiglie bianche”. Barassi sottolinea come tali meccanismi possano imprigionare i bambini in stereotipi discriminatori e riduzionisti limitandone la mobilità sociale; si rischia di divenire sempre più prigionieri delle classificazioni assegnate al proprio profilo digitale.

Dal 2019 Amazon raccoglie informazioni fisiche ed emotive degli utenti attraverso la profilazione della voce, mentre Google ed Apple stanno lavorando da tempo a sensori in grado di monitorare gli stati emotivi degli individui e tutti questi dati vanno ad aggiungersi a quelli raccolti a scopo di profilazione quando si cercano informazioni sulla salute su un motore di ricerca. Come non bastasse, le Big Tech affiancano alla raccolta dati sulla salute ingenti investimenti nell’ambito dei sistemi sanitari. Qualcosa di analogo avviene nel sistema scolastico-educativo ed anche in questo caso le grandi corporation tecnologiche hanno saputo approfittare dell’emergenza sanitaria per spingere sull’acceleratore della loro entrata in pompa magna nel sistema dell’istruzione.

I media occidentali da qualche tempo danno notizia con un certo allarmismo del sofisticato sistema di sorveglianza di massa e di analisi dei dati raccolti sui singoli individui e sulle aziende messo a punto dal governo cinese tra il 2014 e il 2020 al fine di assegnare un punteggio di “affidabilità” fiscale e civica in base al quale gratificare o punire i soggetti attraverso agevolazioni o restrizioni in base al rating conseguito. All’interesse per il sistema di sorveglianza cinese non sembra però corrispondere altrettanta attenzione a proposito di ciò che accade nei paesi occidentali, ove da qualche decennio «governi e forze dell’ordine stanno utilizzando i sistemi IA per profilarci, giudicarci e determinare i nostri diritti» (p. 122), impattando in maniera importante soprattutto sul futuro delle generazioni più giovani.

Sebbene non sia certo una novità il fatto che governi e istituzioni raccolgano dati o sorveglino i comportamenti dei cittadini, la società moderna ha indubbiamente “razionalizzato” tale pratica soprattutto in funzione efficientista-produttivista rafforzando insieme alla burocrazia statale gli interessi aziendali. In apertura del nuovo millennio, scrive Barassi, anche sfruttando l’allarmismo post attentati terroristici che hanno colpito gli Stati Uniti e l’Europa, molti governi hanno iniziato ad integrare le tecnologie di sorveglianza quotidiana dei dati con i sistemi di identificazione e autenticazione degli individui.

Alcuni studi hanno dimostrato come le pratiche di profilazione digitale messe in atto in diversi paesi, oltre ad essere discriminatorie, minino alle fondamenta i sistemi legali in quanto determinano in segreto quanto un cittadino sia da considerare “un rischio” per la società senza concedergli la possibilità di usufruire di un’adeguata tutela legale. Altro che “giusto processo”; soprattutto grazie alle leggi anti-terrorismo emanate dopo l’11 settembre 2001 ci si può ritrovare “condannati” senza nemmeno conoscerne il motivo.

Barassi riporta il caso della Palantir Technologies, vero e proprio colosso privato della sorveglianza e profilazione dei cittadini, capace di offrire servizi di raccolta e analisi dei dati ai governi e alle aziende private soprattutto occidentali. Ai sevizi di tale azienda, creata nel 2003, ricorrono le principali agenzie governative statunitensi (dall’FBI alla CIA, dal’Immigration and Customs Enforcement al Department of Homeland Security ed al Department of Justice). Attiva in oltre 150 paesi nel 2010, la Palantir Technologies ha saputo sfruttare abilmente l’attuale pandemia per diffondere i sui servizi in Europa.

La profilazione digitale dei cittadini si rivela strategica per molti paesi occidentali in cui istituzioni governative e apparati di polizia ricorrono sempre più a sistemi di IA, il più delle volte gestiti direttamente da aziende private, per prendere decisioni importanti sulla vita dei cittadini. Barassi sottolinea anche come numerosi studi abbiano dimostrato come le tecniche per il riconoscimento facciale, ad esempio, siano tutt’altro che attendibili e come le stesse tecnologie per l’analisi predittiva, oltre che non affidabili, tendano ad amplificare i pregiudizi e ad alimentare la diseguaglianza sociale. Una ricerca del 2019 pubblicata su “Science”, ad esempio, ha rivelato come il sistema sanitario statunitense ricorra ad algoritmi razzisti nel prendere decisioni in merito alla salute pubblica.

«Nell’era de capitalismo della sorveglianza non esistono più dati “innocui”, perché i dati che offriamo come consumatori molto spesso vengono utilizzati per determinare i nostri diritti di cittadini» (p. 133). Il software CLEAR, ad esempio, attinge dati di oltre 400 milioni di consumatori da un’ottantina di società che si occupano di bollette domestiche di vario tipo per poi rivenderli ad istituzioni governative che si occupano di frode fiscale e sanitaria, di immigrazione e riciclaggio di denaro o di prendere decisioni relative all’affidamento di bambini. «Senza che se ne rendano conto, i dati che gli utenti […] producono in qualità di consumatori domestici possono venire incrociati, condivisi e utilizzati per investigazioni federali» (p. 134). Altro inquietante caso riportato da Barassi riguarda Clearview AI, società produttrice di software per il riconoscimento facciale. Un inchiesta del “New York Times” del 2020 ha evidenziato come in alcune giurisdizioni statunitensi le forze di polizia utilizzassero tale software per confrontare le fotografie di individui ritenuti sospetti con gli oltre tre miliardi di immagini presenti online, soprattutto sui social.

***

È di questi giorni la notizia delle sanzioni comminate in Italia dall’Autorità Garante della Concorrenza e del Mercato a due tra le maggiori Big Tech

Tra gli utenti di Apple e Google e le due aziende esiste “un rapporto di consumo, anche in assenza di esborso monetario“. Perché “la controprestazione”, cioè il pagamento, “è rappresentata dai dati che essi cedono utilizzando i servizi di Google e di Apple”. È con questa premessa che l’Antitrust ha multato i due gruppi per un totale di 20 milioni di euro – 10 ciascuno, il massimo edittale – per due violazioni del Codice del Consumo, una per carenze informative e un’altra per pratiche aggressive legate all’acquisizione e all’utilizzo dei dati dei consumatori a fini commerciali (Apple e Google, multa Antitrust da 20 milioni: “Informazioni carenti sull’uso dei dati personali degli utenti e pratiche aggressive”, “Il Fatto Quotidiano”, 26 novembre 2021.

Nel Comunicato stampa emesso dall’AGCM il 26 novembre 2021 viene evidenziato come nella fase di creazione dell’account, Google «l’accettazione da parte dell’utente al trasferimento e/o all’utilizzo dei propri dati per fini commerciali» risulti pre-impostata consentendo così «il trasferimento e l’uso dei dati da parte di Google, una volta che questi vengano generati, senza la necessità di altri passaggi in cui l’utente possa di volta in volta confermare o modificare la scelta pre-impostata dall’azienda». Nel caso di Apple, prosegue il Comunicato stampa, l’architettura di acquisizione «non rende possibile l’esercizio della propria volontà sull’utilizzo a fini commerciali dei propri dati. Dunque, il consumatore viene condizionato nella scelta di consumo e subisce la cessione delle informazioni personali, di cui Apple può disporre per le proprie finalità promozionali effettuate in modalità diverse». Nel dettaglio si vedano: Testo del provvedimento GoogleTesto del provvedimento Apple

Alla luce di quanto detto in precedenza, è difficile immaginare che tutti questi dati sugli utenti raccolti subdolamente, legalmente o meno, vengano sfruttati “solo” a livello commerciale. Intanto si accumulano, poi potranno essere messi sul mercato ed essere elaborati e utilizzati per gli scopi più diversi.

È il capitalismo della sorveglianza, bellezza. E tu non ci puoi far niente! Se ci si deve per forza rassegnare a tale ennesimo adagio impotente, occorrerebbe allora riprendere anche l’efficace titolo di un recente film italiano: E noi come stronzi rimanemmo a guardare (2021, di Pierfrancesco Diliberto “Pif”).


Su Carmilla – Serie completa Culture e pratiche della sorveglianza

]]>
Culture e pratiche di sorveglianza. Tracciati e profilati fin da prima della nascita https://www.carmillaonline.com/2021/11/25/culture-e-pratiche-di-sorveglianza-tracciati-e-profilati-fin-da-prima-della-nascita/ Thu, 25 Nov 2021 21:00:39 +0000 https://www.carmillaonline.com/?p=69175 di Gioacchino Toni

«Dal momento in cui i bambini vengono concepiti, le loro informazioni mediche sono spesso condivise su app di gravidanza o sui social media, e dopo essere venuti al mondo tutti i loro dati sanitari e educativi vengono digitalizzati, archiviati e molto spesso gestiti da società private. A man mano che crescono, ogni istante della loro vita quotidiana viene monitorato e trasformato in un dato digitale […] I dati dei nostri bambini vengono aggregati, scambiati, venduti e trasformati in profili digitali, e verranno sempre più utilizzati per giudicarli e per decidere [...]]]> di Gioacchino Toni

«Dal momento in cui i bambini vengono concepiti, le loro informazioni mediche sono spesso condivise su app di gravidanza o sui social media, e dopo essere venuti al mondo tutti i loro dati sanitari e educativi vengono digitalizzati, archiviati e molto spesso gestiti da società private. A man mano che crescono, ogni istante della loro vita quotidiana viene monitorato e trasformato in un dato digitale […] I dati dei nostri bambini vengono aggregati, scambiati, venduti e trasformati in profili digitali, e verranno sempre più utilizzati per giudicarli e per decidere aspetti fondamentali della loro vita» (p. 10)

Così scrive Veronica Barassi nell’ambito di una  sua ricerca, pubblicata originariamente da MIT Press in lingua inglese, volta ad approfondire come la trasformazione digitale in atto, grazie anche all’apporto degli sviluppi dell’intelligenza artificiale, stia conducendo alla datificazione di ogni traccia lasciata dall’individuo sin da prima della sua nascita. Per comprendere meglio la portata di tale trasformazione secondo la studiosa conviene concentrarsi sulla prima generazione che ha subito il processo di datificazione digitale sin da prima di venire al mondo. Tale ricerca è stata tradotta e pubblicata in italiano nel volume da poco disponibile in libreria: Veronica Barassi, I figli dell’algoritmo. Sorvegliati, tracciati, profilati dalla nascita (Luiss University Press, 2021).

Se è difficile individuare un momento preciso in cui tutto ciò ha preso il via, secondo l’autrice si possono tuttavia individuare due momenti chiave che hanno permesso l’avvio di tale processo. Un primo momento può essere individuato nella svolta neoliberista thatcher-reaganiana a cavallo tra anni Settanta e Ottanta nel suo porsi alla base di quei processi di globalizzazione che, con le relative ricadute economiche, politiche e sociali, hanno fatto da premessa al secondo fenomeno che ha determinato la trasformazione di cui si sta parlando, ossia la nascita negli anni Novanta di quel capitalismo della sorveglianza di cui ormai si palesano gli effetti in termini di controllo e sfruttamento [su Carmilla].

Nonostante le tecnologie Internet siano nate nel corso degli anni Settanta da reti militari, universitarie, scientifiche, ludiche e alternative, il vero e proprio punto di svolta è riconducibile all’avvento del World Wide Web a metà anni Novanta che ha radicalmente cambiato e influenzato il modo di organizzare e rendere accessibili le informazioni in rete. È tale trasformazione ad aver permesso la nascita di quel capitalismo digitale che, con lo spostamento della produzione industriale nei paesi con un costo della forza lavoro più contenuto, ha dato vita nei paesi tecnologicamente più avanzati a un’economia sempre più incentrata sul marketing, sulla pubblicità e sulla distribuzione supportata da una sempre più marcata flessibilità dei rapporti di lavoro e da un’evidente erosione della distinzione tra tempo di lavoro e tempo libero.

Nonostante gli intenti utopistici che avevano accompagnato la nascita del web, il processo di privatizzazione non ha tardato ad arrivare sotto forma di browser e business dot.com. È dall’implosione di tale economia, naufragata con la bolla speculativa al passaggio di millennio, che è nato il web 2.0 costruito sulla partecipazione attiva degli utenti; non a caso le prime grandi piattaforme 2.0 sono state i social media (Facebook dal 2004, YouTube dal 2005, Twitter dal 2006 ecc.) e a tali standard si sono presto adeguate le piattaforme tradizionali di Google e Amazon a cui si sono poi aggiunte Airbnb (dal 2007) [su Carmilla] e Uber (dal 2009).

Sebbene a ridosso del passaggio tra primo e secondo decennio del nuovo millennio le piattaforme social hanno oggettivamente svolto un ruolo importante nel supportare numerose proteste, l’entusiasmo nei confronti delle nuove tecnologie della connettività ha dovuto fare i conti con il palesarsi del loro operare nella raccolta e nello sfruttamento dei dati personali che con la l’inadeguatezza di queste allo sviluppo duraturo di esperienze di antagonismo sociale [su Carmilla].

Se il web 2.0 ha permesso la raccolta di una quantità di dati prima inimmaginabile, occorre sottolineare come parallelamente a tutto ciò siano avanzate le ricerche nell’ambito dell’intelligenza artificiale ed è dall’intrecciarsi di questi due ambiti che è scaturita quella vera e propria riformulazione della vita quotidiana di cui forse soltanto ora ci si accorge, anche alla luce dell’emergenza pandemica.

Non è azzardato affermare che per il capitalismo della sorveglianza Google ha avuto un ruolo non dissimile da quello esercitato dalla Ford Motor Company e dalla General Motors nello sviluppo del capitalismo industriale [su Carmilla] ed è proprio attraverso colossi come Google che si è diffusa l’analisi predittiva in tutti gli ambiti dell’esistenza; dalle scuole alle banche, dalle assicurazioni alle agenzie interinali, dall’assistenza sociale agli apparati di polizia.

Nell’era del capitalismo della sorveglianza non c’è più confine tra i dati del consumatore, raccolti per proporre pubblicità personalizzate, e i dati del cittadino, raccolti per decidere se possiamo avere accesso o meno a determinati diritti […] Il Capitalismo della sorveglianza ci sta trasformando tutti in cittadini datificati e se davvero vogliamo capire questa trasformazione dobbiamo concentrarci sui bambini nati nell’ultima decade: la prima generazione datificata fin da prima della nascita (p. 19).

È pertanto sui nativi datificati che si concentra la ricerca di Veronica Barassi. Sui bambini datificati cioè sin da prima di nascere anche a causa della condotta dei genitori che condividono sui social informazioni circa il futuro nascituro, dai resoconti sull’attesa alle loro ecografie, proseguendo poi, una volta venuti al mondo, con la diffusione di immagini e racconti dettagliati dei loro istanti di vita quotidiana a cui si aggiungono i dati raccolti dalle tante app utilizzate dai genitori per monitorare la salute e la crescita dei bambini e dalle apparecchiature smart sempre più diffuse all’interno delle abitazioni [su Carmilla]. Poi il profilo dei bambini sarà aggiornato delle piattaforme educative e da tutto l’armamentario di cui dispone il capitalismo della sorveglianza.

In particolare la studiosa si sofferma su quattro tipologie principali di raccolta dati relativi ai bambini: quelli raccolti dagli “assistenti virtuali” presenti nelle abitazioni in cui vivono; quelli immagazzinati dalle scuole attraverso le piattaforme educative on line; quelli relativi alla salute aggregati tanto attraverso app private quanto attraverso l’informatizzazione del sistema sanitario pubblico; quelli raccolti dai social media. Risulta pertanto palese la volontà delle Big Tech di raccogliere il maggior numero di dati personali per poterli aggregare in profili digitali riconducibili a singoli individui attraverso sistemi, anche biomedici, di identificazione e profilazione.

La recente pandemia, ricorda Barassi, ha di certo spinto sull’acceleratore del capitalismo della sorveglianza già in atto, palesando il livello di dipendenza dalle tecnologie digitali e la sempre più difficile distinguibilità tra ambiti privati e pubblici e tra tempi e spazi lavorativi e ricreativi.

Se il tracciamento medico del nascituro non è una novità, scrive Barassi, esistono però almeno due grandi differenze rispetto al passato: un’inedita possibilità di concentrazione dei dati raccolti dalle famiglie (informazioni mediche, psicologiche e relative alla routine quotidiana, agli stili di vita e di consumo ecc.) e un’altrettanto inedita diffusione di tali dati attraverso condivisioni su app e social con ciò che ne consegue in termini di profilazione aziendale. Non a caso, come ha esplicitato l’ONG Electronic Frontier Foundation nel report di Quintin Cooper, The Pregnancy Panopticon (2017), Facebook e Google stanno investendo sulla compravendita dei dati raccolti delle app che accompagnano la gravidanza.

In generale, sostiene Barassi, le Big Tech, oltre a raccogliere dati da terzi, stanno investendo in settori pubblici come la salute e l’educazione (es. Google for Education, che la recente emergenza pandemica ha enormemente contribuito a diffondere anche nel sistema educativo italiano). Sebbene negli USA e in Europa vi siano leggi che proibiscono alle aziende private di vendere a terzi dati raccolti nell’ambito dell’educazione, non è poi così difficile per tali piattaforme aggirare i vincoli legislativi e aggregare i dati sotto un unico profilo ID in grado di seguire l’individuo lungo la sua intera esistenza.

Una ricerca del 2019 pubblicata dal “British Medical Journal” ha mostrato come buona parte delle app relative alla salute condividano i dati raccolti con fornitori di servizi che a loro volta li girano soprattutto a società di ambito tecnologico, pubblicitario e persino ad agenzie di credito: anche i dati raccolti prima della nascita possono concorrere all’ottenimento o meno di un credito in età adulta.

Circa i motivi che spingono tante famiglie a ricorrere a tali app di tracciamento, le interviste sul campo condotte da Veronica Barassi indicano come l’entusiasmo per tali applicazioni derivi soprattutto dalla sensazione di sicurezza e controllo che esse sembrano offrire. Il fenomeno del sharenting, ossia l’ossessione dei genitori di condividere sui social informazioni relative ai figli, spiega la studiosa, sembra derivare dal tentativo di sconfiggere tutte quelle ansie e quelle paure che si proiettano sull’essere genitori per la prima volta attraverso la creazione di un’identità digitale dei figli il più possibile idilliaca. Durante l’inchiesta è emerso come le medesime motivazioni di controllo e sicurezza siano alla base anche del ricorso volontario a tecnologie di tracciamento reciproco, ad esempio tramite smartphone, tra i genitori.

Alla luce dell’incremento esponenziale nell’ultimo decennio di tecnologie di intelligenza artificiale tra le pareti di casa, Barassi invita a chiedersi quale tipo di valori culturali questi dispositivi incorporino e come vengano trasmessi. «Cosa vuol dire far crescere i nostri figli con dispositivi di intelligenza artificiale che insegnano loro a relazionarsi con un oggetto come se fosse una quasi-persona? Che tipo di dati vengono raccolti da queste tecnologie e che impatto hanno sulla privacy dei nostri figli?» (p. 46).

L’idea di intelligenza artificiale, ricorda la studiosa, è nata negli anni Cinquanta del Novecento con riferimento alla possibilità di far eseguire alle macchine cose che necessiterebbero dell’intelligenza umana. Oggi si tende a parlare di intelligenza artificiale tanto in maniera “hollywoodiana” (che la vuole dotata di coscienza e autonomia, in grado di provare emozioni e ingannare l’essere umano), quanto rapportandola all’apprendimento automatico da dati esistenti, alle reti neurali e all’analisi predittiva, cioè a tutto ciò che sta realmente trasformando la realtà quotidiana. «Se davvero vogliamo capire il ruolo dell’intelligenza artificiale nelle nostre case dobbiamo cominciare proprio dalle sensazioni e dalle emozioni che proviamo quando interagiamo con “macchine intelligenti”, e da come molto spesso le nostre interazioni con queste tecnologie siano definite dall’illusione dell’intimità artificiale» (p. 52).

Diverse ricerche sul campo hanno dimostrato come gli individui si relazionino con queste tecnologie come se si trovassero di fronte a esseri umani (ad es. vi si rivolgono con forme di cortesia del tipo “per favore”, “grazie” ecc.) e si rapportano con gli “assistenti virtuali” avendo la sensazione di dialogare confidenzialmente con una persona amica. Sebbene tale sensazione venga maggiormente percepita confrontandosi con robot antropomorfici, è comunque bene presente anche nel rapporto con gli assistenti virtuali con cui sono possibili soltanto forme di interazione vocale.

A partire da tali premesse diviene importante chiedersi che tipo di relazione strutturino i bambini con agenti dotati di intelligenza artificiale. Sebbene non vi sono al momento risposte univoche da parte degli studiosi a proposito del tipo di interazione che i bambini sviluppano con l’intelligenza artificiale, quanto il rapporto possa divenire intimo e personale, di certo però occorre non dimenticare che tali tecnologie domestiche sono pianificate con preconcetti culturali e sociali, dunque è importante domandarsi quale tipo di valori trasmettano ai bambini. Di certo Alexa e Google Assistant sono progettati per incentivare e facilitare il consumo, ma quali preconcetti culturali trasmettono? La scelta della voce femminile in molto tecnologie smart, ad esempio, rafforza il pregiudizio culturale che vuole la donna “assistente” e “servizievole”.

Uno dei casi che più hanno fatto discutere, e su cui si sofferma l’autrice, riguarda Hello Barbie: una bambola rivelatasi in grado di registrare le conversazioni casalinghe per la profilazione dei bambini e dei famigliari. Non meno inquietante è stato l’uso e lo stoccaggio da parte di Amazon dei dati raccolti dai bambini attraverso Echo Dot Kids. Al di là dei prodotti appositamente realizzati per raccogliere dati sui bambini, occorre tener presente anche il rapportarsi di questi ultimi con tecnologie domotiche presenti nelle abitazioni – la studiosa ha in particolare monitorato l’uso di Amazon, Google, Apple e Samsung – che hanno accesso a informazioni relative al contesto socio-economico e agli aspetti valoriali e comportamentali della famiglia. Si tratta di raccolte che avvengono sempre più anche sfruttando la ricognizione vocale.

Un’impronta vocale è esattamente come un’impronta digitale, è un dato biometrico che può essere facilmente associato all’individuo. Questo significa che le aziende che raccolgono i dati dalle nostre case possono integrarli con informazioni biometriche da utilizzare per la creazione di profili ID unici che […] possono essere utilizzati per trarre una varietà di conclusioni sensibili sull’individuo: dal contesto socio-economico in cui vive al suo stato di salute mentale (p. 61).

Oltre a soffermarsi sull’inchiesta del 2019 condotta dalla tv belga VRT NWS venuta in possesso di un migliaio di registrazioni di Google Assistant che includevano conversazioni in camera da letto registrate senza che fosse stato pronunciato “Hey Google”, dunque all’insaputa degli utenti, Barassi riporta le inquietanti ammissioni di un impiegato di Apple rilasciate all’inglese “Guardian” nel 2020 a proposito della pratica diffusa in azienda di far ascoltare ai dipendenti le registrazioni di Siri.

Negli Stati Uniti vi sono già stati diversi casi in cui le registrazioni ottenute tramite Alexa sono state utilizzate in tribunale mentre il “Washington Post” ha ricostruito come l’Immigration and Customs Enforcement (la polizia di controllo dell’immigrazione) si avvalga del database CLEAR di proprietà di una multinazionale canadese contenente oltre 400 milioni di nominativi, indirizzi e dati vari raccolti da un’ottantina di aziende che si occupano di utenze domestiche, internet, telefonia ecc.

Il volume I figli dell’algoritmo di Veronica Barassi dedica uno spazio importante anche al ruolo dei social media nella costruzione contemporanea del sé e alla questione della privacy mettendo in luce, in quest’ultimo caso, come tale concetto sia contingente al contesto politico, sociale e culturale e come il grande limite del concetto di privacy in Occidente derivi dall’essere inteso come fenomeno individuale che induce a cercare soluzioni individualiste a problematiche in realtà di natura collettiva. Occorrerà tornare su questi ultimi aspetti affrontati dalla studiosa.


Su Carmilla – Serie completa Culture e pratiche della sorveglianza

 

]]>
Culture e pratiche di sorveglianza. L’ossessione della trasparenza https://www.carmillaonline.com/2021/09/23/culture-e-pratiche-della-sorveglianza-lossessione-della-trasparenza/ Thu, 23 Sep 2021 20:30:01 +0000 https://www.carmillaonline.com/?p=68218 di Gioacchino Toni

«I segreti sono bugie» – «Condividere è aver cura» – «La privacy è un furto» (Bailey, personaggio del romanzo Il cerchio di Dave Eggers) «Se le persone condividono di più, il mondo diventerà più aperto e connesso. E un mondo che è più aperto e connesso è un mondo migliore» – «Dando alle persone il potere di condividere si rende il mondo più trasparente» (Perle di saggezza di Mark Zuckerberg)

La tendenza contemporanea a manifestarsi “senza nascondimenti” – rinunciando al proprio diritto di privacy in cambio di una maggior efficacia nel comunicare la propria identità – e alla [...]]]> di Gioacchino Toni

«I segreti sono bugie» – «Condividere è aver cura» – «La privacy è un furto» (Bailey, personaggio del romanzo Il cerchio di Dave Eggers) «Se le persone condividono di più, il mondo diventerà più aperto e connesso. E un mondo che è più aperto e connesso è un mondo migliore» – «Dando alle persone il potere di condividere si rende il mondo più trasparente» (Perle di saggezza di Mark Zuckerberg)

La tendenza contemporanea a manifestarsi “senza nascondimenti” – rinunciando al proprio diritto di privacy in cambio di una maggior efficacia nel comunicare la propria identità – e alla “confessione pubblica” di un fatto o di un’esperienza personale, si lega all’ossessione della trasparenza che da qualche tempo ha fatto breccia nell’immaginario collettivo nella convinzione che non si ha, né si deve avere, “nulla da nascondere”. Se da un parte la propensione all’outing è certamente mossa da una volontà orgogliosamente rivendicativa di condotte, culture e appartenenze indigeste al pensiero dominante, dall’altro la smania alla visibilità e alla trasparenza in età contemporanea risponde a un’urgenza dettata da un sistema che richiede pressantemente all’individuo di fornire e gestire un’immagine personale adeguata a richieste sociali prestazionali e mercificate1.

In un tale contesto, in cambio di un rassicurante riconoscimento pubblico, magari conteggiato a suon di like, si è indotti a mostrarsi e condividersi in maniera omologata in modo da “piacere” il più possibile a tutti. Insomma, l’ossessione della trasparenza – rafforzata dalla crescente smaterializzazione di luoghi e spazi abitativi e di lavoro – sembra aver dato luogo a una vera e propria macchina di controllo sociale partecipato.

David Lyon2 nell’approfondire la questione della trasparenza prende il via dalla critica mossa da Michel Foucault3 nei confronti tanto dell’idea rousseauiana che voleva uguaglianza e libertà derivare dalla trasparenza, quanto del panopticon proposto da Jeremy Bentham come modello di controllo perfetto attuato attraverso l’autodisciplina. In entrambi i casi è nella trasparenza che si cerca la cura per i mali della società.

Se a proposito di sorveglianza in generale la cultura novecentesca ha teso a lamentarsi tanto nei confronti della segretezza quanto del “portare alla luce” questioni che dovrebbero restare private, occorre constatare che ad essere presa di mira è stata soprattutto l’assenza di trasparenza da parte dei sorveglianti mentre per i sorvegliati il controllo a cui sono sottoposti è stato tutto sommato meno probelmatizzato: “niente da nascondere, niente da temere”. Nella cultura della sorveglianza contemporanea, sostiene Lyon, mentre si esige maggiore trasparenza da parte di organizzazioni e governi anche alla luce dell’attività di sorveglianza che questi svolgono nei confronti della popolazione, si tende a concedere volontariamente maggiore trasparenza giudicandola inevitabile in un’epoca caratterizzata da un coinvolgimento mediatico collettivo.

L’idea di una democratica “trasparenza reciproca” fa parte ancora oggi degli slogan ripetuti insistentemente negli ambienti della Silicon Valley. Secondo Alice Marwick4 tale scena tech, messa in piedi soprattutto da pionieri giovani, bianchi e maschi, non smette di idealizzare quella trasparenza e quella creatività che nei fatti si realizzano sotto forma di partecipazione imprenditoriale votata al far coincidere vita e lavoro in cui i social network svolgono un ruolo fondamentale. Una visione in tutti i modi viziata non solo dal pensare l’intero globo composto da repliche della loro “comunità” di giovani, bianchi e maschi ma anche dal tralasciare l’asimmetria nel potere di accesso alla trasparenza: quando mai verrebbe concesso a un comune cittadino di chiedere trasparenza reciproca, ad esempio, alle forze di polizia?

Riprendendo il convincimento di Gary Marx5 che vede nelle narrazioni, così come nelle immagini, una componente importante di quella cultura della sorveglianza che poi si riverbera sulla quotidianità, Lyon approfondisce le questioni relative alla trasparenza contemporanea ricorrendo ad alcuni prodotti di fiction indaganti a loro volta la questione, riferendosi in particolare al romanzo Il cerchio (The Circle, 2013) di Dave Eggers – da cui è stato tratto un film (2017) diretto da James Ponsoldt – e all’episodio Caduta libera (Nosedive, ep. 1, serie 3, 2016) della serie Black Mirror (Id., dal 2011 – in produzione, Channel 4; Netflix) ideata da Charlie Brooker. Lo studioso si concentra su come l’ascesa della sorveglianza sociale e la sua fusione con la quella dello Stato e delle corporation influisca sia sugli immaginari che sulle pratiche degli individui mettendo in evidenza le contraddizioni della visibilità del quotidiano e la disponibilità che soprattutto le corporation vengono ad avere della sfera privata e degli immaginari degli utenti-clienti.

Il romanzo di Eggers narra di un’azienda-comunità della Silicon Valley che persegue l’imperativo della trasparenza totale in cui i dipendenti, oltre ad abitare edifici in cui attraverso l’ampio ricorso a vetrate si tende ad annullare la differenza tra interno ed esterno, sono sottoposti a un controllo continuo attraverso un costante monitoraggio partecipativo a cui essi stessi concorrono condividendo rigorosamente tutto ciò che li riguarda all’interno e all’esterno dell’ambito strettamente lavorativo. Una perenne esposizione che richiede a tutti di inscenare una performance continua che non consente “momenti d’ombra”6.

Il romanzo segue l’esperienza della giovane assunta Mae Holland narrando la sua entusiastica adesione alle direttive aziendali e le difficoltà che incontra nel rapportarsi con chi non fa parte di quella che si rivela essere una vera e propria comunità chiusa. La parte forse più interessante del romanzo riguarda i meccanismi che rendono attraente la trasparenza totale. «Diventeremo onniveggenti, onniscienti» declama Bailey, uno dei cofondatori dell’azienda, in stile Steve Jobs, davanti a un pubblico estasiato dalle nuove videocamere “SeeChange” che presenta. Un “vedere” e un “sapere” che, sottolinea Lyon, risultano «prosciugati e trasformati in dati». Con i Big Data che assumono l’aura del Sacro Graal.

Per quanto possano apparire estremizzate le cose narrate dal romanzo, non sono pochi gli oggetti e le pratiche che si ritrovano nella realtà contemporanea. Basta digitare “dropcam” su un motore di ricerca – tanto per fornire altri dati di profilazione a Google & C. – per vedere le versioni reali già disponibili delle “SeeChange” del romanzo: videocamere sempre più piccole ed economiche, semplici da installare con cui è possibile raccoglie immagini volendo anche senza che nessuno se ne accorga.

Il campus-azienda de Il cerchio non è poi molto dissimile dalle smart city che si stanno sperimentando e costruendo un pezzo alla volta con un certo entusiasmo diffuso e non c’è bisogno di ricorrere a romanzi distopici nemmeno per imbattersi nel tracciamento dei movimenti tramite smartphone o veicoli (già diverse assicurazioni installano dispositivi in grado di tracciare con precisione i movimenti dell’automobile) o per individuare nei social network quella sorta di dipendenza da condivisione che porta a condividere tutto di se stessi7. «Noi consideriamo la tua presenza online una parte integrante del lavoro che svolgi» viene detto alla giovane neoassunta per incentivarla a condividere se stessa sulla rete assecondando l’imperativo aziendale della trasparenza totale.

Mae, la protagonista del romanzo di Eggers, si rende pian piano conto di prendere parte a forme di sorveglianza partecipativa essendo al contempo controllata e controllore. Si tratta di un fenomeno che Alice Marwick8 definisce “sorveglianza sociale”: i social network, nella loro duplice natura di piattaforme in cui si consumano e producono informazioni, creano una modalità simmetrica di sorveglianza in cui gli osservatori si attendono di essere a loro volta osservati e, frequentemente, desiderano entrambe le cose.

A differenza di altre tipologie, nella sorveglianza sociale «il potere è coinvolto in ogni rapporto sociale, la sorveglianza è praticata tra individui più che dalle organizzazioni, e inoltre è reciproca perché entrambe le parti sono insieme osservatori e osservati»9. L’effetto finale di ciò, sostiene Marwick, è un addomesticamento generale delle pratiche di sorveglianza. Nel caso della sorveglianza sociale l’interesse è rivolto agli altri utenti e sebbene la gerarchia appaia appiattita (come nel caso degli “amici” dei social) le gerarchie non tardano a ricomparire all’interno dei rapporti all’interno del gruppo: le pratiche stesse della sorveglianza sociale si mostrano orientate a una “ricerca di potere”. Il ricorso ai social è spesso dettato da una ricerca di visibilità, di una dimostrazione di esistenza ed è a tale fine che gli individui inscenano deliberatamente una performance pubblica costruendosi un’identità che, non di rado, proprio per ottenere consenso, è votata al conformismo.

Se la sorveglianza, in generale, agisce per gestire, controllare e indirizzare la popolazione, la sorveglianza sociale secondo Marwick produce autodisciplina: lo sguardo della sorveglianza è interiorizzato, pertanto agisce sulle pratiche degli “amici” coinvolti. Ciò è reso evidente tanto nel romanzo Il cerchio che nell’episodio Caduta libera di Black Mirror in cui gli utenti partecipano con le loro valutazioni a stilare nei fatti i profili da cui la macchina del potere sceglierà a chi affidare i diversi ruoli. Insomma, le valutazioni espresse sui social si rivelano a tutti gli effetti potere.

Il graduale passaggio «dalle identità dei lavoratori novecenteschi incentrate sulla “disciplina” alle identità dei consumatori del Ventunesimo secolo caratterizzate dalla “performance”, che è trasparente per tutti»10 è assolutamente rafforzato dai social. La visibilità, soprattutto in tali ambiti di condivisione, è «un sito strategico in cui tentiamo di scegliere come ci presentiamo e di contestare come siamo visti, nel tentativo di plasmare e gestir questo processo. È essenziale per una politica del riconoscimento, per ottenere un trattamento equo delle differenze. Essere visibili o invisibili coinvolge capacità morali e pratiche ma in sé non significa oppressione o liberazione»11.

Nonostante i dati raccolti, come risulta evidente alla protagonista de Il cerchio, non dicano “tutto”, la loro raccolta ed elaborazione risulta strategica al “capitalismo della sorveglianza”12. Rovesciando le modalità della sorveglianza tradizionale, ora la sequenza diviene: prima tracciare, poi individuare. L’universo della rete – tanto all’“interno degli schermi” quanto nell’“Internet delle cose” – si rivela un sistema perfetto per ottenere informazioni dagli utenti senza particolari resistenze se non addirittura con entusiastica partecipazione.

È fin troppo chiaro che le attuali disposizioni politico-economiche significano povertà per la maggior parte della popolazione globale e producono alienazione, repressione, competizione, conflitto, relazioni frugali e separazioni per tutti, ricchi e poveri. E la sorveglianza di oggi senza dubbio contribuisce a questo mondo, lo favorisce. Nello sviluppo attuale della sorveglianza, il sospetto prende il posto della fiducia, la categorizzazione produce svantaggi cumulativi e le persone vengono trattate in base alla loro caratterizzazione in dati disincarnati e astratti13.

Esiste una via d’uscita da tutto ciò praticabile qua ed ora? Non si troveranno risposte circa il che fare nei romanzi come Il cerchio di Eggers né negli episodi di Black Mirror, certamente però la fiction di questo tipo ha il merito di allarmare non tanto di un pericolo potenziale ma del fatto che quanto ci racconta è già realtà. Meglio non sottovalutare la fiction; questa può rivelarsi un ottimo paio di occhiali sul modello di quelli di They Live (1988) di John Carpenter. Sul che fare, però, ci si deve arrangiare.


Bibliografia

  • Chicchi Federico, Simone Anna, La società della prestazione, Ediesse, Roma 2017.
  • Codeluppi Vanni, La vetrinizzazione sociale. Il processo di spettacolarizzazione degli individui e della società, Bollati Boringhieri, Torino 2007.
  • Id, Mi metto in vetrina. Selfie, Facebook, Apple, Hello Kitty, Renzi e altre «vetrinizzazioni», Mimesis, Milano-Udine 2015.
  • DeNardis Laura, Internet in ogni cosa. Libertà, sicurezza e privacy nell’era degli oggetti iperconnessi, Luiss University Press, Roma 2021.
  • Foucault Michel, L’occhio del potere. Conversazioni con Michel Foucault, in Jeremy Bentham, Panopticon ovvero la casa d’ispezione, a cura di Foucault Michel e Perrot Michelle, Marsilio, Venezia 1983.
  • Han Byung-Chul, La società della stanchezza, Nottetempo, Milano 2012.
  • Lyon David, La cultura della sorveglianza. Come la società del controllo ci ha reso tutti controllori, Luiss University Press, Roma 2020.
  • Marwick Alice, The Public Domain: Social Surveillance in Everyday Life, Surveillance & Society 9.4, 2012.
  • Marx Gary T., Windows into the Soul: Surveillance and Society in an Age of Hight Technology, University of Chicago Press, Chicago 2016.
  • Zuboff Shoshana, Il capitalismo della sorveglianza. Il Futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma, 2019.

Su Carmilla – Serie completa Culture e pratiche della sorveglianza


  1. Cfr. Vanni Codeluppi, La vetrinizzazione sociale. Il processo di spettacolarizzazione degli individui e della società, Bollati Boringhieri, Torino 2007. Id, Mi metto in vetrina. Selfie, Facebook, Apple, Hello Kitty, Renzi e altre «vetrinizzazioni», Mimesis, Milano-Udine 2015. Su Carmilla

  2. Cfr. David Lyon, La cultura della sorveglianza. Come la società del controllo ci ha reso tutti controllori, Luiss University Press, Roma 2020. Su Carmilla

  3. Cfr. Michel Foucault, L’occhio del potere. Conversazioni con Michel Foucault, in Jeremy Bentham, Panopticon ovvero la casa d’ispezione, a cura di Michel Foucault e Michelle Perrot, Marsilio, Venezia 1983, p. 14. 

  4. Alice Marwick, The Public Domain: Social Surveillance in Everyday Life, Surveillance & Society 9.4, 2012. 

  5. Gary T. Marx, Windows into the Soul: Surveillance and Society in an Age of Hight Technology, University of Chicago Press, Chicago 2016. 

  6. Federico Chicchi, Anna Simone, La società della prestazione, Ediesse, Roma 2017; Byung-Chul Han, La società della stanchezza, Nottetempo, Milano 2012. 

  7. Cfr. Laura DeNardis, Internet in ogni cosa. Libertà, sicurezza e privacy nell’era degli oggetti iperconnessi, Luiss University Press, Roma 2021. Su Carmilla. David Lyon, La cultura della sorveglianza. Come la società del controllo ci ha reso tutti controllori, op. cit. Su Carmilla

  8. Cfr. Alice Marwick, The Public Domain: Social Surveillance in Everyday Life, op. cit. 

  9. David Lyon, La cultura della sorveglianza. Come la società del controllo ci ha reso tutti controllori, op. cit., p. 162. 

  10. Ivi, p. 167. 

  11. Ivi, p. 168. 

  12. Cfr.: Shoshana Zuboff, Il capitalismo della sorveglianza. Il Futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma, 2019. Su Carmilla

  13. David Lyon, La cultura della sorveglianza. Come la società del controllo ci ha reso tutti controllori, op. cit., p. 175. 

]]>
Nemico (e) immaginario. Surveillance capitalism https://www.carmillaonline.com/2020/09/10/nemico-e-immaginario-surveillance-capitalism/ Thu, 10 Sep 2020 21:00:44 +0000 https://www.carmillaonline.com/?p=62552 di Gioacchino Toni

Nel 2016 viene commercializzato Pokemon Go, un videogioco di tipo free-to-play funzionante con i principali sistemi operativi mobili, basato su realtà aumentata geolocalizzata tramite GPS, che prevede la cattura di personaggi virtuali all’interno dell’ambiente reale. La piattaforma dissemina nell’ambiente quotidiano le prede a cui i giocatori devono dare la caccia recandosi sul posto armati del proprio smartphone. Attraverso il ricorso a meccanismi di gratificazione Pokemon Go non manca di indirizzare i cacciatori verso quelle attività commerciali che pagano i produttori del gioco affinché vengano inserite all’interno dell’itinerario imposto ai giocatori [...]]]> di Gioacchino Toni

Nel 2016 viene commercializzato Pokemon Go, un videogioco di tipo free-to-play funzionante con i principali sistemi operativi mobili, basato su realtà aumentata geolocalizzata tramite GPS, che prevede la cattura di personaggi virtuali all’interno dell’ambiente reale. La piattaforma dissemina nell’ambiente quotidiano le prede a cui i giocatori devono dare la caccia recandosi sul posto armati del proprio smartphone. Attraverso il ricorso a meccanismi di gratificazione Pokemon Go non manca di indirizzare i cacciatori verso quelle attività commerciali che pagano i produttori del gioco affinché vengano inserite all’interno dell’itinerario imposto ai giocatori ottenendo in cambio un afflusso di potenziali clienti.

Ricorrendo a meccanismi propri del mondo digitale, a dinamiche di confronto sociale e a sistemi di gratificazione, esattamente come in Pokemon Go, da tempo equipe di esperti del trattamento dati sono al lavoro per orientare il comportamento degli esseri umani in direzione dell’ottenimento di maggiori livelli di profitto aziendale. Attraverso l’esempio di Pokemon Go è possibile percepire con immediatezza una delle caratteristiche di quello che Shoshana Zuboff – Il capitalismo della sorveglianza. Il Futuro dell’umanità nell’era dei nuovi poteri (Luiss University Press, 2019) – definisce “surveillance capitalism”: la capacità dei detentori dei dati di prevedere e indirizzare i comportamenti umani.

Secondo la studiosa, nel contesto contemporaneo, le esperienze umane sono divenute “materia prima gratuita” trasformabile in “dati comportamentali” vendibili come “prodotti di previsione” all’interno dei “mercati comportamentali a termine” in cui operano imprese commerciali desiderose di conoscere il comportamento futuro degli individui.

Il capitalismo della sorveglianza, sostiene Zuboff, nasce in concomitanza con l’avvio del nuovo millennio, quando alcuni settori del sistema economico operano scelte che si rivelano una accelerazione sulla via della trasformazione degli individui in merce: l’esperienza umana privata viene tradotta in dati comportamentali che, una volta elaborati, permettono una sempre più sofisticata previsione comportamentale. I dati elaborati possono essere venduti alle aziende che così posso dispiegare le loro strategie di produzione e vendita in base a ciò che l’individuo intende fare nel breve e lungo termine, agendo attivamente sulle sue intenzioni e sui suoi comportamenti.

Secondo la studiosa, Google rappresenta per il capitalismo della sorveglianza ciò che imprese come Ford e General Motors hanno rappresentato per il capitalismo industriale e mentre il lascito di quest’ultimo è stato il disastro ambientale, il modello introdotto dal colosso del web, sostiene drasticamente Zuboff, potrebbe compromettere le tradizionali modalità di pensiero e di comportamento degli esseri umani minando la loro autonomia e dignità.

Con l’avvio del nuovo millennio gli strateghi di Google non si accontentano più di utilizzare i dati ricavati dall’uso del motore di ricerca per migliorare il prodotto in termini di efficienza ma, associando un’incredibile capacità di immagazzinamento ad altissimi livelli di elaborazione dei dati, decidono di utilizzare questi ultimi per offrire agli inserzionisti il pubblico a cui mirano. Successivamente, lavorando sull’offerta di spazi di pubblicità mirata, gli analisti del colosso del web si rendono conto che, grazie all’enorme quantità di dati raccolti, diviene possibile stilare previsioni precise sull’utente.

L’analisi dell’uso del motore di ricerca e le modalità con cui vengono dispensati like sui social, sono soltanto alcuni degli ambiti di applicazione di un metodo che ha consentito di avviare quella che l’autrice descrive come “l’estrazione del surplus comportamentale”. I colossi del web, grazie anche al crescente ricorso ai dispositivi portatili smart, si sono trovati nella possibilità di: localizzare l’utente in qualsiasi momento; monitorare le sue abitudini di spostamento; verificare l’orario e la durata della permanenza in un luogo; desumere gli stati d’animo attivati durante le digitazioni; monitorare le sue preferenze e necessità più impellenti ecc.

È così che i dati personali diventano quel valore aggiunto che Zuboff definisce “surplus comportamentale”, uno degli assi portanti del modello economico di Facebook. Insomma, quello che la studiosa definisce capitalismo della sorveglianza trova il suo motore di crescita nei mezzi di analisi e modificazione dei comportamenti e nella trasformazione dei consumatori in lavoratori senza che questi ne siano (o ne vogliano essere) consapevoli e, soprattutto, senza che possano davvero sottrarsi a ciò, dipendenti come sono divenuti dal mondo digitale così come esso è strutturato.

Alla base di questo “surveillance capitalism” – che, al momento, si è affiancato al capitalismo tradizionale senza sostituirvisi – c’è la trasformazione dell’esperienza umana in una materia prima gratuita per le imprese commerciali. Ciò, sostiene Zuboff, comporta un sistema economico parassita che subordina la produzione di merci e servizi alla trasformazione comportamentale degli esseri umani e un livello di concentrazione di ricchezza, sapere e potere mai visto prima nella storia dell’umanità.

Questo specifico tipo di capitalismo, agente direttamente sui desideri e sui comportamenti, continua la studiosa, rende obsoleta qualsiasi distinzione tra mercato e società, tra mercato e persona. Non si tratta più di affermare che “se è gratuito, tu sei il prodotto” ma, secondo Zuboff, occorre piuttosto prendere atto che è il nostro “comportamento futuro” a essere divenuto il “prodotto” acquisito dalle aziende e immesso sui nuovi mercati.

Non si tratta di un totalitarismo orwelliano, quanto piuttosto di un tipo di dominio che Zuboff indica come “potere strumentale”; è l’ambiente tecnologico nel suo insieme a essere preso in ostaggio dall’economia per influenzare il comportamento umano in un’epoca digitale in cui l’ansia di partecipazione sociale ha generato una propensione alla concessione dei dati personali senza intravedere gli aspetti negtivi che ciò comporta. La rete relazionale digitale si presta alla modificazione comportamentale; dai dati che si ricavano dall’elaborazione di quanto viene immaginato e desiderato, risulta possibile per le aziende agire su beni predittivi.

Il capitalismo della sorveglianza entra nel reale attraverso le applicazioni e le piattaforme che si utilizzano quotidianamente e lo fa sfruttando: i tempi ristretti imposti agli individui dalla “società della prestazione”; la propensione a ricorrere a comodi sistemi intuitivi e pronti all’uso percepiti come neutri; la parcellizzazione dell’apprendimento; l’accesso selettivo alle informazioni utili a immediate esigenze di relazione; il desiderio di aderire a una visione certa di futuro pianificata a tavolino dagli elaboratori aziendali a partire dalle informazioni sul surplus comportamentale degli individui.

Le analisi della personalità con fini commerciali si basano sul surplus comportamentale – i cosiddetti metadata, o mid-level metrics – perfezionati e testati da ricercatori, e pensati per contrastare chiunque ritenga di poter controllare la “quantità” di informazioni personali che rivela nei social media. […] Non è la sostanza che viene esaminata, ma la forma. […] Non conta cosa c’è nelle nostre frasi, ma la loro lunghezza e complessità; non che cosa elenchiamo, ma il fatto che facciamo un elenco; non la foto che postiamo, ma il filtro o la saturazione che abbiamo scelto; non cosa riveliamo, ma il modo i cui lo condividiamo o meno; non dove abbiamo deciso di incontrarci con gli amici, ma come lo faremo […] I punti esclamativi e gli avverbi che usiamo rivelano molto di noi, in modo potenzialmente dannoso. […] L’imperativo della previsione scatena i propri segugi per dare la caccia al comportamento nei recessi più profondi.1

La mole di dati raccolti e il livello di elaborazione a cui sono sottoposti appaiono del tutto spropositati rispetto alla mera vendita di spazi pubblicitari tradizionali per quanto mirati; si è di fronte al più sofisticato strumento di monitoraggio e predizione comportamentale mai visto all’opera nella storia e tali pratiche di controllo e manipolazione sociale non sono in possesso di un un “tradizionale” stato di polizia, ma di aziende private, le vere nuove superpotenze2. Mentre ci si preoccupava delle derive totalitarie intraprese dagli stati, il golpe sembrerebbe averlo compiuto l’economia, agendo non solo indisturbata ma anche col supporto di un certo entusiasmo popolare; dopotutto queste accattivanti piattaforme pianificate da giovani creativi sembrano offrire gratuitamente ciò che tutti vogliono, compresa una sensazione di partecipazione, di relazione sociale, di identità, di protagonismo.

Quello analizzato da Zuboff è un universo in cui la digitalizzazione dell’esperienza umana a scopo di profitto prospera grazie a una tendenziale propensione alla “servitù volontaria” scambiata volentieri con un buon motore di ricerca e qualche piattaforma social attraverso cui supplire a una sempre più marcata carenza di rapporti sociali fuori dagli schermi.

Nel volume sono riportate e analizzate numerose dichiarazioni (auto)celebrative espresse tanto dai vertici delle aziende che detengono il monopolio di questo mercato di dati, quanto da chi si occupa della trasformazione di questi ultimi in “marcatori predittivi” del comportamento degli individui. Tali dichiarazioni danno il senso di come i padroni del web abbiano potuto agire indisturbati senza dover rendere minimamente conto alle leggi della democrazia, del tutto disinteressati anche solo a a garantire un minimo di trasparenza o di preoccuparsi della partecipazione e della reciprocità informativa. Da parte sua la politica ha dimostro di non aver saputo/voluto agire prontamente per riconfigurate in un tale contesto questioni come il diritto alla privacy e la segretezza delle comunicazioni.

Il capitalismo della sorveglianza risulta un testo prezioso in quanto offre una meticolosa mappatura di una parte dell’esistente ancora poco conosciuta e studiata. L’autrice non pare però propensa a “far saltare il banco”; non è il sistema economico capitalista a essere da lei messo in discussione. Anzi, l’invito della studiosa alla resistenza nei confronti del “surveillance capitalism” pare votato alla difesa e alla preservazione dell’economia di mercato, considerata essa stessa una vittima di tale deriva.

Come dimostrato dalla recente pandemia, i peggiori scenari distopici possono uscire dalle pagine e degli schermi della fiction invadendo la quotidianità. Quanto tratteggiato dalla studiosa ha tutta l’aria di essere un golpe attuato con le app al posto dei carri armati; quanto ciò comprometta l’economia di mercato, o ne sia semplicemente figlio, interessa relativamente a chi continua a ritenere che sia il sistema intero a essere marcio, sin dalle radici.


Nemico (e) immaginario – serie compelta


  1. S. Zuboff, Il capitalismo della sorveglianza. Il Futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2019, pp. 290-291. 

  2. Sul concetto di “superpotenza digitale” si veda A. Giannuli, A. Curioni, Cyber war. La guerra prossima ventura (Mimesis 2019) e G. Toni, Guerrevisioni. Cyber war: prossimamente su/da questi schermi, “Carmilla”. 

]]>