KATE CRAWFORD – Carmilla on line https://www.carmillaonline.com letteratura, immaginario e cultura di opposizione Thu, 21 Aug 2025 20:00:34 +0000 it-IT hourly 1 https://wordpress.org/?v=4.9.26 Culture e pratiche di sorveglianza. Convincere gli algoritmi di non essere troppo umani https://www.carmillaonline.com/2022/02/11/culture-e-pratiche-di-sorveglianza-convincere-gli-algoritmi-di-non-essere-troppo-umani/ Fri, 11 Feb 2022 21:00:03 +0000 https://www.carmillaonline.com/?p=70456 di Gioacchino Toni

La pretesa di rilevare le emozioni provate da un individuo in un determinato momento è ormai divenuta una vera e propria ossessione che si tenta di soddisfare attraverso la tecnologia. Di ciò si occupa l’articolo di John McQuaid, Your Boss Wants to Spy on Your Inner Feelings, “Scientific American” (01/12/21), ripreso con il titolo Spiare le emozioni da “le Scienze” (27/01/22). L’autore racconta di come l’intenzione, tramite telecamere ed elaborazioni affidate ad algoritmi, di carpire informazioni dalla mimica facciale circa le emozioni provate dagli individui trovi applicazione oltre che nell’ambito [...]]]> di Gioacchino Toni

La pretesa di rilevare le emozioni provate da un individuo in un determinato momento è ormai divenuta una vera e propria ossessione che si tenta di soddisfare attraverso la tecnologia. Di ciò si occupa l’articolo di John McQuaid, Your Boss Wants to Spy on Your Inner Feelings, “Scientific American” (01/12/21), ripreso con il titolo Spiare le emozioni da “le Scienze” (27/01/22). L’autore racconta di come l’intenzione, tramite telecamere ed elaborazioni affidate ad algoritmi, di carpire informazioni dalla mimica facciale circa le emozioni provate dagli individui trovi applicazione oltre che nell’ambito delle ricerche di mercato e della sicurezza, anche nelle valutazioni dei candidati in cerca di occupazione e nel rilevare la soglia di attenzione sui posti di lavoro e nelle scuole.

Non si tratta più di “limitarsi” al riconoscimento facciale – assegnare un’identità a un volto – ma di desumere dalla mimica facciale lo stato emotivo degli individui. Sono ormai numerose le applicazioni disponibili sul mercato che, avvalendosi di IA, offrono i propri servizi alle imprese in termini di analisi dell’emotività dei candidati o dei lavoratori già inseriti in azienda magari in attesa di riconferma.

Dell’interesse delle corporation e dei settori della sicurezza per il riconoscimento tramite tecnologie delle emozioni a partire dalla mica facciale si occupa anche Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA (il Mulino, 2021) [su Carmilla]:

Per l’esercito, le imprese, i servizi segreti e le forze di polizia di tutto il mondo, l’idea del riconoscimento automatico delle emozioni è tanto avvincente quanto redditizia. Promette di distinguere in modo affidabile l’ amico del nemico, le bugie dalla verità e di utilizzare gli strumenti della scienza per scrutare nei mondi interiori (Crawford, p. 175).

I sistemi per il riconoscimento automatico delle emozioni, sostiene la studiosa, derivano dall’intrecciarsi di tecnologie IA, ambienti militari e scienze comportamentali.

Essi condividono idee e assunzioni: come per esempio che esista un piccolo numero di categorie emotive distinte e universali, che involontariamente facciano traspirare queste emozioni sui nostri volti e che esse possano essere rilevate dalle macchine. Questi atti di fede sono talmente accettati in determianti settori che può sembrare persino strano notarli, per non parlare di metterli in discussione. Sono idee talmente radicate da costituire il “punto di vista comune”. Ma se consideriamo come le emozioni sono state tassonimizzate – ben ordinate ed etichettate – ci accorgiamo che gli interrogativi sono in agguato ad ogni angolo (Crawford, p. 175).

Una figura di spicco in tale panorama è sicuramente quella dello psicologo statunitense Paul Ekman, elaboratore del celebre, quanto controverso, modello denominato “Facial Action Coding System” [su Carmilla].

Nel suo articolo McQuaid racconta di come in Corea del Sud sia ormai talmente diffuso il ricorso a tali strumenti che numerose agenzie di assistenza allo sviluppo carrieristico invitano i propri clienti ad esercitarsi a sostenere colloqui direttamente con sistemi IA anziché con altri esseri umani.

Se nel distopico Blade Runner (1982) di Ridley Scott, nei colloqui a cui venivano sottoposti, erano i replicanti a dover fingersi umani, ambendo comunque a divenirlo, ora sono gli umani stessi a dover convincere gli algoritmi circa la loro affidabilità comportamentale lavorativa, in sostanza a fingersi/farsi macchine produttive.

I sistemi di intelligenza artificiale usano vari tipi di dati per estrarre informazioni utili su emozioni e comportamenti. Oltre alle espressioni del volto, all’intonazione della voce, al linguaggio corporeo e all’andatura, possono analizzare contenuti scritti e orali alla ricerca di sentimenti e atteggiamenti mentali. Alcuni programmi usano i dati raccolti per sondare non le emozioni, bensì altre informazioni correlate, per esempio quale sia la personalità di un individuo, oppure se stia prestando attenzione o se rappresenti una potenziale minaccia (McQuaid, p. 44)

Non potendo intuire direttamente emozioni, personalità e intenzioni degli individui, gli algoritmi di intelligenza artificiale emotiva «sono addestrati, tramite una sorta di crowdsourcing computazionale, a imitare i giudizi espressi dagli esseri umani a proposito di altri esseri umani» (McQuaid, p. 45). Non è pertanto difficile immaginare come gli algoritmi possano finire per “apprendere” i pregiudizi più diffusi delle persone, dunque a rafforzarli.

Alcune ricerche condotte dal MIT Media Lab hanno dimostrato come i sistemi di riconoscimento facciale in uso siano più precisi se applicati a individui maschi bianchi (stanard a cui ci si deve adeguare),  altre analisi hanno mostrato come diversi di questi sistemi tendano ad attribuire maggiori espressioni negative agli individui di colore. Del resto l’idea che esista uno standard valido per tutti gli esseri umani si rivela fallace oltre che una condanna in partenza nei confronti di chiunque non si uniformi ai dati del campione raccolto.

La stessa idea che pretende di identificare un corrispettivo tra espressione esteriore ed emozione interiore risulta assai scivolosa, così come discutibile è la convinzione che le espressioni del volto siano davvero universali. Un’espressione magari sorridente può in realtà voler coprire il dolore o trasmettere empatia nei confronti di sentimenti altrui; le variabili sono tante ed i sistemi tendono di per sé a voler semplificare le cose per sentenziare risposte “certe”. «I sistemi di intelligenza artificiale cercano di estrarre le esperienze mutevoli, private e divergenti del nostro io corporeo, ma il risultato è uno schizzo fumettistico che non riesce a catturare le sfumature dell’esperienza emotiva del mondo» (Crawford, p. 199).

Per quanto riguarda il convincimento che gli stati interiori possono essere inferiti puntualmente da segni esterni, questo deriva, almeno in parte, dalla storia della fisiognomica che intendeva trarre indicazioni sul carattere di un individuo a partire dallo studio dei suoi tratti del viso. In Occidente la fisiognomica raggiunse il suo culmine tra il Settecento e l’Ottocento, quando venne collocata tra le cosiddette scienze anatomiche.

Tornando alla contemporaneità, l’ossessione di mappare e monetizzare le espressioni del volto, la personalità e i comportamenti degli individui contribuisce ad espandere gli ambiti della vita sottoposti alla sorveglianza. L’intelligenza artificiale emotiva conquista persino gli spazi domestici e gli abitacoli delle automobili, luoghi in cui si possono raccogliere numerosi dati emotivi e comportamentali.

Non è a questo punto sufficiente domandarsi a chi appartengano i dati del volto e del corpo degli individui; occorre chiedersi anche quanto, e in cambio di cosa, si sia disposti a cederli nella consapevolezza che non si è affatto in grado di delimitarne le finalità.

]]>
Culture e pratiche di sorveglianza. Il lato materiale ed incarnato dell’Intelligenza artificiale https://www.carmillaonline.com/2022/02/01/culture-e-pratiche-di-sorveglianza-il-lato-materiale-ed-incarnato-dellintelligenza-artificiale/ Tue, 01 Feb 2022 21:00:48 +0000 https://www.carmillaonline.com/?p=70360 di Gioacchino Toni

L’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo (Kate Crawford)

Solitamente quando si parla di IA ci si concentra sul suo aspetto tecnico, sugli algoritmi e sulle sue potenzialità in termini prestazionali, eventualmente, se proprio non si tratta di narrazioni apologetiche, si pone l’accento sul suo esercitare un dominio di natura tecnica. C’è però un altro lato dell’IA che viene solitamente rimosso, una sorta di dark side tenuto nell’ombra [...]]]> di Gioacchino Toni

L’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo (Kate Crawford)

Solitamente quando si parla di IA ci si concentra sul suo aspetto tecnico, sugli algoritmi e sulle sue potenzialità in termini prestazionali, eventualmente, se proprio non si tratta di narrazioni apologetiche, si pone l’accento sul suo esercitare un dominio di natura tecnica. C’è però un altro lato dell’IA che viene solitamente rimosso, una sorta di dark side tenuto nell’ombra che ha a che fare con le risorse naturali, i combustibili, il lavoro umano, le infrastrutture, la logistica, la produzione dell’IA e le forze economiche, politiche e culturali che la modellano.

Nonostante lo storytelling dominante insista nel presentare l’IA ricorrendo a immagini bluastre con codici binari e cervelli luminosi fluttuanti in una sorta di spazio inconsistente, dunque come a qualcosa di immateriale, non mancano analisi che la riconducono alla cruda materialità dell’approvvigionamento e dello sfruttamento delle risorse energetiche e minerarie e del lavoro umano.

Ad esempio, Antonio A. Casilli, Schiavi del clic. Perché lavoriamo tutti per il nuovo capitalismo? (Feltrinelli, 2020) e Phil Jones, Work Without the Worker. Labour in the Age of Platform Capitalism (Verso Books, 2021), piuttosto che guardare all’IA come a un sostituto della forza lavoro umana preferiscono sottolineare come in realtà il ricorso a quest’ultima non venga affatto meno, come si deduce verificando le modalità con cui l’accumulazione dei dati si converte non solo in una forma di lavoro sottopagato – come nel caso di chi è impiegato nelle grandi piattaforme digitali nel passare in rassegna i commenti degli utenti, classificare l’informazione e preparare i dati utili agli algoritmi – ma persino non retribuito, quando a compierlo sono gli utenti/consumatori stessi.

Altri studiosi si sono concentrati soprattutto sull’approvvigionamento e sullo sfruttamento delle risorse energetiche e minerarie messo in atto dal sistema IA. Testi importanti in tale senso sono stati realizzati da Jussi Parikka, A Geology of Media, (‎University of Minnesota Press 2015), e da Kate Crawford, Né artificiale né intelligente. Il lato oscuro dell’IA (Il Mulino, 2021), che a proposito di IA scrive:

L’intelligenza artificiale non è una tecnica computazionale oggettiva, universale o neutrale che prende decisioni in assenza di istruzioni umane. I suoi sistemi sono incorporati nel mondo sociale, politico, culturale ed economico, plasmati da esseri umani, da istituzioni e da imperativi che determinano ciò che gli uomini fanno e come lo fanno. Sono progettati per discriminare, amplificare le gerarchie e codificare classificazioni rigorose […] possono riprodurre, ottimizzare e amplificare le diseguaglianze strutturalmente esistenti [I sistemi IA] sono espressioni di potere che discendono da forze economiche e politiche più ampie, creati per aumentare i profitti e centralizzare il controllo nelle mani di coloro che li detengono. Ma non è così che di solito viene raccontata la storia dell’intelligenza artificiale (p. 243).

Il volume della Crawford prende il via dalle miniere di litio del Nevada per affrontare la politica estrattiva dell’IA, la sua domanda di terre rare, di energia in quantità ricavata soprattutto da petrolio e carbone. «I minerali sono la spina dorsale dell’IA, ma la sua linfa vitale rimane l’energia elettrica» (p. 49); non a caso i data center sono tra i maggiori consumatori di energia elettrica. Se si pensa che l’industria cinese dei data center ricava attualmente oltre il 70% della sua energia dal carbone, non è difficile immaginare l’impatto ambientale che ne deriva. Tenendo conto che si prevede nel giro di pochi anni un incremento di circa due terzi  del fabbisogno energetico dell’infrastruttura cinese dei data center, ci si rende conto dell’impatto ecologico che andrà ad avere quello che viene solitamente descritto come un sistema dematerializzato.

L’infrastruttura su cui opera e di cui necessita l’IA si intreccia con la logistica, settore dall’elevato livello di sfruttamento lavorativo, e con il trasporto operato dalle navi mercantili, responsabili di oltre il 3% delle emissioni globali di anidride carbonica annue. Come non bastasse, ogni anno, ricorda la studiosa, migliaia di container, non di rado contenenti sostanze tossiche, sprofondano negli oceani o si perdono alla deriva.

Crawford si sofferma sui lavoratori digitali sottopagati, passando dai magazzini di Amazon, in cui la forza lavoro è costretta a tenere il tempo dettato dagli algoritmi che gestiscono l’architettura logistica del colosso, e dalle linee di macellazione di Chicago ove l’IA è utilizzata per incrementare il livello di sorveglianza e controllo di chi vi lavora. Se un interrogativo ricorrente circa l’IA riguarda l’entità della sostituzione del lavoro umano con robot, Crawford preferisce indagare su «come gli esseri umani vengano sempre più trattati dai robot e su cosa questo significhi per il ruolo del lavoro» (p. 68).

Poco si parla dei bassissimi compensi elargiti nell’ambito della costruzione, del mantenimento e delle operazioni volte a testare il funzionamento dell’IA.

Questo lavoro invisibile assume molte forme: lavoro nella catena di approvvigionamento, lavoro on-demand e tradizionali mansioni del settore dei servizi. Esistono forme di sfruttamento in tutte le fasi del processo dell’IA, dal settore minerario, dove le risorse vengono estratte e trasportate per creare l’infrastruttura centrale dei sistemi di IA, al software, dove la forza lavoro distribuita viene pagata pochi spiccioli per unità di lavoro o microtask. [Si pensi inoltre ai] compiti digitali ripetitivi alla base dei sistemi di intelligenza artificiale, come l’etichettatura di migliaia di ore di dati di training e la revisione di contenuti sospetti o dannosi (p. 75).

Tutto questo lavoro è pagato pochissimo, così come è bassa la paga di chi deve moderare i contenuti postati dagli utenti sulle piattaforme online, mansione che, secondo diversi studi, può causare traumi psicologici profondi e duraturi.

Dopo aver preso in esame i dati e le pratiche di classificazione, che tendenzialmente rafforzano gerarchie e iniquità, utilizzate dai sistemi IA, la studiosa ricostruisce puntualmente la genesi del controverso modello elaborato dallo psicologo statunitense Paul Ekman, il “Facial Action Coding System”, con cui pretenderebbe di poter individuare un ristretto insieme di stati emotivi universali leggibili sul volto umano. Si tratta di studi che se hanno da un lato destato grandi perplessità in ambito scientifico, hanno invece prontamente incontrato l’interesse delle agenzie antiterrorismo operanti negli aeroporti statunitensi ed hanno ispirato la serie televisiva Lie to Me (Fox 2009-2011) la cui supervisione scientifica è stata affidata allo stesso Ekman. [su Carmilla]

Una volta analizzate le modalità con cui, a partire dalle interconnessioni tra il settore tecnologico e quello militare, i sistemi IA vengono utilizzati come strumento del potere statale, la studiosa si sofferma su come l’IA operi come struttura di potere in cui si intrecciano elementi infrastrutturali, capitale e lavoro. Dalla gestione degli autisti di Uber, alla caccia all’immigrato irregolare, fino al riconoscimento facciale nei quartieri popolari, emerge come i sistemi IA siano strutturati con le logiche del capitale, della polizia e della militarizzazione, una combinazione che incrementa ulteriormente le asimmetrie di potere esistenti.

Di fronte a un quadro così desolante, resta la convinzione in Crawfrod che tali logiche possono comunque essere messe in discussione così come possono essere contrastati i sistemi che perpetuano l’oppressione.


Su Carmilla – Serie completa Culture e pratiche di sorveglianza

]]>
Una nuova elettricità https://www.carmillaonline.com/2021/04/28/una-nuova-elettricita/ Wed, 28 Apr 2021 21:00:47 +0000 https://www.carmillaonline.com/?p=65907 Francesco D’Abbraccio, Andrea Facchetti (a cura di), AI & Conflicts Volume 1, Krisis Publishing, Brescia 2021, pp. 224, 20 euro

Ancora una volta la piccola, ma sempre interessante, Krisis Publishing di Brescia coglie nel segno con un testo sugli sviluppi attuali dell’utilizzo dell’Intelligenza Artificiale (AI) nei settori della comunicazione, dell’economia, della conoscenza e dell’arte. Lo fa non accontentandosi però dei soliti luoghi comuni a favore o contro lo sviluppo dei sistemi relazionali o di controllo resi possibili dalla stessa, ma sottolineando in maniera particolare il conflitto o i conflitti che derivano dal [...]]]> Francesco D’Abbraccio, Andrea Facchetti (a cura di), AI & Conflicts Volume 1, Krisis Publishing, Brescia 2021, pp. 224, 20 euro

Ancora una volta la piccola, ma sempre interessante, Krisis Publishing di Brescia coglie nel segno con un testo sugli sviluppi attuali dell’utilizzo dell’Intelligenza Artificiale (AI) nei settori della comunicazione, dell’economia, della conoscenza e dell’arte. Lo fa non accontentandosi però dei soliti luoghi comuni a favore o contro lo sviluppo dei sistemi relazionali o di controllo resi possibili dalla stessa, ma sottolineando in maniera particolare il conflitto o i conflitti che derivano dal suo uso.

Scrivono i due curatori nell’introduzione:

L’intelligenza artificiale (AI) occupa una posizione chiave nell’ecosistema culturale contemporaneo. È una risorsa fondamentale per interpretare il mondo e per interagire con le grandi architetture di dati che lo popolano.
Nel 2016, un’era geologica fa in questo ambito, Andrew NG, professore a Stanford ed ex direttore di Google Brain, ne celebrava l’imminente avvento: “Come l’elettricità ha trasformato quasi tutto cento anni fa, fatico ad immaginare un settore che non verrà trasformato dall’AI nei prossimi anni”. Ebbene, il cambio di paradigma previsto da NG sembra oggi essere già in atto. L’AI non riguarda più il nostro futuro, ed è impiegata negli ambiti più disparati dell’attività umana, dalla medicina all’industria, dalla finanza alla domotica, dal marketing alla guerra. Non solo: essa modella il modo in cui sperimentiamo il mondo. Reti neurali e algoritmi “intelligenti” sono ampiamente utilizzati per rilevare, classificare e mappare il nostro comportamento, riconoscere le nostre emozioni, e influenzare le nostre scelte. Lavorano come “curatori invisibili” 1, prescrivendo ciò che dovremmo vedere, ascoltare, leggere e comprare. Ci sorvegliano, plasmano la nostra comprensione della realtà sociale e politica, e contribuiscono in definitiva a costruire il nostro quadro cognitivo. Essi intervengono inoltre nella creazione, nella manipolazione e nella disseminazione dei media e dei dispositivi di interazione sociale.
Un simile cambiamento non è certo passato inosservato alle attenzioni della critica. Negli ultimi anni, un’intera generazione di artisti, ricercatori e professionisti ha indagato la natura dei sistemi AI e delle loro relazioni con i contesti in cui opera2.

Proprio per questo motivo, in questo primo volume, i due curatori si sono avvalsi dei testi prodotti da FINN BRUNTON che insegna Media, Culture and Communication alla NYU Steinhardt dove si occupa di storia e teoria dei media digitali; KATE CRAWFORD, ricercatrice presso il Microsoft Research Lab e co-fondatrice dell’AI Now Institute della New York University, il primo istituto universi­tario dedicato alla ricerca sulle implicazioni sociali dell’intelligenza artificiale; SOFIA CRESPO, un’importante artista nel campo dell’arte AI; VLADAN JOLER insegnante presso il dipartimento di New Media (Università di Novi Sad), è a capo di SHARE Lab, un laboratorio di ricerca che esplora gli aspetti tecnici e sociali dello sfruttamento del lavoro digitale, delle infrastrutture invisibili e delle black box; LEV MANOVICH, uno dei più importanti teorici dei media studies; FEILEACAN MCCORMICK, un artista e ricercatore norvegese; HELEN NISSENBAUM, insegnante presso il Dipartimento di Scienze dell’Informazione della Cornell University; TREVOR PAGLEN, artista e ricercatore statunitense il cui lavoro si muove tra i confini di scienza, arte, giornalismo e tecnologia; MATTEO PASQUINELLI docente di Filosofia dei media all’Università di Arte e Design di Karlsruhe; SALVATORE IACONESI e ORIANA PERSICO che sono autori di diverse performance, pubblicazioni e opere esposte in tutto il mondo e lavorano insieme dal 2006; EYAL WEIZMAN che insegna Spatial and Visual Cultures presso la Goldsmiths University of London.

Come suggerisce il titolo, è il conflitto a dominare il discorso, nelle varie forme che è destinato ad assumere con l’applicazione dell’AI nel contesto di un capitalismo globalizzato che, più che tardo come qualcuno si ostina a chiamarlo oppure neo-liberale, si rivela semplicemente ancora una volta capace di trasformare, sempre più in profondità, le relazioni tra individuo e società, società e ambiente, conoscenza e controllo sociale, in funzione di un’accumulazione che sembra non potersi mai fermare. Una ricerca esasperata di nuove forme di estrazione di plusvalore e plusvalenze che stravolge tutti gli assetti economico-sociali e cognitivi, dal rapporto sempre più distruttivo con l’ambiente alle forme di conoscenza che ne derivano.

L’immagine dell’AI come un’ingombrante scatola nera che si inserisce nel tessuto ambientale e sociale globale introduce il terzo termine che dà titolo a questo volume. All’interno dei dispositivi e delle infrastrutture AI si nascondono infatti innumerevoli conflitti che, come abbiamo detto, investono l’intero ecosistema contemporaneo. La dimensione politica dell’AI va intesa come un campo di forze attraversato da vettori umani e non umani che, spesso in contrasto tra loro, generano frizioni, tensioni e conflitti: “l’intera
Realtà (proprio come la Storia) è un campo di battaglia, in cui miriadi di agency sono perennemente in lotta per affermare nuovi sistemi di interdipendenza”.
[…] Il primo conflitto ad emergere dal tentativo sopra descritto riguarda le condizioni, materiali e non, che abilitano l’ecosistema dell’AI. La comunità scientifica ha ricondotto l’emergere prepotente dell’intelligenza artificiale negli ultimi 20 anni ad almeno due recenti eventi significativi: l’aumento esponenziale della capacità di calcolo, grazie soprattutto allo sviluppo di schede video di nuova generazione, e l’enorme disponibilità di informazioni verso cui la computazione viene rivolta. Entrambi questi accadimenti affondano le proprie radici nello sviluppo industriale del XIX secolo e si sono consolidati nel corso del XX in due forme diverse, ma affini, di estrattivismo.
L’industria dell’hardware, necessaria ad alimentare i processi di apprendimento, è il prodotto dell’estrattivismo materiale, analizzato soprattutto nel saggio di Crawford e Joler. Come dimostra il caso del palaquium gutta riportato nel loro Anatomia di un sistema AI, lo sfruttamento delle risorse materiali — con conseguente distruzione di interi ecosistemi e interruzione di processi geologici millenari — non è solo un prodotto dell’infrastruttura AI: è condizione imprescindibile per la sua stessa esistenza. Visualizzare l’anatomia di un assistente vocale domestico e le storie di sfruttamento che vi si annidano diventa dunque un atto insieme linguistico e politico, che coinvolge cioè la sua narrazione e la nostra possibilità di comprenderlo e metterlo in discussione. È un gesto, questo, che si pone in aperta opposizione con “la metafora eterea del ‘cloud’” e che cerca invece di far emergere “la realtà fisica delle estrazioni minerarie e dell’espropriazione di intere popolazioni che la rendono possibile” (p.61).
L’industria che gravita intorno alla produzione, alla raccolta e alla distribuzione dei dati si rifà invece ad un altra forma di estrattivismo. Un estrattivismo cognitivo si sovrappone a quello materiale. Anche se il primo data center venne costruito nel 1965, è con la nascita e l’esplosione di massa del World Wide Web che vengono creati i presupposti per la società dei big data. Da allora, in pochi decenni la produzione di dati è diventata un’attività parassita, che si annida in qualsiasi ambito dell’agire umano: dalla tessera fedeltà del supermercato all’abbonamento alla metropolitana, dall’account su un social network al navigatore GPS. Ciascuna di queste attività genera dei dati che “possono essere impacchettati, venduti, raccolti, organizzati e acquisiti in molti modi, e infine riutilizzati per ragioni di cui noi, i sorvegliati, non siamo a conoscenza e a cui non abbiamo dato approvazione” (p.117). Nel loro saggio, Brunton e Nissenbaum ci mettono in guardia di fronte alle condizioni di profondo disequilibrio che sempre accompagnano questo tipo di attività: una asimmetria sia epistemica (“non sappiamo cosa ne sarà delle informazioni prodotte attraverso questo processo, né dove andranno o quale sarà il loro utilizzo”) che di potere (“raramente possiamo decidere se essere monitorati o no, cosa succede alle informazioni che ci riguardano e cosa accade a causa di queste informazioni”, p.118).
Appare dunque chiaro come l’emergere delle tecnologie AI sia già inscritto all’interno di un campo di forze che si articola secondo il modello dell’estrattivismo. Secondo Sandro Mezzadra e Brett Nielson3 esso costituisce il paradigma dello sviluppo capitalista e neoliberista del XXI secolo, e ci costringe a estendere il concetto stesso di estrazione per considerare “non solo l’appropriazione delle risorse naturali, ma anche, e per certi versi soprattutto, i processi che sfruttano la cooperazione umana e l’attività sociale”4.


  1. “The invisible curation of content. Facebook’s news feed and our information diets”, World Wide Web Foundation (aprile 2018), https:// webfoundation.org/research/ the-invisible-curation-of-con­tent-facebooks-news-fe­ed-and-our-information-diets/  

  2. Francesco D’Abbraccio, Andrea Facchetti, Una nuova elettricità, introduzione a F. D’Abbraccio, A. Facchetti (a cura di), AI & Conflicts Volume 1, Krisis Publishing, Brescia 2021, p. 13  

  3. Sandro Mezzadra e Brett Nielson, On the multiple frontiers of extraction: excavating contemporary capitalism, Cultural Studies 31 (2017), pp.185-204  

  4. F. D’Abbraccio, A. Facchetti, op. cit., pp. 20-23  

]]>