di Mario Coglitore
Esaminiamo ora la “colonialità” in età contemporanea, immergendoci nel crogiolo dei “dati” e dell’IA. Secondo Couldry e Mejias1, (la “colonialità” del presente digitale è raffigurata dalle moderne relazioni di dati, vale a dire relazioni umane che catturate attraverso i nostri devices diventano merce, riproponendo in senso più ampio una struttura di potere colonizzatore. Per ciò che concerne l’IA, che di quel potere è strumento per eccellenza, in Europa è intervenuta a regolamentare la materia una legge specifica, l’Artificial Intelligence Act (AI Act EU) del 20212. In un documento del Parlamento europeo, essa viene definita come “[…] l’abilità di una macchina di mostrare capacità umane, quali il ragionamento, l’apprendimento, la pianificazione e la creatività”3.
L’IA si distingue in due principali tipologie: generativa e discriminativa. Quest’ultima si concentra su compiti di classificazione e previsione ed è capace di analizzare grandi quantità di informazioni ordinandole automaticamente in categorie definite a priori. Sulla base dei criteri con cui è stata programmata modula risposte coerenti con le necessità dell’utente che la utilizza. I risultati che raggiunge si sostanziano, quindi, in una scelta tra diverse opzioni disponibili. L’IA generativa, al contrario, è più complessa perché prevede che si possano generare contenuti originali, quali testo, immagini, musica, audio e video utilizzando modelli di apprendimento automatico addestrati con grandi quantità di dati4.
In conseguenza di precise istruzioni, chiamate prompt, la macchina fornisce altrettanto precisi riscontri, o quanto più precisi possibile. A farla da padrone in questo caso sono gli LLM (Large Language Models), vale a dire algoritmi che utilizzano tecniche di deep learning (Il deep learning, campo di ricerca dell’apprendimento automatico (machine learning), consiste in un insieme di tecniche basate su reti neurali artificiali (a loro volta modelli computazionali, composti di “neuroni” artificiali, ispirati alla semplificazione di una rete neurale biologica) organizzate su diversi livelli; in ogni livello si calcolano i valori per quello successivo, così che l’informazione venga elaborata via, via in modo sempre più completo.)) (e blocchi di dati di enormi dimensioni per comprendere, riassumere e originare nuovi contenuti. Maggiori sono i dati a disposizione, maggiori le probabilità che l’elaborazione delle macchine sia efficace su ogni aspetto dello scibile umano. Tutto ruota attorno ai sempre più spesso richiamati Big data, coacervo informatico talmente vasto e complesso da richiedere tecnologie molto specifiche per essere elaborato.
Come osservano Couldry e Mejias5, ci viene spesso detto che i dati sono il nuovo petrolio. Eppure, i dati non sono presenti in natura. Bisogna appropriarsene dopo averli strutturati e resi tali. Catturare ed elaborare i dati sociali significa mettere in atto un processo che chiamiamo “relazioni di dati”, il quale ci assicura la conversione “naturale” della vita quotidiana in un intenso traffico di informazioni. Il risultato è ineluttabile: un nuovo ordine sociale basato su un monitoraggio continuo che offre incalcolabili opportunità per la discriminazione e l’influenza comportamentale. Così come, secondo i due autori, le “relazioni di dati” mettono in atto una nuova forma di colonialismo, normalizzando per mezzo della loro estrazione lo sfruttamento degli esseri umani, con lo stesso modus operandi il colonialismo storico si è appropriato di territorio e risorse e ha governato i suoi sudditi per ricavarne profitto. Il colonialismo, come pratica di potere e assoggettamento, diventa quindi la cornice, ampia e documentabile, all’interno della quale cogliere il senso dell’intera evoluzione sociale in corso.
Il “colonialismo dei dati”, secondo Couldry e Mejias, interconnette le pratiche estrattive predatorie del colonialismo storico con i metodi di quantificazione astratta del calcolo (algoritmico). Di più:
Gli spazi digitali, forgiati da Internet e dai sistemi e dispositivi sempre più interconnessi che utilizziamo, formano territori digitali che, come gli spazi fisici, hanno la propensione a diventare siti di estrazione e sfruttamento e, quindi, siti di “colonialità” digitale-territoriale6.
Nel mondo digitale la “colonialità” del potere genera agglomerati di conoscenza e prassi di utilizzo della tecnologia articolati su valori che rimangono inalterati rispetto al passato e persistono nel presente. Per questo, se da una parte il colonialismo storico ha fornito le premesse essenziali per l’emersione e il consolidamento del capitalismo industriale, dall’altra parte il “colonialismo dei dati” propone una nuova fase del capitalismo che al momento possiamo solo tentare di immaginare.
I dati, questi sconosciuti
I dati sono una forma di fondamentale appropriazione, o meglio ancora estrazione, di risorse. Ma non si tratta semplicemente di accaparrarsi una risorsa naturale, come poteva accadere con le miniere d’argento, i campi di cotone, o le coltivazioni della gomma. È la vita stessa, adesso, che deve essere configurata in modo da trasformarsi in sostanza produttiva; i dati sulle azioni o le caratteristiche di un individuo vanno combinati con dati relativi alle azioni e caratteristiche di altri individui per stabilire relazioni tra punti prestabiliti7.
Le “relazioni informazionali” che ne derivano sono il punto di torsione dell’intero congegno. Le piattaforme digitali si impossessano perciò dell’insieme dei dati che sono parte essenziale dell’intera dinamica evolutiva del sistema. Il quadro complessivo di riferimento dentro al quale questo processo si sviluppa, matura e trova compimento, rappresenta il “colonialismo dei dati”.
Il “dato” deve essere per prima cosa configurato per la cattura. Vale a dire che è necessario comporre una narrazione socioculturale per arrivare all’estrazione dei dati e al loro utilizzo, dichiarandone la possibilità di esistenza e la necessità imprescindibile. Le “razionalità estrattive”8 in tal modo, si moltiplicano, rilanciate dalle piattaforme e diffuse nella Rete. I principali attori del “colonialismo dei dati” costituiscono il “settore della quantificazione sociale”: si tratta delle aziende coinvolte nell’acquisizione di atti sociali quotidiani, tradotti poi in dati quantificabili che vengono analizzati per realizzare guadagni miliardari su scala planetaria: Amazon, Google, Apple, Facebook ma anche, in Cina, Baidu, Alibaba, Tencent.
Quella a cui stiamo assistendo è una riorganizzazione della vita umana in virtù di un’ampia trasformazione delle relazioni sociali. La recentissima tecnologia informatica, con l’insieme delle conoscenze, abilità e competenze che le sono proprie – con particolare riferimento alle infrastrutture digitali innervate dalle IA algoritmiche – sta plasmando giorno dopo giorno una nuova tipologia di “sociale” a vantaggio esclusivo del capitalismo, ovvero il “sociale” tradotto in un flusso di dati che sarà continuamente monitorato, catturato e ordinato per valore in quanto totalità.
Ora, essendo noi stessi il “sociale”, ne consegue, irrimediabilmente, che ne sta andando della nostra esistenza e della nostra identità. Il nostro “sé” risulta compromesso e veniamo, di ora in ora, espropriati come collettività e al tempo stesso come individualità. Astrazioni di processi della vita umana, i dati sono ricavati da donne e uomini attraverso relazioni sociali alle quali sembriamo aver acconsentito senza farci troppe domande. Il “colonialismo dei dati” trasforma la nostra vita in un costrutto relazionale virtuale, ormai maturo per la mercificazione. L’IA ne moltiplica esponenzialmente l’efficacia reificando “formazioni discorsive”9 che attraversano l’ultima frontiera “digitale” e ricompongono sintassi egemoniche, recando con loro antiche preclusioni.
I pregiudizi degli algoritmi
Riproposizione in un rinnovato scenario socio-culturale e tecnologico della vecchia colonial mind, l’IA generativa sembra perpetuare anche stereotipi che aumentano i preconcetti sul genere e sulla differenza tra etnie, forse mettendo perfino in pericolo l’incolumità delle persone.
Interessante e dolorosa la testimonianza di Joy Buolamwini dalle pagine del Times nel 2019. Scienziata, attivista e fondatrice dell’Algorithmic Justice League, Buolamwini scrive:
Le macchine possono discriminare in modo dannoso. L’ho sperimentato in prima persona, quando ero una studentessa laureata al MIT nel 2015 e ho scoperto che alcuni software di analisi facciale non potevano rilevare il mio viso dalla pelle scura fino a quando non ho indossato una maschera bianca. Questi sistemi sono spesso addestrati su immagini di uomini prevalentemente dalla pelle chiara. E così, ho deciso di condividere la mia esperienza dello sguardo codificato, il pregiudizio nell’intelligenza artificiale che può portare a pratiche discriminatorie o di esclusione10.
Inevitabile il richiamo a Fanon: l’identità nera va celata sotto maschere oltraggiosamente bianche11.
D’altronde:
Con «bianco» s’intende indicare una posizione in una struttura sociale marcata dal colonialismo europeo, dallo schiavismo transatlantico, dal razzismo; non un dato di per sé auto-evidente, come molte persone sono abituate a pensare. «Bianco» è un’etichetta che non ha nessun significato al di fuori di un sistema storico e sociale in cui le categorie razziali influenzano l’accesso alle risorse sociali, politiche ed economiche, e in assenza di altre posizioni sociali costruite come quella di nero o indigeno12.
Proprio in ragione della presenza di questo ordito socio-culturale, le IA sono addestrate per mezzo di set di dati che riflettono i pregiudizi tipici della cultura occidentale ad ogni livello. Una spiegazione semplice ma altrettanto impressionante. Questo significa che l’IA propone modelli di interpretazione del mondo ingannevoli e decisamente orientati a privilegiare i bianchi e la loro cultura. Dobbiamo fare i conti con veri e propri cliché estremamente discriminanti, ci raccontano studiosi e ricercatori: le donne asiatiche sono iper-sessualizzate – stereotipo questo che in Occidente solletica più di qualche anima candida –, le africane e gli africani sono considerati primitivi mentre gli europei senz’altro evoluti, i leader sono sempre maschi e i detenuti nella maggioranza dei casi neri o comunque di colore. Esempi eclatanti della colonizzazione algoritmica li ritroviamo in Sud Africa o in Indonesia, luoghi di sperimentazione di modelli di sorveglianza digitale utili all’industria globale del controllo e per questo esportati successivamente in tutto il mondo13.
Le grandi Corporazioni, molto simili a quelle descritte nella letteratura cyberpunk e così ben evocate in un capolavoro del cinema qual è stato Blade runner, si stanno impossessando dell’intera vita sociale e individuale. È questo il “momento coloniale” del capitalismo contemporaneo che approntando nuove e totalizzanti relazioni sociali (relazioni di dati, cioè) dà luogo anche a nuove specie di valore economico.
Non resta, ci insegna Qujano, che sfidare la legittimità del “colonialismo dei dati” attraverso modi di pensare “decoloniali”14; non basta più andare oltre il coloniale servendosi di un approccio “post-coloniale”. Bisogna attaccare il colonialismo digitale aggredendolo nel suo nucleo costitutivo: la logica costrittiva che rimane appena sotto la linea di visibilità e che consente alla rapina incessante di dati di sembrare naturale, in qualche misura di apparire un miglioramento e non, invece, una violenza nei confronti del consesso umano. “Riconoscendo gli analoghi della colonialità territoriale e strutturale nell’era digitale”, suggeriscono Mohamed, Png e Isaac, “proponiamo l’applicazione della teoria decoloniale alle tecnologie digitali come l’IA”15.
Non dobbiamo dimenticare che il colonialismo:
[…] è appropriazione; mentre quello storico si appropriava di territori, risorse e corpi, il colonialismo di oggi si appropria della vita umana estraendo valore dai dati. […] Le caratteristiche fondamentali [di questa appropriazione sono] […]: l’elaborazione di una quantità sempre maggiore di dati personali, l’universalizzazione della logistica, in quanto modello di gestione, la datificazione di moltissimi aspetti del lavoro, e la creazione di relazioni informazionali in forza delle quali i nostri dati vengono raccolti e se ne estrae valore indipendentemente dal luogo in cui ci troviamo, al lavoro o altrove16.
Ma non è soltanto questione di dati o di piattaforme studiate per sfruttarne il potenziale. Nello scorrere liquido della Rete, la danza incessante e psicotropa degli algoritmi riverbera nei nostri dispositivi collegati, siano computer, Tablet o Smartphone, gli orizzonti luminescenti del virtuale che si fa reale, penetrando nelle nostre esistenze quotidiane e raffinandone la dipendenza. Nel vorticare delle connessioni che si moltiplicano all’infinito, senza che se ne possa avere coscienza, la colonizzazione della mente e, alla fine, del nostro esistere procede inesorabile, ricomposta in archivi depositati in remoti server e nascosti alla vista nella loro materialità alimentata da semplice energia elettrica e da circuiti di raffreddamento ad acqua.
La macchina molecolare predisposta sulle ceneri dell’oramai desueto campo sociale (e non soltanto: antropologico, politico, culturale) analogico nel quale abbiamo trascorso parte della nostra vita, con la sua fluida meccanica di funzionamento, combina un insieme di elementi che si raccordano in maniera non gerarchica e liberano futuri possibili, come avevano visto con occhio lucidissimo Deleuze e Guattari17 (in anni durante i quali gli algoritmi non davano alcun pensiero. Ogni cosa si connette e si trasforma nella discontinuità.
In questo circuito epistemologico senza centro, i fattori (o meglio, le forze) che si intrecciano indissolubilmente a comporre l’architettura della “situazione coloniale” digitale e ne delineano l’agentività (agency), la capacità cioè di porre in essere azioni, si dispongono su piani intersecanti e danno origine a un apparato di sorveglianza, e correlativamente di controllo, composto da un’infrastruttura per estrapolare i dati; un ordine sociale che lega gli esseri umani all’infrastruttura; un sistema economico che si basa su questa infrastruttura e questo ordine; un modello di governance che si avvale dell’infrastruttura, dell’ordine e del sistema; una ragione pratica che fornisce un senso a ciascuno di questi elementi; un modello di conoscenza che ridefinisce il mondo e lo mette a servizio del Capitale tramite lo sfruttamento e l’ottimizzazione delle informazioni estratte.
Ci muoviamo, storditi, tra i bagliori intermittenti di un potere che non tollera più alcuna resistenza, in una microfisica elettrica irradiata da miliardi di informazioni simultanee, datificazione incontenibile di cicli vitali sopraffatti dal silicio.
[ Fine seconda parte. La prima parte si può leggere qui]
Nick Couldry e Ulises A. Mejias, Il prezzo della connessione, cit., pp. 159-195 ↩
Cfr. https://artificialintelligenceact.eu/ai-act-explorer/ ↩
Cfr. Che cos’è l’intelligenza artificiale? È il presente e il futuro della tecnologia. Ma come funziona l’intelligenza artificiale e come influisce sulle nostre vite?, Tematiche, Parlamento europeo, settembre 2020, https://www.europarl.europa.eu/topics/it/article/ 20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata ↩
Sull’IA generativa e i suoi legami con i sistemi di oppressione interconnessi che l’hanno alimentata, si veda Jasmina Tacheva & Srividya Ramasubramanian, AI Empire. Unraveling the interlocking systems of oppression in generative AI’s global order, Big Data & Society, 10 (2), 2023, https://doi.org/10.1177/20539517231219241 ↩
Nick Couldry e Ulises A. Mejias, Data Colonialism: Rethinking Big Data’s Relation to the Contemporary Subject, Television & New Media, 20(4), 2018, p. 336, https://doi.org/10.1177/1527476418796632 ↩
Shakir Mohamed, Maria Teresa Png e William Isaac, Decolonial AI. Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence, Philosophy and Technology (405), 2020, p. 7 (trad. nostra). ↩
N. Couldry e U. A. Mejias, Data Colonialism, cit., passim. ↩
Con “razionalità estrattive” intendiamo, in questo contesto, le decisioni adottate per ottenere il massimo dei benefici con il minimo dei costi. ↩
Il filosofo e storico francese Michel Foucault ha utilizzato la locuzione “formazioni discorsive” per indicare sistemi di regole che disciplinano la produzione e la circolazione del sapere, determinando ciò che viene considerato vero o perlomeno accettabile e significativo. Cfr. Michel Foucault, L’Archeologia del sapere, Milano, Rizzoli, 1971 (ed. or. 1969), pp. 29-89. ↩
Cfr. Joy Buolamwini, Artificial Intelligence Has a Problem With Gender and Racial Bias. Here’s How to Solve It, “Times”, 7 febbraio 2019. ↩
Cfr. Frantz Fanon, Peau noir, masques blancs, Paris, Éditions du Seuil, 1952 (ed. it. 1996). Molto più conosciuto per il corposo lavoro I dannati della terra (Einaudi, 2007, ed. or. 1961), Fanon anticipa, nel suo agile saggio di quasi settant’anni fa, le considerazioni di Buolamwini, sottolineando l’impossibilità da parte del colonizzato e della colonizzata di rinunciare a indossare la maschera bianca imposta dal colonizzatore quale segno di impossessamento irreversibile della loro identità. Per essere accettati dai bianchi, bisogna prima o poi diventare come loro, figurandosi persino di colore diverso dal proprio. Come si può constatare il pregiudizio orienta persino la macchina, ne diventa cifra di codificazione. ↩
Valeria Ribeiro Corossacz, Smantellare la bianchezza, Jacobin Italia, n. 27, cit., p. 41. ↩
Cfr. su questo, per esempio, Davide Lovisolo, Il colonialismo dell’intelligenza artificiale, Scienza in rete, 11/09/2022, https://www.scienzainrete.it/articolo/colonialismo-dellintelligenza-artificiale/davide-lovisolo/2022-09-11 ↩
A. Quijano, Coloniality of Power and Eurocentrism in Latin America, cit., pp. 228-231. ↩
S. Mohamed, M. T. Png e W. Isaac, Decolonial AI, cit., p. 7 (trad. nostra). Sulla teoria decoloniale cfr. il recente Salvo Torre, Il pensiero decoloniale, Torino, Utet, 2024 e sul versante del difficile rapporto tra le letterature degli ex Paesi colonizzati e il giogo coloniale di cui si fatica a liberarsi, superando i condizionamenti imposti da decenni di dominio d’oltremare, si veda Elgas (El Hadj Souleymane Gassama), I buoni risentimenti. Saggio sul disagio postcoloniale, Roma, edizioni e/o, 2024 (ed. or. 2023). ↩
N. Couldry e U. A. Mejias, Il prezzo della connessione, cit., p. 301. ↩
Gilles Deleuze, Felix Guattari, L’anti-Edipo. Capitalismo e schizofrenia, Torino, Einaudi, 1975 (ed. or. 1972), pp. 3-53. ↩