di Gioacchino Toni

La pretesa di rilevare le emozioni provate da un individuo in un determinato momento è ormai divenuta una vera e propria ossessione che si tenta di soddisfare attraverso la tecnologia. Di ciò si occupa l’articolo di John McQuaid, Your Boss Wants to Spy on Your Inner Feelings, “Scientific American” (01/12/21), ripreso con il titolo Spiare le emozioni da “le Scienze” (27/01/22). L’autore racconta di come l’intenzione, tramite telecamere ed elaborazioni affidate ad algoritmi, di carpire informazioni dalla mimica facciale circa le emozioni provate dagli individui trovi applicazione oltre che nell’ambito delle ricerche di mercato e della sicurezza, anche nelle valutazioni dei candidati in cerca di occupazione e nel rilevare la soglia di attenzione sui posti di lavoro e nelle scuole.

Non si tratta più di “limitarsi” al riconoscimento facciale – assegnare un’identità a un volto – ma di desumere dalla mimica facciale lo stato emotivo degli individui. Sono ormai numerose le applicazioni disponibili sul mercato che, avvalendosi di IA, offrono i propri servizi alle imprese in termini di analisi dell’emotività dei candidati o dei lavoratori già inseriti in azienda magari in attesa di riconferma.

Dell’interesse delle corporation e dei settori della sicurezza per il riconoscimento tramite tecnologie delle emozioni a partire dalla mica facciale si occupa anche Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA (il Mulino, 2021) [su Carmilla]:

Per l’esercito, le imprese, i servizi segreti e le forze di polizia di tutto il mondo, l’idea del riconoscimento automatico delle emozioni è tanto avvincente quanto redditizia. Promette di distinguere in modo affidabile l’ amico del nemico, le bugie dalla verità e di utilizzare gli strumenti della scienza per scrutare nei mondi interiori (Crawford, p. 175).

I sistemi per il riconoscimento automatico delle emozioni, sostiene la studiosa, derivano dall’intrecciarsi di tecnologie IA, ambienti militari e scienze comportamentali.

Essi condividono idee e assunzioni: come per esempio che esista un piccolo numero di categorie emotive distinte e universali, che involontariamente facciano traspirare queste emozioni sui nostri volti e che esse possano essere rilevate dalle macchine. Questi atti di fede sono talmente accettati in determianti settori che può sembrare persino strano notarli, per non parlare di metterli in discussione. Sono idee talmente radicate da costituire il “punto di vista comune”. Ma se consideriamo come le emozioni sono state tassonimizzate – ben ordinate ed etichettate – ci accorgiamo che gli interrogativi sono in agguato ad ogni angolo (Crawford, p. 175).

Una figura di spicco in tale panorama è sicuramente quella dello psicologo statunitense Paul Ekman, elaboratore del celebre, quanto controverso, modello denominato “Facial Action Coding System” [su Carmilla].

Nel suo articolo McQuaid racconta di come in Corea del Sud sia ormai talmente diffuso il ricorso a tali strumenti che numerose agenzie di assistenza allo sviluppo carrieristico invitano i propri clienti ad esercitarsi a sostenere colloqui direttamente con sistemi IA anziché con altri esseri umani.

Se nel distopico Blade Runner (1982) di Ridley Scott, nei colloqui a cui venivano sottoposti, erano i replicanti a dover fingersi umani, ambendo comunque a divenirlo, ora sono gli umani stessi a dover convincere gli algoritmi circa la loro affidabilità comportamentale lavorativa, in sostanza a fingersi/farsi macchine produttive.

I sistemi di intelligenza artificiale usano vari tipi di dati per estrarre informazioni utili su emozioni e comportamenti. Oltre alle espressioni del volto, all’intonazione della voce, al linguaggio corporeo e all’andatura, possono analizzare contenuti scritti e orali alla ricerca di sentimenti e atteggiamenti mentali. Alcuni programmi usano i dati raccolti per sondare non le emozioni, bensì altre informazioni correlate, per esempio quale sia la personalità di un individuo, oppure se stia prestando attenzione o se rappresenti una potenziale minaccia (McQuaid, p. 44)

Non potendo intuire direttamente emozioni, personalità e intenzioni degli individui, gli algoritmi di intelligenza artificiale emotiva «sono addestrati, tramite una sorta di crowdsourcing computazionale, a imitare i giudizi espressi dagli esseri umani a proposito di altri esseri umani» (McQuaid, p. 45). Non è pertanto difficile immaginare come gli algoritmi possano finire per “apprendere” i pregiudizi più diffusi delle persone, dunque a rafforzarli.

Alcune ricerche condotte dal MIT Media Lab hanno dimostrato come i sistemi di riconoscimento facciale in uso siano più precisi se applicati a individui maschi bianchi (stanard a cui ci si deve adeguare),  altre analisi hanno mostrato come diversi di questi sistemi tendano ad attribuire maggiori espressioni negative agli individui di colore. Del resto l’idea che esista uno standard valido per tutti gli esseri umani si rivela fallace oltre che una condanna in partenza nei confronti di chiunque non si uniformi ai dati del campione raccolto.

La stessa idea che pretende di identificare un corrispettivo tra espressione esteriore ed emozione interiore risulta assai scivolosa, così come discutibile è la convinzione che le espressioni del volto siano davvero universali. Un’espressione magari sorridente può in realtà voler coprire il dolore o trasmettere empatia nei confronti di sentimenti altrui; le variabili sono tante ed i sistemi tendono di per sé a voler semplificare le cose per sentenziare risposte “certe”. «I sistemi di intelligenza artificiale cercano di estrarre le esperienze mutevoli, private e divergenti del nostro io corporeo, ma il risultato è uno schizzo fumettistico che non riesce a catturare le sfumature dell’esperienza emotiva del mondo» (Crawford, p. 199).

Per quanto riguarda il convincimento che gli stati interiori possono essere inferiti puntualmente da segni esterni, questo deriva, almeno in parte, dalla storia della fisiognomica che intendeva trarre indicazioni sul carattere di un individuo a partire dallo studio dei suoi tratti del viso. In Occidente la fisiognomica raggiunse il suo culmine tra il Settecento e l’Ottocento, quando venne collocata tra le cosiddette scienze anatomiche.

Tornando alla contemporaneità, l’ossessione di mappare e monetizzare le espressioni del volto, la personalità e i comportamenti degli individui contribuisce ad espandere gli ambiti della vita sottoposti alla sorveglianza. L’intelligenza artificiale emotiva conquista persino gli spazi domestici e gli abitacoli delle automobili, luoghi in cui si possono raccogliere numerosi dati emotivi e comportamentali.

Non è a questo punto sufficiente domandarsi a chi appartengano i dati del volto e del corpo degli individui; occorre chiedersi anche quanto, e in cambio di cosa, si sia disposti a cederli nella consapevolezza che non si è affatto in grado di delimitarne le finalità.