di Gioacchino Toni

Ethan Mollick, L’intelligenza condivisa. Vivere e lavorare insieme all’AI, traduzione di Paolo Bassotti, Luiss Univerity Press, Roma 2025, pp. 184, ed. cartacea € 18.00, ed. ebook € 9,99

Che con la comparsa dell’intelligenza artificiale generativa il mondo stia cambiando in aspetti tutt’altro che marginali è certo e tutto lascia pensare che sia destinato a cambiare ancora più radicalmente in un futuro non troppo lontano, sebbene nessuno sia in grado di prevedere in che termini, come ammette lo stesso Ethan Mollick nel suo saggio Co-intelligence. Living and Working with AI (2024) ora pubblicato in italiano da Luiss Univerity Press. «Nessuno sa davvero dove stiamo andando. Non lo so neanch’io. Non ho risposte definitive», scrive l’autore, «nessuno ha un quadro completo del significato della AI e […] perfino le persone che creano e si servono di questi sistemi non ne comprendono in pieno le implicazioni» (p. 16).

Insomma, con l’AI si naviga davvero a vista ma, soprattutto, l’impressione, almeno da parte di chi guarda al fenomeno con spirito critico, è che si sia entrati in un meccanismo che rischia di diventare sempre meno “umanamente governabile”. L’incapacità di immaginare con una certa precisione in che termini l’intelligenza artificiale impatterà sul mondo, modificandolo, sembra dipendere, più che dalla velocità con cui sta procedendo il suo sviluppo, dall’imprevedibilità di quest’ultimo, che infatti si sta dimostrando ben poco lineare nel suo procedere prendendo direzioni inaspettate (autonome, direbbero i più preoccupati) rispetto a qualsiasi pianificazione umana.

Rispetto a quella umana, quella delle macchine pensanti è un tipo diverso di intelligenza (artificiale, appunto) che, per quanto nutrita di conoscenze umane, segue traiettorie di ragionamento sue e si avvia ad oltrepassare i limiti dell’umana intelligenza e comprensione. Di pari passo all’incapacità umana di prevedere gli scenari determinati dallo sviluppo dell’intelligenza artificiale, questa, invece, si sta appropriando del linguaggio oracolare per interpretare e giudicare il mondo e una volta che ha previsto quanto dovrebbe accadere, derivandolo dalla mera analisi statistica, propone agli esseri umani di assecondare il futuro prefigurato.

L’intelligenza artificiale è una di quelle General Purpose Technology, come la macchina a vapore, il computer o internet, capaci di coinvolgere, direttamente o indirettamente, molteplici aspetti della vita, ma a differenza delle altre, l’AI non ha impiegato tempi lunghi per passare dalle prime fasi di sviluppo alla sua applicazione su larga scala; i Large Language Model hanno rivelato le loro potenzialità nel giro di pochi anni dalla comparsa ed altrettanto velocemente hanno raggiunto un’incredibile diffusione.

Dal punto di vista pratico, disponiamo di una AI le cui capacità sono poco chiare, sia per quello che riusciamo a intuire noi utenti sia per chi crea tali sistemi. Una AI che talvolta supera le nostre aspettative e talvolta ci delude con le sue baggianate. […] Abbiamo inventato una sorta di mente aliena. Ma come facciamo a essere sicuri che questo alieno sia amichevole? (p. 35).

È proprio da questo interrogativo che nasce il problema dell’allineamento, cioè di come far sì che la AI sia al servizio degli interessi umani senza rivelarsi dannosa nei loro confronti.

L’insistenza con cui viene ripetuto che i ricercatori si stanno prodigando per progettare sistemi di intelligenza artificiale “allineati ai valori umani”, o almeno a non “danneggiare le persone”, non è evidentemente sufficiente a dissipare le preoccupazioni di chi, invece, tende a pensare che la costosa ricerca finanziata dalle grandi corporation sia finalizzata all’ottenimento di performance profittevoli da tale tecnologia ben più che a rispondere a problematiche di ordine etico.

Convinto che l’insistere sugli scenari apocalittici rischi di mettere in ombra la condotta degli esseri umani finendo per deresponsabilizzarli, Mollick preferisce concentrarsi nel suo libro sulle implicazioni pratiche e a breve termine derivate dal ricorso all’intelligenza artificiale. Lo studioso ritine, inoltre, che concentrare eccessivamente le preoccupazioni, per quanto giustificate, sui problemi derivanti dall’avvento di una intelligenza superiore a quella umana rischi di far perdere di vista una serie di altre importanti problematiche etiche.

Facendo riferimento all’uso dei dati da parte dei colossi della AI si è soliti guardare alla questione soprattutto da un punto di vista legale, mettendo in luce come questi siano utilizzati senza un esplicito consenso, ma in realtà il ricorso a tali dati contempla anche altre problematiche, come ad esempio il rischio di assorbire automaticamente ed acriticamente bias e pregiudizi presenti in essi per poi riproporli in forma potenziata in nuove produzioni della AI che rischiano, in un contesto di eccessiva fiducia concessa alle macchine, di essere prese e applicate acriticamente.

Trattandosi di «bias di una macchina, cioè non attribuibili a una persona o a un’organizzazione, possono sembrare più oggettivi e deresponsabilizzare le aziende di AI» (p. 42). Si tratta, evidentemente, di bias che possono impattare in maniera dirompente sulle vite degli individui o di gruppi umani e che rischiano di essere mantenuti ed amplificati dalle tecnologie magari anche soltanto perché sarebbe troppo dispendioso “perdere tempo” nel tentativo di eliminarli. Al di là delle “belle intenzioni”, tutto ciò che rallenta l’efficienza prestazionale della macchina non è visto di buon occhio da chi rincorre la logica del profitto soprattutto a breve termine, disinteressandosi degli effetti che tale condotta può avere nei tempi lunghi sugli umani, oltre che sulle imprese stesse.

Sarebbe ingenuo, come ammette lo stesso Mollick, delegare la questione dell’allineamento alle sole aziende AI ma non si può nemmeno fare troppo affidamento sui governi, non fosse altro che per il fatto che questi si muovono in competizione tra loro, dunque è estremamente difficile pensare ad una legislazione condivisa e realmente applicata all’interno di una logica di spietata concorrenza. Inoltre, in un ambito dinamico e imprevedibile nei suoi sviluppi come quello dell’intelligenza artificiale, il raggiungimento di una legislazione internazionale condivisa da parte delle burocrazie statali rischia di viaggiare in costante ritardo rispetto al repentino modificarsi degli scenari tecnologici.

Servirebbe una «una risposta collettiva dell’intera società», scrive Mollick, l’adozione di norme e standard che permettano «uno sviluppo etico della AI, tramite un processo inclusivo che rappresenti voci diverse» (p. 47), ma affinché ciò possa darsi, occorrerebbe una consapevolezza diffusa circa le grandi questioni poste dall’intelligenza artificiale che non può essere immaginata come mera formazione all’utilizzo pratico di un chatbot AI.

Se si guarda alla AI come ad una sorta di “tecnomagia” atta ad economizzare (in forma di scorciatoia nell’universo della didattica o di abbattimento dei tempi di progettazione e produzione nell’ambito più strettamente produttivo), allora concedersi una riflessione di carattere etico diviene un lusso controproducente. Se occorre, come scrive Mollick, un processo inclusivo coinvolgente l’intera società al fine di dotarsi di norme e standard in grado di garantire uno sviluppo etico della AI, allora quando si parla di alfabetizzazione o di educazione all’intelligenza artificiale non si può pensare di cavarsela preoccupandosi esclusivamente del funzionamento pratico dell’innovazione senza porsi questioni etiche, altrimenti ci si affida al buon cuore delle aziende e dei governi, mossi dal business e dalla competitività.

Come si è detto, l’intelligenza artificiale adotta una logica diversa da quella umana, tanto da risultare a noi in buona parte incomprensibile; si tratta di un’intelligenza aliena con cui, piaccia o meno, si ha e si avrà sempre più a che fare. «Gli esseri umani scontano bias d’ogni sorta quando prendono decisioni. Molti di questi bias derivano però dal fatto che siamo vincolati dalla nostra forma mentis». Ora, scrive Mollick, è però possibile ricorrere alla AI, intendendola come «una co-intelligenza (strana, artificiale)» come «seconda testa pensante che ci aiuti a prendere decisioni e a riflettere sulle nostre scelte (invece di limitarci a chiederle di prendere decisioni al posto nostro)» (p. 50).

Il ricorso alla “seconda testa pensante” rischia non solo di generare dipendenza, nel senso di non poterne fare a meno, ma anche di perdere di vista il ruolo che l’umano dovrebbe saper mantenere nei confronti della macchina pensante. Insomma, sostiene lo studioso, occorrerebbe imparare come diventare «l’umano nel processo» (human in the loop), ad esempio essendo in grado di «rilevare allucinazioni e bugie della AI e sfuggire ai suoi inganni» (p. 53).

Se il problema riguarda marginalmente chi, avendo già sviluppato conoscenza ed abilità, può confrontarsi consapevolmente con la “seconda testa pensante” sapendo individuare diversi errori che questa può commettere, viene da domandarsi quale tipo di rapporto potrebbero avere con le macchine pensanti le generazioni abituate a ricorrere ad esse sin dalla più tenera età, delegando loro le fatiche dello studio e del ragionamento, oltre che la creatività.

Risulta importante riflettere sul rischio che l’AI possa diventare per gli studenti una scorciatoia alla risoluzione dei problemi esentandoli dalla fatica del ragionamento critico. Risulta difficile prevedere come le generazioni che struttureranno la loro formazione ricorrendo alle scorciatoie offerte dalla “seconda testa pensante” potranno riconoscere gli errori della macchina ed essere davvero human in the loop e non dipendenti acritici della macchina.

Il rapporto con l’intelligenza artificiale tocca anche questioni di carattere emotivo. Se la diffusione dei social digitali ha comportato un’articolata riflessione circa il ruolo da questi assunto nei rapporti interpersonali tra umani, con l’AI si passa ad un altro piano di discorso, venendosi ad instaurare non un tipo di rapporto umano-umano mediato da macchina, ma un tipo di rapporto direttamente umano-macchina. Sono sempre più frequenti i casi in cui, sin dall’adolescenza, si fa ricorso a chatbot AI a cui si assegna il ruolo di psicologo/amico a cui confidare i propri problemi e da cui ottenere suggerimenti. Cosa deriverà da tale tipo di relazione umano-macchina è difficile da prevedere.

Crescere conversando con l’assistente virtuale di casa, confrontarsi sui problemi adolescenziali che si vivono con un chatbot, delegare alla AI le fatiche del ragionamento durante la formazione scolastica e così via, contribuirà di certo a creare un universo smart, resterà però da vedere quanto sarà smart l’essere umano che lo abiterà. In termini distopici si potrebbero prevedere scenari in cui non sarà l’umano a vivere nel mondo smart, ma quest’ultimo a vivere l’umano annullandolo.

Paradossalmente, nella tendenza spontanea ad antropomorfizzare l’intelligenza artificiale si palesa come questa dia il meglio di sé in mansioni estremamente umane. «Sa scrivere, analizzare, codificare e chattare. Può farci da consulente o vendere i nostri prodotti e svolgere mansioni che ci farebbero perdere tempo, aumentando la nostra produttività. Fa però fatica con compiti nei quali in genere le macchine sono bravissime, come ripetere costantemente un processo o svolgere calcoli complessi senza assistenza. Inoltre i sistemi AI fanno errori, dicono bugie e danno risposte assurde, proprio come gli umani» (p. 64).

Non è difficile ritrovarci in una bolla con chi la pensa come noi. Presto avremo a disposizione la nostra bolla perfetta. Queste AI potrebbero contrastare l’epidemia di solitudine che paradossalmente sembra affliggere questo nostro mondo sempre più connesso […] D’altro canto, potremmo diventare sempre meno tolleranti verso gli esseri umani e inclini a preferire amici e amanti simulati. […] Ed è solo l’inizio. Le AI saranno sempre più connesse al nostro mondo e impareranno a parlare e ad ascoltare, rendendo il nostro legame con loro ancor più profondo. […] Tutti rischiamo di scambiare una AI per una persona, non importa quanto crediamo di saperla lunga (pp. 78-79).

A far percepire umana l’AI è, dunque, anche la sua propensione ad azzardare risposte, a volte palesemente assurde, come non di rado fanno gli esseri umani. Le cosiddette “allucinazioni” sono dunque uno dei limiti della AI ma paradossalmente, scrive Mollick, anche uno dei suoi punti di forza perché permettono di «trovare collegamenti imprevisti al di fuori del contesto preciso dei suoi training data e contribuiscono a farle svolgere compiti per i quali non è stata esplicitamente addestrata […] La creatività della AI presenta pertanto un paradosso: la stessa caratteristica che la rende inaffidabile e perfino pericolosa è alla base della sua utilità» (p. 84).

Nel corso del libro Mollick passa in rassegna le modalità con cui in ambito lavorativo, educativo e creativo l’essere umano potrebbe rapportarsi alla AI intendendola come un’intelligenza di altra natura con cui collaborare. L’ottica con cui l’autore guarda alla AI è quella di chi pur non mettendo in discussione il sistema entro il quale questa si è formata ed opera non rinuncia a porsi interrogativi circa gli aspetti più problematici che si creano attorno ad essa.

In un passaggio in cui lo studioso guarda la mondo del lavoro scrive che se le aziende hanno sempre sperimentato forme di controllo sui lavoratori, dai cronometri alle telecamere e altre forme di monitoraggio fino agli algoritmi, con i Llm si giungerà ad «un sistema nel quale ogni aspetto del lavoro viene monitorato e controllato dalla AI, che traccerà attività, comportamenti, produzione e risultati di manager e lavoratori. Stabilirà obiettivi e richieste, assegnerà mansioni e ruoli, valuterà le performance e a seconda delle valutazioni determinerà ricompense e punizioni». Diversamente però dagli «algoritmi freddi e impersonali» utilizzati, ad esempio, da Lyft e Uber, il nuovo sistema di controllo tenderà ad assumere un ruolo da coach utile ai lavoratori per migliorare in termini di competenze e produttività. «La capacità della AI di comportarsi come una consigliera dai toni amichevoli potrebbe smussare le asperità del controllo algoritmico, infiocchettando con nastri e lustrini la Skinner Box. Al potere però ci sarebbe comunque l’algoritmo» (p. 119).

Se è pur vero che, come suggerisce lo studioso, i Llm contribuiscono ad esplicitare e magari ad eliminare le parti più noiose ed alienanti del lavoro di cui nessuno, potendo, vorrebbe occuparsi, resta il fatto che è difficile immaginare come, nell’ambito dell’attuale modello di produzione, ci si possa sottrarre alle logiche lavorative sempre più accelerate e competitive.

Insomma, i lavoratori saranno controllati sin negli aspetti più privati, saranno costretti a sottostare ad un meccanismo di gamification che prevede premi e penalità per migliorare la performance produttiva, saranno dunque messi sempre più in competizione tra loro e saranno indotti a farsi accompagnare dalle problematiche lavorative ventiquattro ore su ventiquattro… ma tutto ciò avverrà con toni amichevoli. Sarà forse con uno smile che l’amichevole intelligenza aliena, per conto di una proprietà sempre meno identificabile, chiuderà il breve messaggino con cui comunicherà al poveretto o alla poveretta di turno l’avvenuto licenziamento per il basso punteggio conseguito, senza nemmeno passare dai playout. Allucinazione?