C’è qualche relazione tra la morale e la conoscenza? E che c’entra ChatGPT?
In particolare da un punto di vista consequenzialista (se non sai che vuol dire questa parola, leggi un attimo Le mille morali che l’apologeta non ti dice) è possibile che ci sia una qualche rilevanza morale in materia di cose che si sanno, si credono o si ignorano?

A prima vista verrebbe di rispondere “ovviamente no!”
Dopotutto sembra che l’unica differenza che fanno le cose che si credono sia nella nostra testa.
Specificamente parrebbe cambiare solo come stanno disposte le connessioni tra i neuroni.
E cosa succede nella testa di una persona dovrebbe essere unicamente affar suo… o no?

Quindi in apparenza sembra impossibile avere un impatto da queste connessioni (che poi sono la forma materiale di idee e credenze), sembra impossibile che si possa arrivare a dire “devi credere X o stai facendo qualcosa di immorale”.

Sembra.

La questione non è così semplice. Ma per renderlo evidente e comprensibile, facciamo un giro a parlare di IA (Intelligenze Artificiali) e in particolare di quelle più moderne, basate sulle reti neurali simulate, come ChatGTP.

Prima però è importante una premessa: visto che non abbiamo controllo su come agiscono i nostri neuroni, non si può in alcuna maniera essere considerati responsabili di quel che questi fanno.

Lapalissiano, giusto?

Ecco, quindi credere a qualsiasi cosa è un diritto, nel senso che non è giustificabile in nessun caso colpevolizzare una persona in base a quello in cui crede.
E questo significa che è diritto di tutti non essere perseguiti per quel che si pensa o si crede. Fin tanto che si è disposti a non riflettere le credenze in comportamenti che hanno conseguenze per gli altri, s’intende. Quei comportamenti, fanno storia a sé.
Insomma, almeno un diritto ce l’abbiamo ed è il diritto di sbagliarsi.

Sì, pure i terrapiattisti.

Il sabotaggio di ChatGPT

Tra i loro vari utilizzi, le moderne LLM stanno venendo usate per fare la figata: il tuo Jarvis personale che ti controlla la casa. Praticamente con una serie di aggiustamenti il ChatGPT di turno diventa in grado di controllarti le luci, il frigo, il forno, le tende, il termostato e tante altre cose.

Figo vero?

Ora, le applicazioni “basilari” di questo si traducono in poco più che avere un comando vocale per questi elettrodomestici, niente di incredibile, te lo faceva pure Alexa.
Quelle avanzate, invece, usano ChatGPT come agente, ovvero gli dai un’istruzione e quello autonomamente decide il da farsi momento per il momento.

“ChatGPT, quando è buio accendi la luce nella stanza dove mi trovo”

E tac, non hai più bisogno di premere un interruttore, basta che tu abbia il tuo sensore addosso (sì, si può usare il cellulare o lo smartwatch) e la luce ti segue.
Peccato che non gli abbia detto di spegnere la luce quando dormi, quindi ti tocca dormire con la luce accesa adesso.

Ecco, questo è un esempio di un concetto dello studio delle intelligenze artificiali chiamato “disallineamento”.
Un disallineamento si ha quando le tue intenzioni e i tuoi valori non sono “allineati” con quello che la macchina proverà a fare, perché essenzialmente il suo obiettivo è dissimile dal tuo, non è in linea.

Introdurre un disallineamento in una IA è a tutti gli effetti un atto di sabotaggio, un danno per coloro che usano quella IA per fare una qualsiasi cosa, che all’improvviso se la vedono funzionare peggio, far cose sbagliate, causargli malessere e danni, costargli soldi o, in casi estremi, vite umane.

Prendiamo proprio un caso estremo: l’uso di AI in guerra.

E sì, sta già succedendo. È notizia vecchia che per decidere quali obiettivi dare ai piloti dei loro bombardieri gli israeliani hanno usato delle intelligenze artificiali (se ve lo siete perso, ne ho parlato in questo video) in particolare con una categoria di obiettivi chiamati “Power Targets”, obiettivi civili che avevano come caratteristica quella di instillare terrore nella popolazione civile.

Con questo approccio la IA è stata allineata al loro valore di voler fare terrorismo di stato contro la popolazione innocente di Gaza.

Immaginiamo ora che un sabotatore fosse intervenuto a disallineare la IA da questi atroci obiettivi allineandoli a uno standard più umanista, ovvero quello di minimizzare le conseguenze negative per i civili. Quel sabotatore sarebbe stato un eroe.

Immaginiamo poi invece una situazione invertita, dove l’IDF avesse allineato in maniera umanistica la IA e fatto davvero in modo di minimizzare i danni ai civili, ma un sabotatore estremista sionista avesse fatto in modo che detta IA colpisse i Power Target. Questo altro sabotatore sarebbe stato un terrorista.

Ecco, l’etica della cosa a questo punto appare più che lampante. Là dove una IA è mal allineata, correggerne l’allineamento per migliorare il benessere degli umani che ne sono affetti è un atto moralmente lodevole. Quando invece una IA è ben allineata al benessere umano, disallinearla è un atto moralmente riprovevole.

Ma che c’entra in tutto questo la conoscenza?

Perché siamo finiti a parlare di ChatGPT e simili IA?

Ecco, il fatto è che queste IA sono tutte basate su reti neurali simulate. Ovvero allineamento e disallineamento in questo contesto non sono altro che questioni di connessioni tra neuroni virtuali. E abbiamo appunto stabilito che almeno nel caso delle IA è morale o immorale andare a correggere quelle connessioni (a seconda del contenuto della connessione).

Questo nonostante il fatto che i numerini in uno scatolino pieno di circuiti non sembrino avere impatto diretto sulle persone circostanti tanto quanto le connessioni tra i miei neuroni rispetto a chi sta fuori dalla mia scatola cranica.

Ora la domanda diventa chiara: sotto il profilo morale passa davvero differenza tra riallineare una IA e riallineare un cervello umano? Passa davvero differenza tra il correggere le credenze di una intelligenza artificiale e quelle di una persona?

Dopotutto la persona avrà comportamenti che sono proprio guidati dalle connessioni tra i neuroni del suo cervello! Quindi andando ad allineare o disallineare i moduli del cervello della persona, noi andremo a causargli effetti ben maggiori di quanto non faremmo riallineando o disallineando quelle reti neurali (simulate) che gli controllano le luci della camera da letto.

E se possiamo causare effetti sul benessere di una persona, certo che possiamo interrogarci sulla moralità della cosa!

Sono saperi di vita o di morte

Quindi abbiamo il punto chiave: come per l’allineamento delle reti neurali simulate in una IA, così per l’allineamento delle reti neurali fatte di cellule nel cranio di una persona, chi le altera (o evita di alterarle) si prende la responsabilità dell’effetto che avranno.

Ora la questione è solo di capire come alterarle per fare del bene e come per fare del male. Ovvero che tipo di alterazioni sono moralmente lodevoli e quali moralmente riprovevoli.

Possiamo distinguere in particolare un tipo di circuito neurale importante per questa discussione: quelli che danno una rappresentazione della realtà e permettono quindi di interpretarla, comprenderla e farsi aspettative per il futuro; tali circuiti li associamo in termini colloquiali alla conoscenza.
Ovviamente il discorso si può ben ampliare anche ad altri circuiti neurali (ad esempio quelli legati alla personalità, al riconoscimento visivo, alla regolazione emotiva, ai comportamenti), ma per oggi discutiamo del legame tra epistemologia e morale, quindi ci concentreremo sulla conoscenza.

A tutti gli effetti una conoscenza che ben modella la realtà è uno strumento utilissimo. Partiamo da un esempio semplice e immediato: la conoscenza dei luoghi.

Conoscere l’area in cui ci si trova, averne una buona mappa mentale, permette di navigare nell’area mentalmente e quindi di decidere verso dove camminare per arrivare a una certa destinazione. Se ci trovassimo in un deserto sapere dove sono situate le oasi in cui rifornirsi d’acqua farebbe la differenza tra la vita e la morte. E sabotare la conoscenza delle oasi di qualcuno equivarrebbe a tentare di ucciderlo. O al contrario, dare una conoscenza accurata della locazione delle oasi equivarrebbe a salvargli la vita.

Un altro tipo di mappa mentale è quella che collega cause ed effetti.

Nell’informatica per esempio un modo in cui si fanno risolvere problemi pratici ai computer è rappresentando come luoghi (nodi) gli stati di un sistema e come strade che li collegano (archi) le azioni che causano il cambiamento di stato del sistema. Costruita così questa mappa, con gli stessi esatti algoritmi che si usano per trovare una percorso in una mappa da un punto a un altro è possibile far decidere delle azioni a un robot.

Per tutte queste mappe mentali valgono le considerazioni etiche che abbiamo fatto fino ad ora: una mappa che rappresenta correttamente la realtà è uno strumento utilissimo, sabotarlo è un’azione estremamente dannosa, correggerlo è un’azione estremamente benefica.

Quindi a questo punto ci è chiaro il come in questione, il nesso causale con cui connettere una conoscenza alterata a delle conseguenze moralmente rilevanti! Correggere conoscenze altrui che sono errate può essere un atto lodevole, benefico per la persona, che aiuterà quella persona durante il corso della sua vita, quali che siano i suoi scopi e quindi lodevole quando gli scopi sono lodevoli. Al contrario, ingannare una persona e farle credere qualcosa di sbagliato può essere un atto riprovevole, dannoso, che ostacolerà quella persona e quindi riprovevole quando i suoi scopi sono lodevoli.

Dall’essere al dovere?

Eccoci quindi al punto cruciale: abbiamo stabilito una relazione tra la conoscenza e la morale.

Abbiamo stabilito, in condizioni normali, l’immoralità di predicare il falso e la moralità di insegnare come stanno veramente le cose (e viceversa quando le condizioni sono affini a una situazione del tipo “nazista alla porta”).
E nel momento in cui si ritiene un dovere il non omettere il proprio soccorso a chi è in pericolo, diventa quindi un dovere il correggere le falsità a cui qualcuno crede.

In altre parole, abbiamo stabilito che la verità ha un valore utilitaristico. Non per un qualche arbitrario dogma o mero gusto, ma perché ci sono chiari i meccanismi causali all’opera che ci permettono di derivare dal valore dato all’essere umano e al suo benessere il valore che bisogna dare alla verità.

Non quindi per un valore deontologicamente cieco, è più che morale mentire al nazista che ti chiede se nascondi ebrei in cantina, come è più che morale sabotare l’IA per il calcolo dei bersagli al soldato israeliano.
Bensì per un valore ben fondato e motivato nelle conseguenze pratiche della conoscenza e del suo valore.

È quindi un’azione meritoria correggere le illusioni di chi in quel momento è contento di credere a un dio inesistente se questo poi avrà occasione di vivere una vita migliore senza quella falsa nozione in testa.
È un’azione meritoria anche il correggere le convinzioni di un complottista convinto di non avere alcun potere politico perché ogni cosa sarebbe invece decisa da misteriose élite anziché dal suo voto in cabina elettorale o dalla sua azione di protesta in uno sciopero di massa.

E queste azioni diventano un dovere qualora uno riconosca che l’omissione di soccorso è immorale.

Siamo quindi arrivati a concludere il titolo: sbagliarsi è un diritto, ma correggere è un dovere.

E se volete fare la vostra parte in questo dovere… vi consiglio di leggere Lumi e Candelabri – ESCLUSIVO per farvi un’idea su come agire nella pratica.

P.S.: un altro corollario è che costituisce anche un dovere verso sé stessi correggere le proprie conoscenze errate. Un buon modo di far questo è una solida epistemologia, come quella che spiego in Difendi la tua Mente – ESCLUSIVO.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *