algoritmi

La sfuggente moralità degli algoritmi

LE SFIDE DELL’INTELLIGENZA ARTIFICIALE. Le nuove macchine parlano, ma non sanno cosa dicono, né perché lo fanno. Stabilire il confine tra etica e semantica è sempre più necessario. E più difficile. L’automazione dell’etica, se mai potrà realizzarsi, sarà verosimilmente razionale e deduttiva, cioè assiomatica, perché sul piano etico è ben difficile pensare che le macchine possano imparare qualcosa osservando i comportamenti dell’umanità

 

Tratto da Il Manifesto, articolo di Guido Vetere

 

L’etica contende alla semantica il primato della problematicità filosofica, ed entrambe le questioni sono nell’occhio di quel ciclone chiamato Intelligenza Artificiale.

Le nuove macchine parlano, ma non sanno cosa dicono, né perché lo fanno. Eppure sono prodighe di conoscenza, eppure i loro motti sono pieni di quella mitezza che Norberto Bobbio considerava la massima virtù morale.

Questo iato tra effetti e cause nelle menti artificiali è un abisso di mistero che le generazioni future dovranno indagare.

Tuttavia, nel dibattito pubblico già aleggia una parola di nuovo conio: “algoretica”. Per l’inventore Paolo Benanti, giunto dalle umili e antiche schiere dei Francescani alla guida della modernità planetaria, si tratta di impiantare l’etica negli algoritmi, questi intesi, per metonimia, come Intelligenza Artificiale.

Paolo Benanti, Oracoli. Tra algoretica e algocrazia, 2018

“Le implicazioni sociali ed etiche delle AI e degli algoritmi rendono necessaria tanto un algor-etica quanto una governance di queste invisibili strutture che regolano sempre più il nostro mondo per evitare forme disumane di quella che potremmo definire una algo-crazia”

Una parola di grande successo, tanto che Giorgia Meloni ha voluto spenderla nel suo discorso alle Nazioni Unite. Ma la parola di Benanti, a confronto col doppio mistero dell’etica e dell’intelligenza, appare alquanto ambiziosa. Cerchiamo dunque di aiutare.

Una strategia efficace per affrontare un problema complesso è quella di scomporlo in parti più semplici. Le nostre più accreditate teorie ci dicono che qualsiasi ragionamento della mente umana o algoritmica è un combinato di tre tipi di inferenza:

  1. la deduzione
  2. l’induzione
  3. l’abduzione

La deduzione è il trarre logiche conseguenze da premesse date per certe. Ad esempio: se tutti i canarini volano e Titti è un canarino, allora Titti vola.

L’induzione, invece, è il trarre leggi generali da osservazioni particolari: i canarini che vedo sono gialli, dunque tutti i canarini sono gialli, anche quelli che non vedo.

L’abduzione è un ragionamento d’azzardo, e guardacaso è quello che usiamo tutti i giorni in modo massiccio, pervasivo e cruciale (anche, ad esempio, per leggere queste righe). Esso consiste nell’assegnare un’osservazione ad una legge: l’uccello che vedo è giallo, dunque è un canarino, perché tutti i canarini sono gialli. Logicamente ciò è sbagliato, tuttavia è plausibile, ed è grazie a questo genere di intuizioni che riusciamo bene o male a campare.

In altre parole, l’abduzione è la migliore (ma talvolta la peggiore) spiegazione dei fatti che osserviamo, un esercizio su cui Charles Sanders Peirce (il logico statunitense padre della semiotica) ha speso la sua vita di ricerca e Umberto Eco ha scritto saggi e romanzi. Quando Daniel Kahneman parla di “pensiero veloce”, di fatto caratterizza l’abduzione dal punto di vista cognitivistico.

Se questo è lo spettro del ragionamento (umano o artificiale), si può provare a capire come iniettarvi la dose di etica che i nostri rappresentanti istituzionali vorrebbero somministrare agli algoritmi, qualsiasi cosa l’etica sia.

Una deduzione etica (la cui dottrina potrebbe chiamarsi “deduetica”) dovrebbe rifiutarsi di giungere a conclusioni logiche qualora queste violassero la morale. In questo caso, l’implementazione potrebbe consistere semplicemente nell’aggiungere i precetti alle premesse e verificare che tutto stia ancora in piedi. Fattibile.

Una induzione etica (“induetica”?) potrebbe invece intendersi come selezione delle osservazioni moralmente ammissibili, e questo è in effetti ciò di cui si parla talvolta quando si studiano i modi per espungere le sconcezze sessiste o razziste dai modelli linguistici. Fattibile anche questo, almeno in linea di principio, ma non altrettanto facilmente.

Si osservi infatti che, a meno che non si vogliano mobilitare intere legioni di moralisti, la scrematura della base induttiva andrà fatta con un automatismo, cioè ancora con un algoritmo, e siamo daccapo.

Ma è sull’”abduetica” che le cose si complicano definitivamente.

Qui siamo davanti al cuore del problema: i sistemi basati su reti neurali, come quelli che oggi ci parlano, sono inerentemente abduttivi, perché, anche se li usiamo in modo generativo, il loro meccanismo di base resta quello della classificazione. E cosa è una classificazione se non l’assegnazione di un caso (i dati di input) a una legge (il simbolo che vi si annette), cioè appunto una abduzione? Ma s’è detto che l’abduzione è un azzardo, un tirare a indovinare, se non proprio un’aberrazione logica. Come possiamo introdurvi l’etica, se questa dev’essere indefettibile norma morale?

Nonostante le difficoltà, quello che potremmo chiamare “soluzionismo etico” è già nell’agenda della Silicon Valley.

La Anthropic Public Benefit Corporation ha in mente di educare i language model del futuro non più col lavoro umano (sottopagato), ma con regole etiche in grado di condizionare il comportamento dei locutori algoritmici. Si tratta di mitigare gli azzardi abduttivi applicando automaticamente regole morali nella fase di addestramento.

Una versione dimostrativa è già all’opera, ma come questo possa funzionare su larga scala è ancora tutto da vedere.

In conclusione, l’automazione dell’etica, se mai potrà realizzarsi, sarà verosimilmente deduttiva, cioè assiomatica, e in ogni caso richiederà la redazione di norme razionali, perché sul piano etico è ben difficile pensare che le macchine possano imparare qualcosa osservando i comportamenti dell’umanità.

Questa conclusione non è, in effetti, molto sorprendente. Su chi debba dettare alle macchine gli assiomi della morale si apra il dibattito, ma è facile indovinare cosa abbia in mente Padre Benanti.

No Comments

Sorry, the comment form is closed at this time.