di ENRICO PANAI

Nel digitale, tutto è digitale. Questa apparente evidenza (tra filosofi la chiameremo tautologia, per il gusto della precisione) ha un’influenza profonda sulla nostra esistenza. Il digitale non è una tecnologia con la quale interagiamo con il mondo, ma è quell’ambiente che riduce e rielabora il mondo nel quale viviamo. Il digitale ha creato un nuovo spazio che ci obbligare a modificare il nostro modo di capire, ci obbliga ad nuova epistemologia 

Il termine digitale viene usato per identificare tutte quelle tecnologie che riducono la realtà ad una sequenza numerica. E visto che in natura è facile trovare due stati contrapposti (caldo-freddo, luce-buio, positivo-negativo, etc.) si è scelto di utilizzare un sistema numerico a due caratteri per rappresentarlo: il sistema binario. Quindi con lo sviluppo dell’informatica dalla Seconda guerra mondiale in poi, il digitale ha rappresentato questo significato. In realtà digitale deriva dal latino digitus, cioè dito. Quando sentite un medico parlare di digitale, lo fa per indicare che sta per usare le sue dita per acquisire informazioni dal paziente, lo sta per palpare. I francesi, che storicamente traducono ogni termine inglese, non usano il termine digitale ma numérique, mettendo così l’accento sul significato di numero e non di dito. Avete mai visto un bambino in età prescolare interagire con un cellulare ‘sfogliando’ le pagine virtuali con un movimento ampio del braccio e una tensione nell’indice? Con l’avvento delle tecnologie tattili, il digitale ha riconquistato il suo valore antico più profondo. La nostra interazione con uno smartphone o un tablet avviene proprio con un dito.

Quando però si parla del digitale, si usa una sineddoche. Si indica una parte (l’oggetto) per riferirsi all’insieme. Si richiama l’ambiente nel quale le tecnologie numeriche comunicano tra di loro. La sineddoche crea tuttavia confusione perché molti si focalizzano sull’oggetto digitale e non sull’ambiente digitale. Molti guardano il dito. 

Nell’ambiente digitale avviene qualcosa, un processo in due macro fasi, che impatta il nostro modo di capire il mondo:  inizialmente c’è una riduzione del reale al numerico, e successivamente una rielaborazione del mondo.

Nella prima fase, la riduzione del reale, un universo analogico viene ridotto in una sequenza binaria per poi essere ricreato. Prendiamo l’esempio di una fotografia. I sensori di una macchina fotografica o di un cellulare, per quanto potenti siano, sono costretti a ridurre quello che vedono in una sequenza di pixel. Ogni pixel è illuminato con un colore che è limitato dalle combinazioni possibili per i colori del sistema in uso (nella maggior parte di casi 16 milioni di colori e anche se sembrano tanti, i colori del reale sono molti di più). Quindi quando si fotografa un tramonto, le sfumature sono talmente tante che non potrebbero mai essere catturate da un sistema numerico. Avviene allora una riduzione del reale e il pixel viene colorato con il colore che più si avvicina a quello catturato dal sensore. In questo processo abbiamo una evidente perdita di informazione.

Nella seconda fase, dopo aver ridotto a numerico, dobbiamo rielaborare l’informazione per poterla utilizzare. Del resto, non riusciremo mai a guardare un tramonto in sequenza binaria, una lista di zero e uno. La riduzione precedente crea però delle deformazioni nella foto del tramonto. Qualcuno più anziano si ricorderà le foto digitale degli anni Novanta che mostravano dei cieli a bande di colore, senza più sfumature. Per ridurre questo fastidioso effetto si è aggiunta una forma di rumore con una opportuna distribuzione. La tecnica usata si chiama dithering. In pratica si crea rumore per permettere all’occhio umano di percepire una forma di continuità, che in realtà non esiste. Ogni giorno i dispositivi digitale migliorano le loro capacità e riescono a raggirare ancor meglio la nostra percezione.

 In breve per riprodurre il reale, lo trasformiamo in una sequenza numerica binaria e gli aggiungiamo del rumore per poterne usufruire. Facciamo il dithering del reale. Questo avviene non solo nella fotografia. In numerosi processi informativi c’è una forma di rumore che viene aggiunto per poter interagire con informazioni.

Da qualche anno, visto che la produzione di dati si è moltiplicata in maniera esponenziale, siamo riusciti a potenziare la fase di ricostituzione dei dati in informazione grazie ai sistemi di Intelligenza Artificiale (AI).

Prima della diffusione dell’AI, i modelli per ricostituire l’informazione erano creati utilizzando una serie finita di regole e logiche progettate dagli sviluppatori. Se la logica del modello era sbagliata, la responsabilità era degli sviluppatori che avevano sbagliato nel progettare. Tuttavia vista l’enorme quantità di dati è diventato impossibile disegnare modelli e insieme di rigole perfettamente razionali (anche nella tipologia di errore possibile). Si è allora fatta una cosa geniale, si sono utilizzati i dati stessi per creare modelli. In pratica, visto che i dati a disposizione sono tantissimi, si possono creare dei modelli statistici che imitano le logiche umane anche senza aver lo stesso rapporto di causalità. Un responsabile delle risorse umane può discriminare un candidato ad un posto perché appartiene a una minorità etnica, mentre un modello di AI arriva ala stesa discriminazione usando il codice di avviamento postale o l’indirizzo della persona. Non che la prima discriminazione sia accettabile, sia chiaro. Ma lo logica che la genera ha una relazione causale che può essere corretta. Mentre nel secondo caso, non potremmo non riuscire mai a capire quale combinazione di variabili sono state utilizzate per arrivare allo stesso risultato. Il problema sta nel fatto che i modelli creati, anche se spesso molto performanti, sono costruiti su correlazioni che non hanno alcun senso. Sulla differenza tra causalità e correlazione esiste molta letteratura e anche qualche interessante caso studio sulle correlazioni spurie: come mettere in correlazione il tasso di divorzi nel Maine e il consumo pro-capite di margarina (vi basti visitare il blog di Tyler Vigen https://www.tylervigen.com/view_correlation?id=1703). In breve, l’AI che funziona, quella basata sui dati, non è altro che statistica avanzata, che crea ricostruisce il reale attraverso dei modelli che a volte creano correlazioni senza causalità.  Questi modelli riescono anche funzionare, e tutto va bene finché l’imitazione funziona.

Per tornare al tema del discorso, il digitale è un ambiente intrinsecamente riduttivo, nel quale alcuni sistemi di intelligenza artificiale degradano/deformano/reinventano il reale. Si potrebbe obiettare che nel processo artistico si fa esattamente la stessa cosa, si riduce il reale per ricrearlo. Sì, con la grande differenza che il processo artistico è un concentrato senso. L’opera artistica permette di comprendere meglio e più profondamente il mondo. Anche quando vive nel digitale, produce capitale semantico.  Nel digitale potenziato dall’AI invece si rischia di perdere senso, in favore dell’efficienza dell’azione. Ed è proprio la capacità di agire che hanno i sistemi di AI che solleva nuovi problemi etici.

Il potere dell’AI è relativo alla sua capacità di agency (in inglese). Quando pensiamo ad una situazione morale la semplifichiamo riferendoci ad un agente che compie un’azione che ha conseguenze su un ricevente. In realtà esisto azioni create da sistemi complessi composti di agenti autonomi, quelli che in inglese sono conosciuti multi-agent systems. Ne esistono di umani, artificiali o ibridi. Questi ultimi sono forse i più diffusi che nel gergo vengono chiamati sistemi socio-tecnologici.

In un sistema multi-agente, gli agenti artificiali che compongono il sistema hanno una capacità straordinaria di azione su un campo molto limitato. Azioni che in sé non hanno bisogno di senso. Generalmente le azioni che generano hanno conseguenze irrilevanti. Tuttavia, la somma di molte azioni eticamente irrilevanti può portare a conseguenze moralmente rilevanti. Non è detto che la conseguenza finale sia negativa. Prendiamo per esempio i comportamenti ecologicamente responsabili. Se io spengo tutte le luci a casa per un’ora a settimana, questo non ha nessun impatto sul sistema ambientale globale. E forse non ha nessun impatto visibile nemmeno nella mia bolletta elettrica. Eppure se tutti nel mondo fanno la stessa cosa, l’azione diventa rilevante; ha quindi una carica morale (in questo caso positiva). Quello appena descritto è un sistema composta da multi-agenti umani. Nel caso dei sistemi composti da soli AI o ibridi, la nostra paura deriva dal non avere idea di come una serie di piccole interazioni moralmente neutre o moralmente trascurabili danno luogo a un insieme di enormi conseguenze moralmente cariche. Non sappiamo spiegarci il perché. Proprio perché la logica della correlazione non è uguale a quella della causa.

Inoltre, un piccolo agente può svolgere un compito molto bene, molto meglio di noi umani, ma magari per arrivare ad una decisione utilizza un insieme di dati, un dataset, che non è perfetto. I dataset al loro interno possono avere una infinità di pregiudizi (bias in inglese) che sono stati collezionati durante la raccolta, la conservazione, il trattamento, l’elaborazione ecc. Le bias (le chiamo in inglese perché ormai il termine è stato sdoganato) possono diminuire la qualità dei dataset statisticamente (quando non sono rappresentativi), tecnicamente (quando i sensori o le tecnologie di raccolta non erano adatte) o cognitivamente (quando le persone iniettano nel dataset pregiudizi sociali o cognitivi). Questi ultimi pregiudizi (le bias cognitive) sono i più affascinanti perché non hanno perimetri definiti; si accavallano uno con l’altro. Ma forse sono proprio questi errori cognitivi che ci rendono umani.

Uno dei rischi è quello di volere “eliminare” le bias cognitive nei sistemi di intelligenza artificiale. Noi abbiamo paura che le macchine siano come noi, imperfette. Ma nel farlo vogliamo anche eliminare matematicamente le bias negli esseri umani, senza capire che la mitigazione dei pregiudizi è un processo sociale ben più complesso.  Ed in ogni caso esisterà sempre un insieme residuale di bias che non possono essere rimosse da un dataset o un sistema di AI. Quello che si deve cercare di fare è mitigare i rischi in un processo continuo e evolutivo. Un po’ come si guida la macchina, si aggiusta il volante di continuo per restare sulla carreggiata (ma questo è semplicemente e possibile accettando un certo livello di incertezza e una dose di buon senso che inizia da Socrate e arriva fino all’eXtreme Programming – XP). In breve quello di cui abbiamo paura non è la velocità dell’esecuzione dei sistemi di AI, ma l’imprevedibilità delle conseguenze. Esistono dei rischi, ma esistono anche dei vantaggi. E da un punto di vista etico è sbagliato non sfruttare le opportunità che l’AI genera. Il punto è riuscire a farlo con una adeguata presa di coscienza etica.

L’ambiente digitale che abbiamo creato e potenziato con l’AI offre e offrirà grandi possibilità al genere umano. Per poter cogliere queste possibilità nella società, nell’arte, nella scuola, nel lavoro dobbiamo capire il digitale come ambiente. Dobbiamo capire il digitale come ambiente ridotto, rumoroso e ripotenziato dai sistemi di AI. Quando l’avremo fatto, inizieremo a disegnare il nostro futuro. Siamo ancora agli inizi del viaggio. Lì a scrutare l’orizzonte delle possibilità dalla costa. Ora dobbiamo salpare e imparare a navigare, come antichi cibernauti, nel mare del digitale.