Le parole chiave per capire il digitale1
Dodici/D Lexicon Fresco di stampa
Pieraugusto Pozzi, ingegnere, segretario generale Infocivica Gruppo di Amalfi
Angelo Luvison, ingegnere, ex dirigente Telecom Italia
“Intelligenza artificiale generativa” è la parola prescelta da inserire come nel glossario che Democrazia futura ha iniziato a costruire per capire la nuova società destinata ad emergere dalla grande trasformazione digitale in corso. Ce la spiegano due ingegneri, Angelo Luvison, ex dirigente di Telecom Italia e Pieraugusto Pozzi, segretario generale di Infocivica – Gruppo di Amalfi.
27 maggio 2024
Abbiamo superato una soglia critica:
ora le macchine possono dialogare con noi
e fingere di essere persone.
Questo potere può essere abusato
per scopi politici, a scapito della democrazia
Yoshua Bengio [1]
Nel 2023, il portale Treccani ha introdotto il neologismo2 intelligenza artificiale generativa, come locuzione sostantivale composta da intelligenza artificiale (sigla IA o AI) e dall’aggettivo generativa, che ricalca l’inglese Artificial Generative Intelligence. Discorsivamente, l’intelligenza artificiale generativa – d’ora in poi IA generativa – è
“qualsiasi tipo di intelligenza artificiale in grado di creare, in risposta a specifiche richieste, diversi tipi di contenuti come testi, audio, immagini, video”.
Per far comprendere il neologismo, Treccani propone alcune citazioni giornalistiche:
- “Il prodotto di maggior successo si chiama ChatGPT, di fatto è un oracolo digitale: chiedi e risponde, ma non come Siri ed Alexa, che si impappinano appena poni loro una domanda più complicata di “chiama tizio, manda un messaggio a caio”.3
- “L’IA non è un destino ineluttabile ma una costruzione umana. Oggi per intelligenza artificiale generativa si intende la capacità di generare testi e immagini, come fa ChatGPT. Sta a noi renderla generativa nel senso che più ci è caro”4
- “Ma appunto: la tecnologia di base che sta dietro a ChatGPT è una tecnologia che circola già da qualche anno, e che il team di OpenAI è riuscito a portare alla sua massima espressione, a un livello di sofisticatezza e di perfezionamento altissimo, usando i migliori algoritmi di apprendimento e le quantità di dati più mastodontiche. Il grande merito di OpenAI, in questo senso, è stato dimostrare che la tecnologia dell’intelligenza artificiale generativa è in grado di andare ben oltre le aspettative di moltissimi analisti e scettici, che si dicevano convinti che avessimo raggiunto il limite massimo degli strumenti a nostra disposizione. Ora la domanda è: quanto più in là ci possiamo ancora spingere queste tecnologie?”;5
- “Al via il progetto europeo SOLARIS – di cui fa parte anche ANSA – che studia come gestire le minacce e / opportunità che le intelligenze artificiali generative rappresentano per la democrazia, l’impegno politico / e la cittadinanza digitale”6
Secondo Wikipedia7, l’IA generativa
“è un tipo di intelligenza artificiale che è in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste dette prompt. I sistemi di intelligenza artificiale generativa utilizzano modelli generativi, che sono modelli statistici di una distribuzione congiunta di una variabile osservabile e di una variabile dipendente, che nel contesto del data mining è detta variabile target. Un esempio di questi modelli sono i modelli linguistici di grandi dimensioni (in sigla LLM) che producono dati a partire da un dataset di addestramento utilizzato per crearli. Tra i sistemi di intelligenza artificiale generativa degni di nota si ricordano ChatGPT, unchatbot creato da OpenAI utilizzando i modelli linguistici GPT-3 e GPT-4. Altri sistemi includono Bard di Google (basato sul modello LaMDA), Bedrock di Amazon, Ernie Bit di Baidu, Pangu-Σ di Huawei, Claude di Anthropic, xAI di Elon Musk, Jais in lingua araba e Poe di Quora”.
Preso atto di tali definizioni, per inquadrare l’intelligenza artificiale generativa per un glossario, come questo, che ha intento divulgativo senza rinunciare a precisione tecnica e impronta culturale, conviene ricordare il percorso evolutivo dell’IA dagli albori ad oggi [riassunto in 2] e, operativamente, adottare la definizione contenuta nel Regolamento sull’intelligenza artificiale approvato dal Parlamento europeo a marzo 2024 e dal Consiglio dell’Unione europea il 21 maggio 20248:
“‘Sistema di IA’ [è] un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
Questa definizione tecnico-giuridica focalizza i sistemi di apprendimento automatico ML (machine learning) e comprende esplicitamente i sistemi di IA generativa, come ChatGPT e gli altri menzionati sopra. Va sottolineato che tali sistemi erano stati invece trascurati nella definizione presente nella prima bozza di testo regolamentare adottato dalla Commissione europea e proposto al Parlamento europeo ad aprile 2021, che era il risultato di diversi anni di lavoro di gruppi di esperti di massima e riconosciuta competenza internazionale. Diciotto mesi dopo, a novembre 2022, quando l’automa ChatGPT fu messo a disposizione del pubblico, fu tecnicamente evidente la necessità di aggiornare la definizione. Questa annotazione e il fatto che le regole dell’AI Act europeo avranno piena attuazione solo trentasei mesi dopo la pubblicazione nella Gazzetta Ufficiale dell’Unione europea, comprovano l’enorme difficoltà del legislatore nel tenere il passo di un’innovazione tecnico-commerciale tumultuosa e rapidissima.
1. La mutazione genetica dell’IA e l’IA generativa9
Di fatto, il repentino e tumultuoso arrivo dei sistemi di intelligenza artificiale generativa sta cambiando significativamente il panorama dell’ecosistema digitale: l’ennesima innovazione digitale dirompente che non è stato possibile valutare o, tanto meno, negoziare a priori in relazione alle rilevanti conseguenze culturali, sociali, economiche e politiche che certamente comporterà, come è già avvenuto in precedenza per prodotti e servizi digitali, quali i social media o lo smartphone. La comunicazione mediatica ne ha prontamente proposto tanto la perfezione tecnologica quanto le allucinazioni (risposte errate, ingannevoli, fuorvianti), evidenziando le questioni etiche della progettazione o delle applicazioni, quasi per salvare l’anima (originariamente umanistica) e il corpo (la loro stessa presenza sul mercato) di imprese e professioni, certamente messe in gioco dagli automi generativi.
Ma come e perché sono nati gli automi generativi? Sul versante tecnologico, negli ultimi quindici anni, è avvenuta quella che potremmo definire la mutazione genetica dei sistemi di IA. La programmazione classica (coding) è il processo di ideazione, progettazione e realizzazione di programmi informatici (espressi con linguaggi di programmazione di livello più o meno elevato) volti alla risoluzione di problemi e/o allo svolgimento di elaborazioni, tipicamente strutturati in una serie di comandi fai questo, fai quello, di calcoli matematici e di costrutti logici di controllo come if-then-else. Nella programmazione logico-simbolica, l’algoritmo è il procedimento che, sfruttando regole e logiche comprensibili del programmatore, dall’input ricava un output.
Per le difficoltà incontrate nella programmazione classica dei sistemi di IA (il lungo inverno dell’IA), è stata intrapresa la via statistica, che ha consentito di passare dagli algoritmi di programmazione, sviluppati secondo conoscenze e logiche umane, agli algoritmi di apprendimento (machine/deep learning). Anziché insegnare alla macchina a pensare (come avveniva nei cosiddetti sistemi esperti, nei quali si codificavano le conoscenze degli esperti di un certo settore – medico, tecnologico, giuridico), si insegna alla macchina a imparare, statisticamente, da una abbondanza pressoché illimitata di esempi. Tecnicamente, ciò significa usare reti neurali stratificate, modelli statistici e probabilistici, analisi comparative, alimentati da big data.
Sfruttando le immense quantità di dati digitali progressivamente disponibili, la crescita impetuosa delle risorse di calcolo e di memorizzazione e delle nuove architetture logiche e hardware – basate su microelettronica e VLSI (Very-Large-Scale Integration) – si sono sviluppati algoritmi di machine learning (ML), che correlano statisticamente dati in profusione, imparando molte cose sul mondo. Gli automi sviluppano così una conoscenza digitale, molto diversa da quella umana, che si potrebbe dire dataistica, perché la base informativa è offerta dalla digitalizzazione del web (immensi giacimenti di testi e immagini digitali) e dalla datificazione (la cattura di dati che riguardano comportamenti, orientamenti, scelte, linguaggi umani).
Ciò rende possibile analizzare fenomeni per i quali non ci sono teorie scientifiche, come le attività umane, per le quali invece sono oggi disponibili enormi quantità di dati. Gli agenti di IA si sviluppano quindi su base statistica, insegnando loro a raccordare al meglio input e output: le IA sono raccolte automatiche di schemi di relazione tra input e output. Detto in un altro modo, machine learning è la tecnica algoritmica che individua ed estrae relazioni e regolarità nei dati, altrimenti impossibili per l’assenza di modelli teorici. In questo modo, si sviluppano automi cognitivi che trasformano il profluvio di dati e informazioni (osservazioni) del passato e del presente in conoscenze digitali e in previsioni sul futuro. Perciò, chi possiede i dati ha una grande ricchezza e chi sviluppa i modelli algoritmici una grande responsabilità.
Con la diffusione di machine learning, l’algoritmo è sempre meno una “ricetta” del programmatore, che riceve input e produce output, ed è sempre più un agente cognitivo che apprende dai dati dei quali è alimentato e individua regole che mettono in relazione input e output. Ossia, diventa una scatola nera (black box), sia perché l’algoritmo è quasi sempre proprietario, sia perché non è umanamente intellegibile il metodo attraverso il quale l’automa trasforma input in output.
2. Le radici analitico-matematiche: dall’ICT all’IA10
Sebbene questa voce non abbia pretese specialistiche, si ritiene utile esporre alcuni elementi di logica, matematica e statistica che caratterizzano il percorso che conduce dalle tecniche e scienze dell’informazione e della comunicazione all’IA.
In sintesi, l’IA odierna usa l’evoluzione di fondamenti matematici, modelli, metodi e algoritmi che derivano da probabilità e statistica, logica binaria, fisica, teoria delle comunicazioni e dell’informazione, reti di telecomunicazioni, teoria dei grafi, teoria dei controlli, elaborazione dei segnali vocali e video, riconoscimento di forme e schemi (pattern), computer graphics, linguaggi di programmazione, ottimizzazione matematica continua e discreta. Ai quali si aggiungono apporti dalla psicologia cognitiva, che a sua volta ricorre alla statistica. La tassonomia che segue distilla l’essenza o, per così dire, l’ontologia, delle basi matematiche di supporto. La trattazione, non certo esauriente o completa, elenca i punti salienti di discipline vastissime e in continua espansione.
2.1 Logica binaria e algebra di Boole
George Boole è l’inventore del calcolo logico utilizzato in tutti i computer e le comunicazioni digitali – in pratica una fusione di algebra e logica. Nel 1854, pubblicò An Investigation of the Laws of Thought, in cui descriveva quella che oggi è conosciuta come algebra (o logica) booleana e nella quale proponeva di trattare le operazioni e le funzioni logiche mediante operatori simbolici manipolabili come numeri. L’algebra simbolica restò una curiosità matematica fino a quando non arrivò Claude Shannon con la sua tesi magistrale sulla applicazione della stessa logica al progetto di circuiti di commutazione elettrici. In definitiva, la tesi diede l’avvio all’elettronica digitale, dai microprocessori ai circuiti VLSI.
Tra gli altri padri nobili dell’informatica – nelle sue molteplici accezioni – dobbiamo aggiungere, nell’Ottocento, Charles Babbage (macchina analitica), Ada Lovelace (linguaggio di programmazione); e, nel Novecento, Kurt Gödel (teoremi di incompletezza), Alan Turing (test omonimo o gioco dell’imitazione, macchine pensanti), John von Neumann (architettura degli elaboratori), Norbert Wiener (cibernetica o governo dei sistemi).
2.2 Equazioni differenziali, scienza dei sistemi e delle reti
A partire dai sistemi lineari dinamici, modellabili con equazioni differenziali o alle differenze e trattabili con il calcolo operazionale (trasformata di Fourier – in particolare, FFT [Fast Fourier Transform] – trasformata di Laplace, trasformata zeta, ecc.), si è passati a sistemi via via più complessi arrivando sia a quelli non lineari (mappa logistica, frattali, caos deterministico, ecc.) sia alle reti di comunicazione, di trasporto, di telefonia, sociali, epidemiche, ecc. In particolare, le reti sociali ed epidemiche sono stati fattori di cambiamento e trasformazione epocali a partire dalla fine del XX secolo. Da questo punto di vista, le reti digitali, in particolare nelle applicazioni sociali, incrementando le relazioni e le connessioni, sono state e sono elementi catalizzatori di trasformazione socio-economica e socio-culturale.
2.3 Probabilità e statistica
Il detto
“All models are wrong, but some are useful”,11
attribuito allo statistico George Box, non è solo un cliché, bensì ha anche una ragione d’essere. Coerentemente,
“Every time I fire a linguist, the performance of the speech recognizer goes up”,12
diceva l’esperto di teoria dell’informazione Frederick Jelinek (IBM Research, anni Settanta), quando, anziché basarsi su regole grammaticali speculative, privilegiava e cercava le regolarità statistiche nel riconoscimento vocale e nella traduzione automatica del linguaggio umano.
Si può cogliere nella frase una marcata vena di polemica verso i linguisti ortodossi (quali Noam Chomsky e Steven Pinker), sostenitori di una grammatica universale radicata nella struttura neurobiologica e, da sempre, critici verso l’IA. Anche noi, parlando, applichiamo in automatico le regole della lingua nativa, benché, scrivendo, prestiamo più attenzione all’analisi grammaticale e logica.
Un altro pilastro fondante è il teorema di Bayes, che è stato per la teoria delle probabilità l’equivalente di una bomba a orologeria a scoppio ritardato; infatti, pur concepito nel Settecento, è stato riconosciuto fondamentale solo pochi decenni fa. Parafrasando un ben noto detto attribuito a John Maynard Keynes,
“When the facts change, I change my mind”,13
potremmo dire che quando si aggiungono nuovi dati di conoscenza occorre anche cambiare la stima delle probabilità.
L’inferenza bayesiana parte da una conoscenza molto approssimativa della probabilità a priori, cioè iniziale, per arrivare a stimare valori successivi della probabilità, detta a posteriori, sempre più affidabili e meglio approssimati. Il teorema, nella sua forma più semplice, consiste in una formula di probabilità su due eventi A e B – ossia P[A|B] = P[A] x P[B|A]/P[B] – tanto facile da dimostrare quanto problematica da applicare correttamente. Gli LLM dell’IA generativa (ChatGPT e simili) sposano appieno l’intuizione di Jelinek con l’induzione bayesiana.
2.4 Calcolo numerico e computazionale: analisi, metodi e algoritmi
Emblematico è il caso, apparentemente privo di applicazioni pratiche, del calcolo matematico degli autovalori di una matrice stocastica, i cui elementi sono valori di probabilità. Ebbene, l’algoritmo computazionale, ben noto nell’algebra lineare, è stato oggetto di brevetto da parte di Larry Page – cofondatore di Google insieme a Sergej Brin – per classificare le pagine in cui si trovano le informazioni disponibili in rete (information retrieval). Il brevetto PageRank si è dimostrato una fonte di business notevole con un giro d’affari e guadagni miliardari – fra i beneficiari c’è anche l’Università di Stanford. La novità è che, prima dell’ICT, formule e metodi matematici erano patrimonio comune, tutti potevano usarle liberamente e non era consentito brevettarle, invece negli ultimi anni, tradotti in programmi e algoritmi software di IA, sono diventati brevettabili.
Un altro algoritmo fondamentale, soprattutto quando si parla di comportamento adattativo dell’IA, è quello del gradiente nell’ottimizzazione di sistemi basati sul criterio di minimizzare una misura desiderata dell’errore tra una funzione obiettivo e i dati reali. Gli esperti di telecomunicazioni ricorderanno, magari con una punta di nostalgia, la sua applicazione nell’equalizzazione adattativa dei sistemi di trasmissione numerici, nati negli anni Sessanta del secolo scorso. Il gradiente non simulerà certo la neuroplasticità e la malleabilità del cervello, ma consente di avvicinarsi molto.
La matematica del calcolo numerico e computazionale può sembrare esoterica e maneggiarla non è certo facile, ma è condizione necessaria, ancorché non sufficiente, se vogliamo avere una comprensione non superficiale di che cosa accada dentro la “scatola”.
Formule, metodi, modelli, algoritmi, tecniche, schemi – ossia le abilità (skill) fondamentali utilizzate in questo campo – sono piuttosto complessi e li lasciamo volentieri ai testi specializzati; gli interessati potranno anche trovare gli approfondimenti teorici con pazienti ricerche online, ricorrendo a risorse quali Google e Wikipedia alimentate da parole-chiave mirate alla ricerca. Fonti queste a cui rinviamo per credibilità, o trustworthiness, termine che riassume requisiti di aggiornamento, approfondimento, affidabilità, precisione, accuratezza, esattezza delle voci. Fra i testi specificatamente dedicati all’IA, segnaliamo i volumi [20-27] e, in forma di riepilogo, possiamo dire che i gioielli più glamour della corona dell’IA generativa sono i seguenti14:
- machine learning (ML), apprendimento automatico
- natural-language processing (NLP), elaborazione del linguaggio naturale
- large language model (LLM), modelli linguistici di grandi dimensioni
- artificial neural network (ANN), reti neurali
- deep learning (DL), apprendimento profondo
Inseriti in uno schema di questo tipo, gli argomenti che sono stati presentati si potrebbero configurare come altrettanti capitoli di un ipotetico, seppur non completo, manuale sull’IA. Le formule e gli algoritmi che “stanno governando il mondo” sono spiegati da David Sumpter [18], con stile discorsivo, esempi accattivanti e aneddoti gustosi e con l’aiuto di un po’ di matematica.
A conclusione di questa rassegna, vorremmo aggiungere che le pervasività dell’IA, in generale, e di quella generativa, in particolare, richiedono la formazione di nuove professionalità, a partire dalle competenze che qui sono state esposte.
3. L’IA è ars e scientia, non solo “glorified statistics”
Nel suo complesso, l’IA (ML, LLM, reti neurali, ecc.) è tanto ars (metodi euristici e progettazione basata su “prove ed errori”) quanto scientia (corpus unitario di teorie e metodi consolidati), dove i diversi algoritmi afferiscono a discipline diverse, ciascuna delle quali è di per sé coerente e metodologicamente assestata e coesa. Benché lo scenario sia tuttora variegato, molte tessere del mosaico si vanno ben componendo in un quadro unitario a partire dai metodi e algoritmi menzionati. Anche se gli esperti IA possono avere opinioni sfumate, talora divergenti, rispetto all’efficacia di teorie o modelli specifici, la situazione non è dissimile da quella esistente in altri campi, per esempio in fisica e cosmologia, dove ci sono parecchie anomalie e discrepanze, ovvero cose che “non tornano”: dalla materia oscura all’energia oscura, dal modello standard delle particelle elementari alla asimmetria materia-antimateria, dall’origine del big bang alle interpretazioni della meccanica quantistica.
Più precisamente, l’IA può essere considerata tecnoscienza: un inestricabile connubio di metodi e linguaggi scientifici e di dispositivi tecnici, anche industriali. Tipicamente, le tecnoscienze non sono discipline indirizzate allo studio di fenomeni naturali, ma direttamente orientate allo sviluppo di macchine e tecniche. Le tecnoscienze sono convergenti (si giovano di conoscenze e dispositivi che vengono da diversi ambiti specialistici: per esempio, nell’IA, microelettronica, logica, matematica, linguistica, scienze cognitive, eccetera.).
Probabilmente l’IA deve ancora diventare corpus unitario: la componente ars è tuttora elevata, soprattutto, perché nella maggioranza dei casi l’apprendimento ML si basa sull’utilizzo di una mole esorbitante di dati. Il progressivo ricorso a metodi e modelli potrebbe aiutare allo sviluppo di un’ingegneria dell’IA di pari livello rispetto ad altre discipline quali, per esempio, la teoria statistica delle comunicazioni (Wiener), la teoria dell’informazione (Shannon), la teoria delle reti. In altre parole, ben venga l’abbondanza pressoché illimitata dei dati, ma metodi e modelli scientificamente affidabili sono e saranno fondamentali.
Quanto a primogenitura e interdisciplinarità, ci sembra non inutile ricordare come il modello di (tele)comunicazione di Shannon, basato sulla trasmissione e ricezione di segnali codificati su canali rumorosi e/o distorti, sia stato recepito nei settori più disparati, dalla psicoterapia relazionale all’economia finanziaria. Fatto senz’altro positivo, però i professionisti di queste discipline – psicologi, coach, consulenti aziendali, economisti, eccetera – il più delle volte sorvolano sulla priorità del contributo di Shannon.
In definitiva, quelli dell’IA sono spesso concetti e tecniche già presenti in altri campi, sia pure rivisitati, modificati e potenziati, in qualche caso aggiornati solo terminologicamente. Tuttavia, dalla non comune dovizia di metodi e modelli matematico-analitici, non diremmo che l’IA sia esclusivamente un compendio di algoritmi già sviluppati altrove: certamente, non può essere considerata semplice glorified statistics.
4. Di quale intelligenza (affettività ed etica) parliamo
Il significato della parola intelligenza è polivalente, addirittura polisemico: il concetto non può essere definito univocamente e quindi va considerato da diverse angolazioni, evidenziandone analogie, più o meno soddisfacenti. Per esempio, non denota solo il quoziente intellettivo (QI), ammesso che questa metrica abbia ancora un qualche valore al di fuori del canone eurocentrico e nordoccidentale, ma si può riferire anche alle intelligenze multiple (Howard Gardner) o all’intelligenza emotiva (Daniel Goleman) in tutte le sue multiformi declinazioni.
C’è poi il problema affascinante delle intelligenze non umane, di specie animali senzienti e, forse, coscienti. Facendo nostre le opportune distinzioni di studiosi quali, fra gli italiani, Giorgio Vallortigara e Paolo Gallina, abbiamo il problema di una creatura che prova qualcosa, addirittura un’esperienza cosciente, cha va tenuto distinto da quello dell’intelligenza cognitiva di per sé. “Il fatto di avere una vita intellettuale cognitiva [per es., logica o di calcolo] non è prova di per sé che quelle attività siano accompagnate da consapevolezza, da coscienza”. Con ulteriore grado di finezza – à la George Berkeley – Vallortigara distingue anche la sensazione, o esperienza cosciente di qualcosa: ciò che accade a noi, dalla percezione o concezione dell’esistenza dell’oggetto esterno: ciò che accade là fuori.
Un esempio sorprendente, riportato in altre nostre pubblicazioni, riguarda il celeberrimo gioco delle tre porte o di Monty Hall. Vari esperimenti hanno mostrato che, se sottoposti a questo dilemma logico-probabilistico, esemplari di piccione domestico (Columba livia) – con un cervello enormemente più piccolo, sia pure dotato di moltissime cellule nervose – sviluppano assai più rapidamente degli umani la strategia ottimale, che è l’opposto di quella intuitiva.
La nostra è dunque una visione ancora troppo antropocentrica, non certo policentrica, secondo cui sembrerebbe più realistico ammettere che tanto gli animali quanto le macchine intelligenti manifestano attività cognitive complesse.
L’etologo e primatologo Frans De Waal, recentemente scomparso, stigmatizzava l’atteggiamento di rifiuto nel riconoscere le somiglianze tra esseri umani e altri animali, etichettandolo come “antropodiniego”. Il suo messaggio è chiaro: l’etologia può essere d’aiuto per capire le altre menti, ossia quelle non umane. Come se non bastasse, nuove ricerche biologiche di avanguardia hanno portato a formulare la cosiddetta cognizione basale, che individua in forme elementari i caratteri distintivi dell’intelligenza – apprendimento, memoria, risoluzione di problemi – non solo nel cervello, ma addirittura al di fuori. Sembra proprio che la mente non sia più terreno esclusivo degli umani.
Molti amano ripetere (come pappagalli?) che anche gli algoritmi dell’IA generativa non sono altro che pappagalli stocastici privi di immaginazione, ironia, spiritualità, ecc., tantomeno in grado di simulare il funzionamento dell’organo-cervello quanto a capacità critica e discernimento. Sarà anche vero, almeno per ora, ma è certo che questi sistemi ne emulano benissimo le prestazioni, anzi spesso le superano.
Che le macchine sappiano parlare e scrivere, come che sia, rappresenta innegabilmente un punto di svolta non da poco, paragonabile a certi momenti cruciali dell’evoluzione darwiniana dell’Homo sapiens. Dopo l’apprendimento del linguaggio, l’IA sarà in grado di generare nuove idee? Diventerà autopoietica, cioè acquisirà mezzi o, addirittura, fini di replicazione di sé stessa?
È altresì vero che qui bisogna prestare la massima attenzione a non utilizzare impropriamente costrutti lessicali decontestualizzati dal loro significato tecnico, esercizio in cui divulgatori da pubblicistica corrente sono maestri.
Specialmente da evitare è l’abuso di slogan verbali
“buttati a caso, qua e là, dove vanno vanno [sic], come capperi nella salsa tartara”,
questo era l’ammonimento che Carlo Emilio Gadda dispensava su questioni ortografiche e interpunzione. Di fatto, l’insieme di termini evocati (intelligenza, coscienza, esperienza, sentimenti, immaginazione, emozioni, eccetera) ha significati molteplici a seconda che l’uso sia specialistico o comune, e la loro distinzione sul displuvio tecnico/non tecnico non è ancora nettissima. Da parte nostra, per risolvere ambiguità e fraintendimenti, ribadiamo che la definizione (operativa) di IA cui ci atteniamo è quella regolamentare dell’AI Act, riportata all’inizio del testo, sebbene l’intera materia sia oggetto di rapidi e continui cambiamenti.
Di altri aspetti, presenti e futuri dell’IA, Luciano Floridi [in 28] tratta i temi etici legati alle applicazioni, mentre la frontiera del cosiddetto affective computing, che è il ramo dell’IA che si propone di realizzare automi in grado di riconoscere ed esprimere emozioni, è trattato in [29].
5. L’IA non è solo IA generativa
L’IA non è solo quella cosiddetta generativa che, dal novembre 2022, con l’offerta al pubblico di ChatGPT da parte di OpenAI, è largamente usata per avere risposte o elaborazione di quesiti proposti in linguaggio naturale (prompt) dagli utenti. Infatti, diverse sono le applicazioni di IA:
1) intelligent data processing (correlare input a output: per esempio, sulla base delle informazioni disponibili sui richiedenti credito, prevedere chi lo ripagherà regolarmente, per condizione economica presente e attesa e/o per indole comportamentale);
2) Large Language Model (LLM) e Natural-Language Processing (NLP): agenti di elaborazione linguistica in grado di tradurre, comprendere, classificare;
3) IA generativa (capacità di generare risposte testuali o grafiche, progetti;
4) assistenti virtuali: programmi di conversazione (come i chatbot) in grado di fornire assistenza a clienti o utenti (customer care);
5) algoritmi di raccomandazione personalizzata di contenuti: basati sulle informazioni riguardo ai gusti e alle scelte pregresse degli utenti raccomandano loro servizi o contenuti (microtargeting);
6) automi di riconoscimento biometrico e di immagini (computer vision e pattern recognition);
7) robotica: automi in grado di funzionare e compiere azioni autonome, in ambienti e contesti diversi (produzione materiale, sanità, emergenze e, purtroppo, guerre).
6. L’IA generativa e la scrittura: lo scrittore automatico di Dahl e la cibernetica di Calvino
L’IA generativa ha la capacità di scrivere storie. Se e quanto queste storie siano appassionanti e originali è una domanda in qualche modo già superata dal fatto che molti libri scritti dall’IA sono oggi venduti e letti. Più interessante, forse, ricordare come autori visionari, agli albori dell’epoca digitale, seppero intravedere o prevedere l’avvento di macchine sapienti e discorsive come quelle dell’IA generativa. Per esempio, si è ricordato [in 30] che nel 1953, Roald Dahl, maestro di storie grottesche e spiazzanti, pubblicò il racconto Lo scrittore automatico, nel quale un versatile progettista elettronico ragiona sulle regole della grammatica interpretate secondo principi logico-matematici. Sfruttando questa idea, riesce a costruire un calcolatore gigantesco (oggi diremmo un automa) in grado di
“elaborare un racconto di cinquemila parole, dattiloscritto e pronto per la spedizione in trenta secondi”. “Come faranno gli scrittori a competere con lei?” (ossia con la macchina),
chiede retoricamente l’inventore. Per sopravvivere, un numero crescente di autori in tutto il mondo si vede costretto a sottoscrivere contratti di cessione della propria firma autoriale ai testi prodotti dal calcolatore. Nel preoccupante e sinistro finale, lo stesso autore del racconto (forse rivelando il vero dilemma vitale e creativo) è roso dal dubbio: accettare il contratto capestro per sopravvivere economicamente o resistere al cerchio che la nuova tecnologia sta stringendo sempre di più?
L’interesse di Italo Calvino15 [31, 32] per i rapporti che intravedeva tra linguaggi, parole, letteratura ed elaboratori elettronici è testimoniato dal Cibernetica e fantasmi, sintesi delle conferenze organizzate nel 1967 dall’Associazione Culturale Italiana in diverse città, in Italia e all’estero. In quel testo, Calvino affronta temi che poi riprenderà alla metà degli anni Ottanta nella preparazione del ciclo seminariale Lezioni Americane. Sei proposte per il prossimo millennio.16 Dimostrando la sua notevolissima attitudine alla rappresentazione “informatica” del mondo, scrive Calvino
“il mondo nei suoi vari aspetti viene visto sempre più come discreto e non come continuo […], oggi tendiamo a vederlo come una serie di stati discontinui, di combinazioni di impulsi su un numero finito (un numero enorme ma finito) di organi sensori e di controllo. I cervelli elettronici, se sono ancora lungi dal produrre tutte le funzioni d’un cervello umano, sono però già in grado di fornirci un modello teorico convincente per i processi più complessi della nostra memoria, delle nostre associazioni mentali, della nostra immaginazione, della nostra coscienza”.
Trattando delle teorie dei modelli linguistici di Noam Chomsky e del lavoro di sperimentazione letteraria di Raymond Queneau (nella Ouvroir de Littérature Potentielle, “officina di letteratura potenziale”), constata che oggi l’umano
“sta cominciando a capire come si smonta e come si rimonta la più complicata e la più imprevedibile di tutte le sue macchine: il linguaggio […]. Con modelli matematici trasformazionali, la scuola americana di Chomsky esplora la struttura profonda del linguaggio”.
E conclude che la capacità creativa umana potrebbe essere riprodotta da una macchina, infatti affidando a
un computer il compito di compiere queste operazioni, avremo la macchina capace di sostituire il poeta e lo scrittore? Così come abbiamo già macchine che leggono, macchine che eseguono un’analisi linguistica dei testi letterari, macchine che traducono, macchine che riassumono, così avremo macchine capaci di ideare e comporre poesie e romanzi? […] penso a una macchina che metta in gioco sulla pagina tutti quegli elementi che siamo soliti considerare i più gelosi attributi dell’intimità psicologica, dell’esperienza vissuta, dell’imprevedibilità degli scatti d’umore, i sussulti e gli strazi e le illuminazioni interiori. Che cosa sono questi se non altrettanti campi linguistici, di cui possiamo arrivare a stabilire lessico grammatica sintassi e proprietà permutative? […] il banco di prova d’una macchina poetico-elettronica sarà la produzione di opere tradizionali, di poesie con forme metriche chiuse, di romanzi con tutte le regole”.
7. Approfondimenti bibliografici e webgrafici
Per aggiornamenti e approfondimenti, suggeriamo alcune fra le riviste tecnico-scientifiche più autorevoli: IEEE Spectrum, Proceedings of the IEEE, Nature, Scientific American (e la sua edizione italiana Le Scienze), Mondo Digitale, la rivista AEIT. Gli articoli dei Proceedings offrono rassegne panoramiche, tutorial, nonché “punti di vista”, di contenuti che richiedono usualmente dimestichezza con una matematica di livello universitario.
Anche Wikipedia è una risorsa importante: le sue voci analitico-teoriche, benché non di rado matematicamente impegnative, sono piuttosto affidabili e costantemente aggiornate. I supplementi culturali dei maggiori quotidiani italiani e stranieri possono essere utili e interessanti, soprattutto per gli spunti di taglio socio-culturale ed etico-filosofico che talvolta propongono.
- Questo testo riprende in parte contenuti rielaborati dell’articolo “Quanta tecnoscienza vorremmo? Quale IA ci serve?” di Angelo Luvison, Pieraugusto Pozzi e Chiara Vergine, pubblicato nel numero della rivista AEIT dedicato all’IA, vol. 111, n. 3-4, marzo-aprile 2024, pp. 12-28. ↩︎
- https://www.treccani.it/vocabolario/neo-intelligenza-artificiale-generativa_(Neologismi)/ ↩︎
- Riccardo Luna, Repubblica.it, 13 gennaio 2023 ↩︎
- Antonio Palmieri, fondatore e presidente Fondazione Pensiero Solido, Corriere della Sera, 21 febbraio 2023, #buonenotizie, p. 15 ↩︎
- Eugenio Cau, Foglio.it, 8 aprile 2023, Tecnologia. ↩︎
- Ansa.it, 31 maggio 2023, Osservatorio Intelligenza Artificiale). ↩︎
- https://it.wikipedia.org/wiki/Intelligenza_artificiale_generativa ↩︎
- È riportata la traduzione provvisoria (è ancora in corso il lavoro dei traduttori giuridici) dell’articolo 3 di Artificial Intelligence Act (AI Act). L’originale inglese è: “‘AI system’ means a machine-based system designed to operate with varying levels of autonomy, that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments” [3]. ↩︎
- Approfondimenti sui temi trattati in questo paragrafo si possono trovare nei testi citati in bibliografia, da [4] a [9]. In particolare, si veda la voce Algoritmo [8, pp. 13-21], compresi i riferimenti. ↩︎
- Approfondimenti sui temi trattati in questo paragrafo si possono trovare nei testi citati in bibliografia, da [10] a [19]. ↩︎
- Ovvero “Tutti i modelli sono sbagliati, ma alcuni sono utili”. ↩︎
- Ovvero “Ogni volta che licenzio un linguista, le prestazioni del riconoscimento vocale aumentano”. ↩︎
- Ovvero “quando cambiano i fatti, cambio idea”. ↩︎
- Illustrazioni sintetiche di queste tecnologie e modelli, sono in: https://www.ibm.com/it-it/topics/neural-networks (in italiano); https://www.ibm.com/blog/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks/ (in inglese) ↩︎
- Una suggestiva mappa concettuale del lavoro di Italo Calvino è proposta in Sara Carbone, Labirinti. Omaggio a Italo Calvino, Verona, Paesaggi di Parole, 2022 ↩︎
- Milano, Garzanti, 1988, 121 p. ↩︎
Bibliografia:
[1] Eliza Strickland, Glenn Zorpette, “The apocalypse matrix”, IEEE Spectrum, vol. 60, agosto 2023, pp. 38-39. Versione online: “The apocalypse matrix: A scorecard” 21 giugno 2023, https://spectrum.ieee.org/artificial-general-intelligence.
[2] Pieraugusto Pozzi, “Le regole europee per lo spazio digitale”, Democrazia futura. Media, geopolitica e comunicazione pubblica nella società digitale, anno IV, n. 12, ottobre-dicembre 2023, in corso di pubblicazione, https://www.democraziafutura.it/. Versione online, 3 maggio 2024, https://www.ilmondonuovo.club/le-regole-europee-per-lo-spazio-digitale-democrazia-futura-tecnhe/.
[3] European Parliament 2019-2024: Artificial Intelligence Act, Texts adopted P9_TA (2024) 0138 Corrigendum, 19 aprile 2024, https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138-FNL-COR01_EN.pdf
[4] Viola Schiaffonati, ”Le frontiere dell’IA: la questione morale (editoriale)”, AEIT (In primo piano: Frontiere dell’intelligenza artificiale), vol. 107, n. 1-2, gennaio-febbraio 2020, pp. 4-6, https://www.aeit.it/aeit/edicola/aeit/aeit2020/aeit2020_01_cisa/aeit2020_01_riv.pdf.
[5] Angelo Luvison, Maurizio Molinaro, “Dilemmi etici dell’intelligenza artificiale”, AEIT (In primo piano: Frontiere dell’intelligenza artificiale), vol. 107, n. 1-2, gennaio-febbraio 2020, pp. 8-17, https://www.aeit.it/aeit/edicola/aeit/aeit2020/aeit2020_01_cisa/aeit2020_01_riv.pdf.
[6] Pieraugusto Pozzi, “Dopo il Bit Bang: dalla conoscenza umana a quella digitale”, AEIT (In primo piano: Frontiere dell’intelligenza artificiale), vol. 107, n. 1-2, gennaio-febbraio 2020, pp. 24-29, https://www.aeit.it/aeit/edicola/aeit/aeit2020/aeit2020_01_cisa/aeit2020_01_riv.pdf.
[7] Pieraugusto Pozzi, “Effetti della grande trasformazione digitale”, AEIT (In primo piano: Etica e tecnologia), vol. 108, n. 11-12, novembre-dicembre 2021, pp. 28-39, https://www.aeit.it/aeit/edicola/aeit/aeit2021/aeit2021_06_cisa/aeit2021_06_riv.pdf.
[8] Pieraugusto Pozzi (a cura di): Piccolo dizionario della grande trasformazione digitale, Fano (PU), Aras Edizioni, 2021.
[9] AA. VV., “Il nostro futuro artificiale (Dati e intelligenze. Per una scienza umanistica. La geoeconomia digitale)”, Aspenia, n. 1/2024, marzo 2024.
[10] Glenn Zorpette (a cura di): Inspiring Technology: 34 Breakthroughs. Celebrating 140 Years of Advancing Technology for the Benefit of Humanity, IEEE, 2023.
[11] Angelo Luvison, “Un tour bibliografico di giochi matematici e pensiero critico”, AEIT, vol. 110, n. 3-4, marzo-aprile 2023, pp. 42-52, https://www.aeit.it/aeit/edicola/aeit/aeit2023/aeit2023_02_cisa/aeit2023_02_riv.pdf
[12] Alfredo Biocca, Angelo Luvison, “Un secolo di telecomunicazioni nelle riviste AEI/AEIT”, AEIT (In primo piano: 1914-2014 cento anni della rivista), vol. 101, n. 6, giugno 2014, pp. 20-28.
[13] Daniele Roffinella, Silvio Alovisio, Angelo Luvison: Insegnare le reti a Scienze della Comunicazione, AEIT (In primo piano: Istruzione tecnica e professionale), vol. 108, n. 3-4, marzo-aprile 2021, pp. 34-43, https://www.aeit.it/aeit/edicola/aeit/aeit2021/aeit2021_02_cisa/aeit2021_02_riv.pdf.
[14] Angelo Luvison, “Riflessioni sullo scrivere in italiano di ICT”, AEIT (In primo piano: Applicazioni e servizi ICT), vol. 105, n. 7-8, luglio-agosto 2018, pp. 38-48, https://www.aeit.it/aeit/edicola/aeit/aeit2018/aeit2018_04_cisa/aeit2018_04_riv.pdf.
[15] Paul J. Nahin, The Logician and the Engineer: How George Boole and Claude Shannon Created the Information Age, Princeton University Press, 2012. Tr. it.: Il logico e l’ingegnere. L’alba dell’era digitale, Torino, Codice edizioni, 2015.
[16] Albert-László Barabási, Network Science, Cambridge University Press, 2016.
[17] Mark Newman, Networks, Oxford University Press, II ed., 2018.
[18] David Sumpter, The Ten Equations That Rule the World: And How You Can Use Them Too, Allen Lane, 2020.
[19] Hisashi Kobayashi, Brian L. Mark, William Turin, Probability, Random Processes, and Statistical Analysis, Cambridge University Press, 2012.
[20] Ian Goodfellow, Yoshua Bengio, Aaron Courville, Deep Learning, The MIT Press, 2016.
[21] Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World, Basic Books, 2015. Tr. it: L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo, Torino, Bollati Boringhieri, 2016.
[22] Rishal Hurbans, Grokking Artificial Intelligence Algorithms, Manning Publications, 2020. Tr. it: Intelligenza artificiale spiegata in modo facile. Guida illustrata per programmatori curiosi, Milano, Apogeo, 2023.
[23] Stuart Russell, Peter Norvig, Artificial Intelligence: A Modern Approach, IV ed., Pearson, 2021. Tr. it, Intelligenza artificiale. Un approccio moderno (2 voll.), Milano, Pearson, 2021, 2022.
[24] Nello Cristianini, La scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano, Bologna, il Mulino, 2023.
[25] Nello Cristianini, Machina sapiens. L’algoritmo che ci ha rubato il segreto della conoscenza, Bologna, il Mulino, 2024.
[26] Gerd Gigerenzer, How to Stay Smart in a Smart World: Why Human Intelligence Still Beats Algorithms, MIT Press, 2022. Tr. it.: Perché l’intelligenza batte ancora gli algoritmi, Milano, Raffaello Cortina Editore, 2023.
[27] Helga Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms, Polity, Press, 2021. Tr. it.: Le macchine di Dio. Gli algoritmi predittivi e l’illusione del controllo, Roma, Luiss University Press, 2022.
[28] Luciano Floridi, The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities, Oxford University Press, 2023. Tr. It.: Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, Raffaello Cortina Editore, 2022.
[29] AA. VV., “Special Issue: Affective Computing”, Proceedings of the IEEE, vol. 111, n. 10, ottobre 2023, pp. 1139-1458.
[30] Angelo Luvison, “L’ecosistema dell’innovazione digitale: analisi critica”, AEIT (In primo piano: ICT), vol. 104, n. 3-4, marzo-aprile 2017, pp. 6-27, http://www.aeit.it/aeit/edicola/aeit/aeit2017/aeit2017_02_cisa/aeit2017_02_riv.pdf nel quale si cita il testo Robert Dahl, “Lo scrittore automatico”, versione originale The Great Automatic Grammatizator, in Tutti i racconti, Milano, Longanesi, 2016, pp. 639-657.
[31] Italo Calvino, “Cibernetica e fantasmi” Le conferenze dell’Associazione Culturale Italiana, XXI, 1967-1968, pp. 9-23. Poi con il titolo “Appunti sulla narrativa come processo combinatorio”, Nuova Corrente, (46-47) 1968, pp. 139-148. Testo raccolto in Italo Calvino Una pietra sopra. Discorsi di letteratura e società, Torino, Einaudi, 1980, pp. 164-181. Infine in Saggi, 1945-1985, Vol. 1. Milano, I Meridiani Mondadori, 1995, pp. 205-225.
[32] Trifone Gargano, “Calvino cibernetico”, Treccani Magazine, 15 giugno 2023, https://www.treccani.it/magazine/lingua_italiana/articoli/percorsi/percorsi_476.html
SEGNALIAMO
-
Ucraina e Medio Oriente tra attacchi efferati e spiragli di tregua
Giampiero Gramaglia Giornalista,co-fondatore di Democrazia futura, già corrispondente a Washington e a Bruxelles Proseguono le…
-
Carbone, petrolio e gas: il genio della lampada industriale
Inverno 2024-2025, per le risorse energetiche l’Europa naviga a vista Cecilia Clementel-Jones Medico psichiatrico e…
-
L’elogio del tradimento. È quanto resta all’intellettuale dopo la marcia trionfale del XIX° secolo, l’apocalisse del XX e il silenzio di oggi?
Il saggio di David Bidussa sul “ceto dei colti”, per Feltrinelli Salvatore Sechi Docente universitario…
-
Quanto è difficile capire l’Italia
Cosa emerge dal 58° Rapporto del Censis sulla situazione sociale del paese Guido Barlozzetti…
-
Il risveglio dell’Europa
Una replica agli editoriali di Salvatore Sechi e Bruno Somalvico usciti nel fascicolo 12 di…
-
Sulla caduta di Assad Trump è il più cauto di tutti (e, stavolta, forse fa bene lui)
I riflessi ucraini della fine del regime in Siria Giampiero Gramaglia Giornalista,co-fondatore di Democrazia futura,…
-
L’autonomia della Rai nella guerra ibrida della comunicazione
In un contesto di militarizzazione dei media e di privatizzazione delle istituzioni Michele Mezza Docente…
-
Istituzioni al lavoro con bussola a destra
L’Unione europea si sgretola Giampiero Gramaglia Giornalista,co-fondatore di Democrazia futura, già corrispondente a Washington e…
-
Progressismo versus ebraismo?
La nuova grande pietra di inciampo della sinistra Massimo De Angelis Scrittore e giornalista, si…
-
L’accelerazione impressa dalla vittoria di Trump alle dinamiche belliche e diplomatiche
Giampiero Gramaglia Giornalista,co-fondatore di Democrazia futura, già corrispondente a Washington e a Bruxelles Giampiero Gramaglia in…
-
Nebbia fitta a Bruxelles
Una possibile crisi si aggiunge alle complesse procedure per la formazione della Commissione Pier Virgilio…
-
Partenza in salita per la seconda Commissione europea von der Leyen
28 novembre 2024 Il 27 novembre 2024 il Parlamento europeo ha dato il via libero…
-
Franco Mauro Franchi, il mio Maestro
È venuto a mancare il 19 novembre 2024 a Castiglioncello (Livorno) all’età di 73 anni,…
-
Stanco o non serve più?
Sulla Fondazione Gramsci e l’intellettuale secondo David Bidussa Salvatore Sechi Docente universitario di storia contemporanea…
-
Il ribaltone dell’Umbria, di Guido Barlozzetti
Guido Barlozzetti Conduttore televisivo, critico cinematografico, esperto dei media e scrittore Guido Barlozzetti commenta il…