Risponde ChatGPT
Agli inizi di agosto ’24 è entrata in vigore la Legge Europea sull’AI (Intelligenza Artificiale), ma la maggior parte delle norme si applicherà a far data dal 2.8.2026. Nel frattempo la Commissione sta promuovendo il Patto IA che sollecita l’impegno volontario, per i Soggetti coinvolti nelle attività, ad anticipare l’attuazione della Legge prima della sua entrata in vigore legale. Una sorta di autoregolamentazione.
E’ questa una strada diversa da quella adottata dagli Stati Uniti, i quali hanno promulgato il 30 ottobre 2023 un’Ordinanza Presidenziale, a firma Joe Biden; ed è diversa anche dal percorso della Cina, che sin dal 2017 ha cominciato a pubblicare linee guida dette “Piano di Sviluppo AI per le Future Generazioni”.
Il presidente russo Vladimir Putin, invece, nel novembre 2023 ha annunciato l’intenzione di approvare una strategia nazionale per lo sviluppo dell’IA, essenziale secondo il leader del Cremlino per evitare il “monopolio occidentale”. Quindi la Legge russa non c’è ancora e secondo alcuni osservatori il motivo potrebbe essere una “certa dipendenza” dalla visione di Pechino.
In tutto il mondo le Nazioni che hanno formulato norme, regolamenti, leggi e/o linee guida sono già una 70ina. In questa grande scena – che comunque è ben lungi da configurarsi quale scena di riferimento globale condivisa – un aspetto di enorme rilevanza è quello che riguarda le norme sull’uso dell’AI riferite a armi e attività militari. Purtroppo è questo un aspetto che è sempre più tragicamente presente ma resta nel cono d’ombra dell’informazione. Cerchiamo di saperne di più .
E scopriamo che: mentre in USA le norme esistono e sono ben strutturate, nell’AI Act dell’Unione Europea, non sono previste norme specifiche che regolano le attività militari.
Sorpresa!? Sembrerebbe di no! Abbiamo chiesto il perchè di tale “diversità” a CHATGPT che ci ha risposto così:
1) L’Unione Europea ha competenze limitate in materia di difesa e sicurezza nazionale. Queste aree rientrano principalmente nella sovranità degli Stati membri. La politica di difesa è una prerogativa nazionale e regolamentare l’uso dell’IA in ambito militare potrebbe superare le competenze attuali dell’UE.
2) Le attività militari sono strettamente legate alla sicurezza nazionale e spesso richiedono un alto livello di segretezza. Regolamentare l’IA militare a livello dell’UE potrebbe complicare la gestione delle informazioni sensibili e delle strategie di difesa degli Stati membri.
3) Molti Stati membri dell’UE hanno già le proprie normative e linee guida riguardanti l’uso dell’IA in ambito militare. Queste regolamentazioni possono variare significativamente in base alle specifiche esigenze e strategie di difesa di ciascun paese.
4) Le questioni militari e l’uso dell’IA in ambito militare sono spesso affrontate attraverso trattati e accordi internazionali. Ad esempio, esistono discussioni globali sull’uso di armi autonome letali (LAWS) nell’ambito della Convenzione delle Nazioni Unite su certe armi convenzionali (CCW). Queste piattaforme sono considerate più appropriate per trattare tali questioni rispetto a una normativa interna dell’UE.
5) L’AI Act si concentra principalmente sull’uso dell’IA in contesti civili e commerciali, mirando a bilanciare l’innovazione con la sicurezza dei cittadini. Inclusi in questa regolamentazione sono settori come la salute, la finanza e i trasporti. L’inclusione delle attività militari avrebbe richiesto un’analisi e una regolamentazione molto diverse, rendendo il processo normativo più complesso e disomogeneo.
6) L’uso dell’IA in ambito militare solleva complesse questioni etiche e morali, come l’uso di armi autonome. Queste questioni richiedono un dibattito etico approfondito e un approccio normativo specifico, spesso meglio trattato in contesti internazionali dedicati.
Conclusioni:
“L’esclusione delle attività militari dall’AI Act riflette la complessità e la sensibilità del settore della difesa. Le attività militari richiedono un approccio diverso, probabilmente più adatto a livello nazionale o attraverso trattati internazionali specifici, piuttosto che essere incluse in una normativa ampia e generale sull’IA come l’AI Act dell’UE”.
( N.d.R … probabilmente anche la sede NATO è considerata più appropriata per affrontare questi temi.)
Bene … questo è il “punto di vista” di CHATGPT. Resta però non affrontata una questione fondamentale, ovvero: come è stato trattato il tema in generale da quelle Nazioni che hanno voluto esprimere norme al riguardo. Anche in questo caso abbiamo posto la questione a CHATGPT che ci ha risposto così:
“Il problema centrale nei regolamenti sull’IA che affrontano le questioni militari e di guerra riguarda principalmente l’equilibrio tra l’innovazione tecnologica e le implicazioni etiche e di sicurezza. Ecco alcuni degli aspetti chiave:
1. Autonomia delle Armi e Decisioni Letali
Uno dei temi più dibattuti è l’uso delle armi autonome letali (LAWS) (n.d.r killer robots, munizioni vaganti e altri ordigni che possono colpire obiettivi senza l’intervento umano). Queste armi possono prendere decisioni di vita o di morte. Le preoccupazioni principali includono:
Controllo Umano: La necessità di garantire che ci sia sempre un controllo umano significativo nelle decisioni letali, per evitare scenari in cui macchine prendano decisioni etiche complesse senza supervisione umana.
Responsabilità: Difficoltà nel determinare chi è responsabile in caso di malfunzionamento o uso improprio delle armi autonome. Questa ambiguità potrebbe complicare l’attribuzione della responsabilità legale e morale.
2. Rispetto del Diritto Internazionale Umanitario (DIU)
Le tecnologie di IA devono essere conformi al diritto internazionale umanitario, che regola la condotta della guerra e protegge i civili e i combattenti che non partecipano più alle ostilità. Le sfide includono:
– Distinzione e Proporzionalità: Assicurare che i sistemi di IA possano distinguere tra combattenti e civili e che qualsiasi attacco sia proporzionato rispetto all’obiettivo militare legittimo.
– Riduzione del Danno Collaterale: Minimizzare il rischio di danni collaterali e vittime civili, che richiede sofisticati algoritmi di riconoscimento e analisi in tempo reale.
3. Sicurezza e Cybersecurity
L’uso di IA in ambito militare introduce rischi significativi legati alla cybersecurity:
– Hacking e Manipolazione: I sistemi di IA possono essere vulnerabili a hacking e manipolazioni, che potrebbero portare a conseguenze disastrose se utilizzati in operazioni militari.
– Difesa contro Attacchi Cibernetici: Necessità di sviluppare misure di difesa robusta per proteggere i sistemi di IA da attacchi cibernetici che potrebbero compromettere la sicurezza nazionale.
4. Trasparenza e Supervisione
La trasparenza e la supervisione sono cruciali per garantire che l’uso dell’IA in ambito militare sia etico e legittimo:
– Supervisione Internazionale: Creazione di meccanismi di supervisione internazionale per monitorare l’uso delle tecnologie di IA militari e assicurare la conformità con le leggi internazionali.
– Trasparenza Operativa: Implementazione di requisiti di trasparenza per garantire che le operazioni militari condotte con IA siano documentate e sottoposte a revisione pubblica e legale.
5. Etica e Norme Internazionali
L’adozione di norme e principi etici internazionali è essenziale per guidare lo sviluppo e l’uso dell’IA in ambito militare:
– Standard Etici: Sviluppo di standard etici comuni per l’uso dell’IA nelle operazioni militari, che includano il rispetto dei diritti umani e la dignità umana.
– Cooperazione Internazionale: Promozione della cooperazione internazionale per affrontare le sfide etiche e normare l’uso dell’IA in guerra, attraverso trattati e accordi multilaterali.
Questi problemi evidenziano la necessità di un quadro normativo globale che possa bilanciare l’innovazione tecnologica con imperativi etici e di sicurezza, garantendo che l’uso dell’IA in ambito militare sia responsabile e conforme ai principi umanitari.
Sono belle parole, senza dubbio : controllo e responsabilità umane; riconoscimento diversificato a distanza tra civili e combattenti; limitazione di danni collaterali; protezione da attacchi di hackers; supervisione internazionale e conformità ai trattati; operazioni documentate e sottoposte a revisione pubblica; standard etici comuni; rispetto diritti umani e dignità; cooperazione e accordi multilaterali ! Tutti argomenti da Consiglio di Sicurezza dell’ONU o da G20, visioni del nemico (quasi) poetiche, che però non compaiono all’Ordine del Giorno di quelle spettabili Istituzioni mondiali.
E del resto perchè aspettarcelo visti i tempi? Resta il fatto che purtroppo le guerre appaiono sempre più prossime e vicine e che l’AI è già abbondantemente utilizzata per scopi bellici e i morti muoiono in deroga, o peggio in assenza, di ogni auspicabile quadro normativo globale condiviso dalle parti belligeranti.
SEGNALIAMO
-
Georgiani: sedotti e abbandonati dall’Unione europea?
Le conseguenze del voto del 26 ottobre per il rinnovo del parlamento monocamerale a Tbilisi Giulio Ferlazzo Ciano Dottore di ricerca in Storia contemporanea Giulio Ferlazzo Ciano nell’articolo “Georgiani: sedotti o abbandonati dall’Unione europea?” analizza le conseguenze del voto per il rinnovo del parlamento monocamerale a Tbilisi. Secondo l’autore Le elezioni in Georgia del 26 ottobre…
-
PIAGHE SOCIALI, MONDO SOSPESO
LETTERA DA NAPOLI
-
MATTARELLA (MONTESQUIEU) VS. MUSK (PROMETEO): PROVE DI POST-DEMOCRAZIA AUTORITARIA?
L’apparente “ingenuo” scambio di comunicazioni tra Musk e Mattarella nasconde un ben più duro e pesante conflitto tra due concezioni della Democrazia e dello “Stato di Diritto”, ma – potremmo anche dire – della vita comune della Polis. Infatti, da una parte abbiamo ormai in tutta la sua plateale evidenza un novello Prometeo (Musk) –…
-
Esordio de ‘Il Mondo Nuovo’ a Salerno
LUIGI GRAVAGNUOLO La presentazione a Salerno, lo scorso 29 ottobre, de ‘Il Costruttore – Le cinque lezioni di De Gasperi ai politici di oggi ’ di Antonio Polito ha coinciso con l’esordio in città del ‘Circolo Il Mondo Nuovo’, nodo locale della rete degli omonimi circoli che, su impulso di Giampaolo Sodano, stanno nascendo in…
-
Irrompe il nuovo o rimangono i vecchi mali strutturali?
Dopo due anni di Governo Meloni Salvatore Sechi Docente universitario di storia contemporanea Prosegue la discussione sul bilancio di due anni di Governo Meloni: dopo 24 mesi a Palazzo Chigi lo storico Salvatore Sechi si chiede se “Irrompe il nuovo o rimangono i vecchi mali strutturali?” 15 ottobre 2024 “In un orizzonte di legislatura, il…
-
Amsterdam e i ricorsi storici, di Stefano Rolando
La spedizione punitiva contro i tifosi del Maccabi Tel Aviv nel contesto delle guerre in corso Stefano Rolando Docente universitario di storia contemporanea Caccia all’ebreo nella città di Anna Frank. Fermare il cortocircuito globale senza omettere le critiche per le disumanità a Gaza.1 13 novembre 2024 Alla fine, ci siamo arrivati. La violenza verbale e…
-
VENGO ANCH’IO!
Attorno alla elezione del nuovo Presidente degli USA è iniziata in Italia una straordinaria sceneggiata che sembra distaccarsi dalle presunte origini partenopee per diventare non soltanto assolutamente nazionale ma anche completamente orizzontale. Ha infatti la capacità di attrarre e coinvolgere tutti i più diversi protagonisti della nostra vita pubblica. Si tratta, come vedremo, di un…
-
TRUMP DI NUOVO TRA NOI
Con uno spostamento d’onda a destra ma per fare cosa: tra democrazie corrose, guerre, economie deboli e finanza che risale (a metà)? Trump ha vinto con uno spostamento d’onda a destra di tutto l’elettorato e molto più del 2016 prendendosi anche Camera e Senato accorpando un potere enorme e dunque la domanda è per farne…
-
IL “CIVICO” ED IL “POLITICO”
DOMENICO GALBIATI Molti tra coloro che hanno commentato il recentissimo voto regionale in Liguria, hanno affermato che il candidato delle destre, Bucci, avrebbe prevalso su Orlando , anche perche’ e’ stato – o almeno cosi’ e’ apparso, in quanto manager di lungo corso – un candidato “civico” contrapposto ad un avversario “politico”, che, oltre a…
-
L’ONU SCEGLIE ROMA COME CENTRO MONDIALE PER LO STUDIO DELL’IMPATTO SOCIALE DELL’INTELLIGENZA ARTIFICIALE
Si parla di anarchia digitale, di mercato dei dati, di sistemi informatici vulnerabili e di modelli di IA facili da aggirare. E tutto questo non per caso: siamo sedicesimi in Europa, dice il rapporto dell’Osservatorio di 4.Manager. Un handicap strutturale che riguarda in primis le imprese, ma che nasce da un’offerta di formazione inevasa. In…