Presso il CASD (Centro Alti Studi per la Difesa) di Roma si è svolto nei giorni 29 e 30 novembre scorsi la Conferenza sull’Innovazione della Difesa 2021. Si tratta della terza conferenza organizzata nel corso dell’anno dal Centro Innovazione della Difesa (CID) sul tema dell’innovazione tecnologica.
Il tema portante degli incontri è stata una discussione aperta, omnia comprensiva, sull’Intelligenza Artificiale (AI), ponendo anche il focus da prospettive differenti da quelle squisitamente tecnologiche, come, ad esempio, l’analisi di implicazioni etiche e giuridiche, le nuove esigenze formative del personale e le ripercussioni sugli assetti delle Istituzioni pubbliche e private.
Per quanto concerne i criteri applicativi, si è evidenziato nelle Conferenze l’esigenza di revisionare il concetto di polarizzazione (classificazione dei soggetti interessati) e di come l’abituale modello atropo-centrico sia totalmente destituito dal concetto di algoritmo. È altresì risultato evidente quanto il livello politico-strategico influenzi il processo decisionale etico sull’Intelligenza Artificiale.
Partendo dal paradigma che un sistema dotato di AI sia totalmente autonomo, le implicazioni sulla collettività umana possono declinarsi sotto molteplici aspetti. Le macchine AI devono, forzatamente, avere un impatto in termini di responsabilità, tenendo sempre bene a mente che la responsabilità penale è soggettiva. Quindi, va tenuta attentamente in considerazione l’eventuale utilizzo doloso dell’Intelligenza Artificiale ai fini bellici o criminali.
Ciò porta all’analisi della possibilità di introdurre dei limiti giuridici-legali alla programmazione di macchine dotate di AI.
In effetti, si potrebbe delineare una leadership in un rapporto uomo-macchina peer to peer, ovvero che tragga il massimo beneficio dalle peculiarità umane e da quelle delle macchine basate su AI.
Con riferimento al concetto di leader, i sistemi dotati di AI non possono recepire caratteristiche peculiari della persona (come il coraggio, l’etica) ma possono rappresentare degli strumenti particolarmente efficaci per la formazione dei leader, sia di ausilio e supporto alla gestione di gruppi e organizzazioni.
La decisione ultima rimane al leader, tuttavia la macchina dotata di AI può coadiuvarne l’assunzione fornendo gli elementi su cui basare la decisione stessa.
In ambito prettamente Difesa, il Progetto Sfida-Amelia rappresenta un’applicazione pratica di impiego della AI, al fine di soddisfare la crescente esigenza di adeguare la formazione alle sfide del futuro. Da un lato l’urgenza di disporre di personale sempre più pronto ad affrontare le minacce presenti e future, dall’altro, la necessità di adeguare il sistema formativo a un mega trend mondiale che vede la digitalizzazione della formazione come un’opportunità da cogliere.
Per far fronte al bisogno continuo di formazione è infatti necessario un tutor virtuale che possa continuamente fornire contenuti didattici/informazioni al singolo nella modalità più opportuna in base al ruolo, il grado, la funzione e capacità di apprendimento del singolo. Sfida-Amelia è infatti in grado di valutare la preparazione di base di un individuo, grazie ad algoritmi di AI che permettono di avere una esperienza formativa totalmente conforme alle esigenze/predisposizioni del singolo, in grado di ricevere totalmente personalizzati e in linea con la sua disponibilità in termini di tempo, le sue esigenze e le proprie caratteristiche di apprendimento.