SISTEMI SOFTWARE A.I.
Utilizzo dei Big Data: come noto con tale termine si fa riferimento all'enorme mole di dati provenienti da diversi dispositivi che non possono essere memorizzati o gestiti dalla memoria di un solo computer.
Miglioramento del targeting e della visione: come notato dai soggetti intervistati, uno dei settori dove il sovraccarico dei dati comporta maggiori problemi è quello relativo all'elaborazione delle immagini.
Abilità nell'operare in ambienti A2/AD (Anti-Access/Aerea-Denial): taluni Stati hanno implementato le proprie capacità volte ad impedire la proiezione delle forze nemiche in determinate aree nell'ambito dei domini terrestre, marittimo o aereo.
LATI NEGATIVI:
L'utilizzo di sistemi di Intelligenza Artificiale, però, non porta con sé solo vantaggi. Anche i rischi sono molti e possono essere classificati all'interno di tre categorie: etici e legali, operativi e strategici. A causa della complessità della tematica si analizzeranno, di seguito, solo i rischi di natura legale.
NORME
Nel caso in cui i sistemi d'arma AI agiscano in piena autonomia, senza alcun controllo umano, la responsabilità delle loro azioni sarebbe riconducibili a coloro, di regola alti comandanti militari o vertici politici, che hanno deciso di impiegare tali sistemi all'interno di uno scenario operativo. Questi avranno la responsabilità penale individuale per qualsiasi potenziale grave violazione del DIU (DIRITTO INTERNAZIONALE UMANITARIO). Inoltre, gli Stati di appartenenza potrebbero incorrere nella responsabilità dello Stato per tali gravi violazioni che potrebbero essere loro imputabili. Infatti, le capacità di targeting del sistema AI sono fortemente connesse alle loro caratteristiche di progettazione e programmazione. In tale contesto emerge anche un problema di responsabilità. Chi è responsabile delle azioni realizzate da sistemi autonomi guidati dall'AI? I progettisti, i produttori, i programmatori o gli operatori/utenti finali? Taluni ritengono che siano gli utenti finali a dover essere ritenuti responsabili delle azioni illecite compiute da tali sistemi. L'art. 35 del Protocollo Addizionale stabilisce che "In ogni conflitto armato, il diritto delle Parti in conflitto di scegliere metodi e mezzi di guerra non è illimitato". Detto ciò i sistemi AI non sarebbero in grado di soddisfare il principio della proporzionalità questo perchè richiede una valutazione soggettiva, effettuata caso per caso, del danno derivante da possibili effetti collaterali a fronte dell'importanza dell'obiettivo militare.