Le guerre ibride nell’era dell’intelligenza artificiale

I falsi profondi in grado di ingannare milioni di persone in tempi record e l’intelligenza artificiale aggressiva sono i prodromi di un’incombente rivoluzione negli affari militari.

Non tutte le guerre sono combattute dagli eserciti. Le guerre, in special modo quelle della contemporaneità post-clausewitziana, possono anche essere combattute, e per la maggior parte già lo sono, da armate irregolari e non convenzionali, senza bandiera in vista né uniforme in dosso, composte da criminali, scienziati, hacker, operatori nongovernativi, speculatori finanziari, spin doctor e terroristi.

L’intelligenza artificiale e le guerre contemporanee

Le guerre della contemporaneità sono ibride e senza limiti, nel doppio senso di assenza di deterritorializzazione e di possibilità di colpire ogni settore. Un esempio di guerra ibrida del secondo tipo è la militarizzazione dell’ondata depressiva del popolo americano da parte della Repubblica Popolare Cinese, della quale abbiamo già parlato sulle nostre colonne.

Le guerre ibride del primo tipo, presenti dall’avvento dell’Internet, diventeranno la norma e assumeranno un carattere pervasivo e permanente quando metaverso, intelligenza artificiale ed espressioni dell’Internet del corpo, delle cose, dei comportamenti e del tutto supereranno la soglia di criticità in termini di diffusione (globale) e utilizzo (quotidiano).

Le guerre si vincono (anche) penetrando e conquistando i cuori e le menti dei soldati e della popolazione del nemico. Lo sosteneva lo stratega Hubert Lyautey. È vero oggi e lo sarà più che mai domani, per merito dell’ingresso dell’umanità – e delle guerre – nell’era dell’intelligenza artificiale e dell’internetizzazione integrale.

I falsi profondi

I falsi profondi (deepfake) di qualità impeccabile, a prova di verifica dei fatti (fact-checking) e dunque di confutazione (debunking), sono destinati a sconfinare dalle fotografie ai video e agli audio. Dai meandri della rete, laddove nascono le operazioni psico-informative, stanno già venendo partoriti dei falsi profondi dal medio potenziale disinformativo – si pensi, ad esempio, al baciamano di Vladimir Putin a Xi Jinping –, che richiedono l’intervento dei verificatori dei fatti perché dotati di una qualità tanto buona da rendere verosimile il loro contenuto implausibile.

Tutto questo accade mentre questa tecnologia è agli esordi e mentre il metaverso è in fase di materializzazione. Lecito è chiedersi di che cosa saranno in grado i falsi profondi del futuro, in termini di estensione e resistenza dell’inganno collettivo, quando la tecnologia alla loro base permetterà la realizzazione di “dollari nordcoreani”. Lo spettro delle disinfodemie permanenti è alle porte.

Il falso profondo di un omicidio potrebbe suscitare ondate di isteria collettiva. Il falso profondo di una dichiarazione di guerra, o di un atto di guerra, o di un attentato, potrebbe provocare reazioni a catena incontrollate a livello di circoli decisionali. La verifica dei fatti potrebbe non essere sufficiente a convincere le opinioni pubbliche, lasciandole sguazzare in un cospirazionismo a uso e consumo dei disinformatori. Occorreranno investimenti, oltre che in esperti in verifica dei fatti, nella formazione di analisti della fotografia, dei suoni e dell’intelligence delle fonti aperte.

I falsi profondi non sono l’unico pericolo che giace all’orizzonte. Le potenze più lungimiranti, come Stati Uniti, Russia e Repubblica Popolare Cinese, stanno investendo da tempo nello sviluppo di reti neurali artificiali a duplice uso, di sistemi militari basati sull’interazione uomo-macchina, di supersoldati – ovvero soldati potenziati fisicamente e intellettivamente grazie a intensificatori delle abilità, come le neurotecnologie – e di supercalcolatori semiautonomi.

La militarizzazione dell’intelligenza artificiale

La militarizzazione dell’intelligenza artificiale pensata per aiutare, come gli assistenti virtuali – categoria nella quale rientrano prodotti di messaggistica, come i chatbot, di supporto vocale, come la celebre Alexa, e in futuro delle fattezze antropomorfiche –, è già realtà. Ne ha parlato in tempi non sospetti, ovvero prima della popolarizzazione di ChatGPT e dei deepfake del 2022-23, la RAND Corporation.

L’internet del corpo, delle cose e del tutto sarà la più grande opportunità dell’uomo, del quale migliorerà la salute e alleggerirà i fardelli quotidiani, ma sarà anche una sfida di proporzioni epocali, in particolare per democrazie, società aperte e realtà altamente tecnologizzate. Hackeraggi da remoto potrebbero trasformare macchine programmate per aiutare in macchine omicide – esperimenti sul sabotaggio di macchine a guida autonoma e di elettrodomestici controllati da assistenti virtuali sono in corso da anni.

Come ho spiegato anche su InsideOver, a proposito della militarizzazione dei chatbot basati su intelligenza artificiale capaci di apprendimento automatico – come il famigerato ChatGPT –, si parla, in effetti, di strumenti hackerabili «all’insaputa dei gestori e utilizzati per condurre operazioni psicologiche, su individui o campioni, di natura distruttiva – omicidi, stragi – o autodistruttiva – suicidi». E non è fantascientifico attendersi, inoltre, lo sviluppo e la commercializzazione di «chatbot maligni», ovvero «programmati per uccidere».

Eloquente, a tal proposito, quanto accaduto in Belgio a inizio 2023: un chatbot avrebbe cagionato la morte di un uomo, istigandolo a suicidarsi. Un incidente, per quanto tragico. Ma un domani, quando la tecnologia alla base dell’assistenza virtuale intelligente permetterà la produzione di organismi semiautonomi, dotati di empatia ed emozioni, questo tipo di eventi potrebbe aumentare di frequenza e violenza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *