ChatGPT si accorda col Pentagono: l’intelligenza artificiale va in guerra con Trump

Adesso il rischio è che oltre a guidare missili, l’IA possa spiare e schedare per conto della CIA dissidenti, oppositori e persone comuni

C’era una volta l’intelligenza artificiale che doveva “salvare il mondo”. Curare malattie, aiutare la scienza, facilitare la conoscenza, magari persino spiegare ai governi perché fare la guerra è una pessima idea.

Poi qualcuno ha avuto un’intuizione geniale: portiamola al Pentagono. E così l’AI – quella che doveva illuminare l’umanità – finisce arruolata nella più grande macchina militare del pianeta.

Come se Einstein, dopo aver scoperto la relatività, avesse aperto un chiosco di bombe atomiche al dettaglio.

Dal laboratorio alla caserma

Il percorso è sempre lo stesso. Prima si parla di progresso, di ricerca, di umanità. Poi arrivano i finanziatori. Poi arrivano i contratti. E alla fine arrivano i generali. Il passaggio è quasi automatico, come una catena di montaggio del potere tecnologico: Silicon Valley → app innocua → infrastruttura strategica → strumento militare.

Chi crede che la tecnologia sia neutrale dovrebbe fare un giro nella storia. Internet nasce per scopi militari. Il GPS nasce per scopi militari. I droni nascono per scopi militari. Ora tocca all’intelligenza artificiale.

Non stupisce.

È il ciclo naturale dell’innovazione nel mondo occidentale: prima la presentano come una rivoluzione culturale, poi la consegnano al complesso militare-industriale con tanto di fiocco sopra.

La guerra automatizzata

Il problema non è solo simbolico. Il problema è cosa succede quando gli algoritmi entrano nella guerra. Un algoritmo non ha coscienza. Non ha dubbi. Non ha paura. Non ha rimorsi. Fa quello per cui è stato programmato.

Se gli chiedi di classificare foto di gatti, classifica gatti.

Se gli chiedi di identificare bersagli, identifica bersagli.

E qui entra la domanda che nessuno sembra voler fare: quanto manca al momento in cui un algoritmo aiuterà a decidere chi deve morire? La tecnologia militare non serve per scrivere poesie.

Serve per vincere guerre.

E vincere una guerra significa uccidere più velocemente, più efficacemente e con meno esitazioni.

L’intelligenza artificiale è perfetta per questo scopo.

La guerra senza responsabilità

C’è poi un dettaglio curioso. Quando un soldato sbaglia bersaglio, qualcuno risponde: un comandante, un tribunale, una commissione. Ma quando sbaglia un algoritmo? Chi finisce sotto processo? Il programmatore? Il generale? Il consiglio di amministrazione? Oppure si dirà che è stato un “errore di sistema”.

La guerra automatizzata ha un vantaggio straordinario per chi la conduce: diluisce la responsabilità fino a farla sparire. Nessuno decide davvero. Nessuno è davvero colpevole. Eppure qualcuno muore lo stesso. La guerra è solo metà del problema.

L’altra metà si chiama sorveglianza. L’intelligenza artificiale è lo strumento perfetto per analizzare dati, conversazioni, immagini, comportamenti. In altre parole: per osservare milioni di persone contemporaneamente. E quando la tecnologia che analizza tutto finisce nelle mani dello Stato più potente del pianeta, la tentazione è inevitabile.

Prima per individuare terroristi. Poi per individuare nemici. Poi per individuare dissidenti. La linea tra sicurezza e controllo è sempre molto sottile. E nella storia recente l’Occidente ha dimostrato una certa disinvoltura nel cancellarla.

Il paradosso perfetto

La cosa più divertente – se così si può dire – è il paradosso. Milioni di persone usano l’intelligenza artificiale per studiare, lavorare, scrivere, imparare. Uno strumento che dovrebbe diffondere conoscenza. E intanto lo stesso strumento entra nei sistemi militari.

È un po’ come scoprire che la biblioteca comunale, di notte, diventa una fabbrica di mine antiuomo. Negli anni Sessanta Eisenhower parlava del complesso militare-industriale. Oggi bisognerebbe aggiornare la definizione. Non è più solo militare e industriale. È militare, industriale e digitale.

Le grandi aziende tecnologiche sono diventate il nuovo arsenale strategico. Non costruiscono carri armati. Costruiscono algoritmi. Ma il risultato finale può essere lo stesso. Il punto non è se l’intelligenza artificiale verrà usata in ambito militare.

Questo è già inevitabile.

La vera domanda è un’altra: chi decide come verrà usata?

Una manciata di aziende private?

Un pugno di governi?

O l’umanità nel suo complesso?

Perché l’intelligenza artificiale non è solo un prodotto tecnologico.

È una leva di potere gigantesca.

E consegnarla senza dibattito democratico alla macchina militare più potente del mondo non è progresso.

È una scelta politica.

Molto pericolosa.

C’è chi disinstalla un’app per protesta. È comprensibile. Ma il problema non è l’app. Il problema è che la tecnologia che potrebbe aiutare l’umanità a capire il mondo rischia di diventare l’ennesimo strumento per dominarlo. E quando l’intelligenza artificiale entra nei laboratori militari, la storia insegna una cosa semplice.

Non finisce quasi mai bene.

Related posts

La “famiglia nel bosco” e il difficile equilibrio tra tutela dei minori e libertà familiare

Progetti di vita, un originale Tailor Made sociale: Calabria avanti tutta!

USPI informa. AI e digital forensics: cosa cambia con il reato di deepfake