Quando c’è la guerra, tace la politica - si diceva una volta. Siamo invece arrivati alla politica della guerra, eletta a sistema. È un format nuovo, basato sull’uso/abuso dell’intelligenza artificiale, che a piacimento modifica la realtà e la polarizza in una dimensione perennemente muscolare, a prescindere dai principi. In ogni campo. Steve Jobs, a ragione, sosteneva che la tecnologia non è buona o cattiva, dipende dall’uso che se ne fa. In quel famoso discorso all’università di Stanford, rivolto agli studenti, disse: «Stay hungry, stay foolish» ovvero, non rinunciate alla fame di conoscenza, alla creatività. Nelle mani giuste la tecnologia può portarci a traguardi straordinari.
In parte, già succede e continuerà a succedere - ce lo auguriamo - intanto però in campo militare, sistemi d’arma intelligenti identificano in modo autonomo i bersagli e in modo autonomo, sulla scorta naturalmente delle informazioni utilizzate per programmarli, decidono di colpirli. Inoltre, politici e generali non farebbero più a meno dell’intelligenza artificiale, in qualsiasi decisione da prendere. Sui fronti, sempre più vicini di Gaza e dell’Ucraina, accadrebbe ogni giorno, più volte al giorno. Da ultimo, l’attacco alla Chiesa della Sacra Famiglia, l’unica cattolica, la terza delle chiese cristiane a Gaza, l’ennesimo luogo di culto bombardato dall’aviazione israeliana, dopo le decine di moschee distrutte in meno di due anni nella Striscia di Gaza. Difficile, sostenere la tesi dell’errore, spesa dal presidente Netanyahu con il Papa. Secondo Branka Marijan, ricercatrice sui temi della sicurezza e dei conflitti, in Canada e per l’Onu, il teatro di Gaza sarebbe diventato lo scenario di sperimentazione per eccellenza degli impieghi militari dell’intelligenza artificiale. Lo ha scritto anche un’altra donna, Francesca Albanese, relatrice speciale per la Palestina alle Nazioni Unite, puntando il dito sugli investimenti delle bigtech in Israele, al servizio di «un progetto coloniale». Con il supporto dell’AI - secondo la Marijan- sarebbero processati dai 50 ai 100 obiettivi in poche ore e dunque scelte le attività da effettuare: cifre sbalorditive, neanche immaginabili, prima di quest’ultima guerra. Cifre che hanno comportato effetti collaterali smisurati in termini di vite umane, di devastazioni, di sottrazione dell’identità a un popolo condannato alla fuga, del diritto di libertà di religione e di protezione dei luoghi di culto, di violazione del diritto internazionale umanitario.
Le opzioni di tregua sono state annunciate e disattese; la liberazione degli ostaggi israeliani nelle mani di Hamas, invocata ma tradita; l’occupazione del territorio palestinese prosegue e si espande (ieri l’IDF ha ordinato l’evacuazione dei residenti di Deir al Balah, un’area a sud-ovest di Gaza, comprendendo i rifugiati nelle tendopoli) non ultimo, si assiste alla progressiva perdita di quello che viene definito «the significant human control» ovvero il controllo umano sul piano etico e strategico nell’impiego militare dell’intelligenza artificiale.
Costa ammetterlo, ma è diventata una tendenza generale, in qualsiasi scenario di guerra, dalla Siria al Libano, per restare in Medioriente e poi, guardando alle formazioni armate a guida autonoma dei sistemi iraniani sempre più sofisticati, gli Shahed-136 oppure agli Spiderweb dell’Ucraina. Il controllo resta nelle intenzioni: in campo militare le regole non ci sono, né si vogliono. Anzi, sembra che si stia scivolando dal lato opposto. Aumentano i Paesi in guerra e nei Paesi in guerra aumenta la fame di armi guidate dall’intelligenza artificiale. Ci si fida sempre più delle macchine, realizzando ciò che tecnicamente viene chiamata «automation bias» ovvero la tendenza ad appoggiarsi ai sistemi automatici con il loro corredo di errori, effetti eticamente riprovevoli e fake. Per un verso, un esonero di responsabilità, per un altro, l’effetto del delirio di onnipotenza, provocato da scontri asimmetrici, sempre più frequenti, dove, senza stanze di compensazione, nel silenzio, perde di valore la libertà dei popoli più deboli. L’elenco si allunga in Asia, come in Africa, aumentano i conflitti dimenticati. Da ultimo, il massacro dei Tuareg, l’intrepido popolo nomade della fascia sub-sahariana, lasciato alle sopraffazioni delle milizie russe della Wangner, impegnate nell’ennesima pulizia etnica, utile agli affari per l’accaparramento di terre rare e bacini auriferi.
Un report ne informa la Corte penale internazionale - annuncia in esclusiva il Fatto Quotidiano. Doveroso, ribadirlo. Il popolo fiero dei berberi con i loro mantelli indaco, che sfidavano il deserto, erano stati da tempo costretti alla diaspora e sono riparati in piccole comunità anche in Europa. Ma la corsa agli armamenti di ultima generazione, nell’impegno europeo di arrivare addirittura al cinque per cento di spesa nei prossimi dieci anni, non trasferisce il problema del significanthumancontrol anche all’interno dell’Unione Europea? Si può ragionare di deterrenza, ma è scaduto il tempo dell’assenza di regole. Per quanto aggirabili e comunque nella rincorsa dell’accelerazione tecnologica, all’Europa tocca ritornare ai principi e farsene carico. L’Ai Act dell’agosto dello scorso anno e il successivo patto, varato per facilitare l’inevitabile fase di transizione, non possono rimanere su base volontaria, ma diventare vincolanti per i paesi membri, né limitati agli impieghi civili, dove peraltro è il caos.
L’intelligenza artificiale è già entrata in ogni sfera del nostro quotidiano. Il suo uso, senza un’adeguata alfabetizzazione - come chi scrive va ripetendo da più di dieci anni, dopo aver redatto un progetto dettagliato mai realizzato dalla Rai- sta contagiando i contenuti e i rapporti, riguarda i dati scientifici, intacca il bagaglio cognitivo, incide sulla correttezza dell’informazione e la altera, nell’assenza di sistemi factchecking. In pratica, si sta imparando, senza apprendere, nel rischio di un condizionamento progressivo, che comprime il pensiero e porta alla rinuncia di ogni verifica, nella sovrapposizione continua del reale e del virtuale, Quello straordinario visionario, scomparso agli inizi degli anni ‘80 - il riferimento è a Philip K. Dick - nei suoi romanzi di fantascienza immaginò un extra mondo distopico, devastato dalle guerre nucleari, popolato di replicanti, dove gli animali si erano estinti. Dick si interrogava sul valore dell’essere umano, sui rapporti e sui sentimenti dinanzi ai sofisticati modelli di androidi, algidi, ma più intelligenti dell’uomo. La sua immaginazione aveva creato le «pecore robotiche». Viene da chiedersi se ci siano già…ma il latte? Naturale resta migliore. Tocca ricordarselo.