— Guerra nucleare per errore? —

di Karl Hans Bläsius


Il rischio di una guerra nucleare per errore deriva principalmente dai sistemi

di allarme rapido che servono a prevedere e valutare possibili attacchi da

parte di missili nucleari. Questo può portare a falsi allarmi, che sono

particolarmente pericolosi se c'è una crisi politica o se altri eventi rilevanti si

verificano in un contesto temporale. Il rischio di una guerra nucleare

accidentale aumenterà significativamente in futuro. Tra le ragioni ci sono:

Cambiamento climatico, aumento degli attacchi informatici, decisioni

automatiche incalcolabili, sempre più potenze nucleari, nuova corsa agli

armamenti, tempi di avvertimento più brevi.

I sistemi di allarme rapido si basano su sensori, sistemi informatici molto

complessi e reti. Sono progettati per consentire la previsione e la valutazione

di possibili attacchi da parte di missili (nucleari). Questo può portare a falsi

allarmi, che possono avere cause molto diverse (ad esempio hardware,

software, errori di funzionamento o la valutazione errata dei segnali dei

sensori). In tempi di pace e distensione politica, i rischi che la valutazione di

un messaggio d'allarme porti a un attacco nucleare sono molto bassi. In

questi casi, in caso di dubbio, si presume un falso allarme.

Questo può cambiare drasticamente se c'è una crisi politica, eventualmente

con minacce reciproche, o se altri eventi rilevanti per la sicurezza si verificano

in connessione temporale con un (falso) allarme. Poi, nel valutare l'allarme, si

cercano le cause, cioè si cerca di trovare delle connessioni causali. Se si

trovano e se sono logicamente plausibili, c'è un grande rischio che il

messaggio di allarme venga accettato come valido, anche se si tratta di una

coincidenza temporale di eventi indipendenti.

I rischi possono essere esacerbati dalle catene di allarme: Come risultato di

un messaggio di allarme da un sistema di preallarme, le forze armate

possono essere messe in allerta. Tali attività sono riconosciute dall'avversario

e possono portare ad una maggiore allerta in situazioni di conflitto anche lì.

Questo ha di nuovo delle ripercussioni sulla propria valutazione della

situazione. Nelle crisi con minacce reciproche ed eventi classificati come

attività ostili, una reazione a catena con livelli di allerta sempre più alti può

quindi essere messa in moto in pochi minuti in caso di un falso allarme, che

va fuori controllo. Il rapporto "Computergestützte Frühwarn- und

Entscheidungssysteme" (Bläsius e Siekmann 2019) contiene alcuni esempi di

falsi allarmi così come presentazioni più dettagliate, inclusi i riferimenti, su

ulteriori aspetti, che sono descritti di seguito.

Le informazioni sui messaggi di allarme sono disponibili solo

parzialmente

In passato si sono conosciuti molti falsi allarmi che hanno portato a situazioni

pericolose. Tuttavia, non tutti gli incidenti critici diventano noti, perché i falsi

allarmi sugli attacchi missilistici sono soggetti a segretezza e di solito non

vengono pubblicati. All'inizio degli anni '80, ci sono stati vari articoli di stampa

su falsi allarmi e situazioni pericolose. Di conseguenza, il Senato degli Stati

Uniti ha avviato un'indagine, i cui risultati sono stati resi pubblici. Per il

periodo limitato dal 1979 al 1980, ci sono quindi risultati su tutti gli incidenti

critici nel sistema di allarme rapido degli Stati Uniti. Altri incidenti sono

diventati noti solo decenni dopo grazie alle dichiarazioni delle persone

coinvolte. Di conseguenza, le statistiche sui falsi allarmi e sulle situazioni

pericolose in determinati periodi di tempo non sono rilevanti per una

valutazione della situazione di pericolo attuale. Né si può supporre che gli

errori nei sistemi di allarme rapido della Cina, dell'India o del Pakistan

diventino noti a noi.

Gli errori rari sono particolarmente pericolosi

Gli errori non possono mai essere esclusi in un sistema complesso e

possono essere causati da esseri umani così come da computer o altri

componenti del sistema. In applicazioni complesse, è tecnicamente

impossibile produrre software senza errori. Anche se un software è giudicato

privo di errori usando tecniche di verifica del programma, tali prove sono

possibili solo sulla base di una specifica formale, che può contenere essa

stessa degli errori. Un mezzo importante per ridurre gli errori nello sviluppo

del software è quindi il test, ma questo è difficilmente possibile in un sistema

di allarme preventivo in condizioni reali.

Errori causati da dati poco chiari dei sensori si sono verificati spesso in

passato ed è improbabile che portino a una falsa valutazione, almeno in

tempo di pace. Gli errori rari o insoliti, invece, sono molto più difficili da

valutare e quindi molto più pericolosi. Anche se è possibile migliorare i

sistemi di allarme rapido in modo che i falsi allarmi si verifichino solo molto

raramente, questo non aumenterà necessariamente la sicurezza. I messaggi

di allarme che si verificano solo raramente sono allora insoliti e difficili da

interpretare e sono potenzialmente assunti come seri, cioè validi. Questo è

particolarmente vero in situazioni di crisi o se ci sono altri eventi che possono

essere collegati ad esso.

Il rischio di guerra nucleare aumenterà significativamente

Il rischio di una guerra nucleare è attualmente valutato come molto alto, il che

è anche espresso dal "Doomsday Clock". Dal 1947, questo orologio è stato

impostato da scienziati nucleari e altri esperti per avvertire il pubblico del

rischio attuale di guerra nucleare. Attualmente, si trova a meno di due minuti

alle dodici. Gli aspetti descritti di seguito aumenteranno significativamente il

rischio di una guerra nucleare accidentale in futuro.

Cambiamento climatico

Il cambiamento climatico porterà probabilmente varie regioni della terra a

diventare inabitabili. Lo spazio vitale disponibile diventerà più piccolo, le

risorse importanti, come l'acqua, più scarse. Di conseguenza, in futuro ci

saranno crisi politiche più frequenti e, nel peggiore dei casi, anche conflitti

armati. Di conseguenza, le segnalazioni di attacchi missilistici nei sistemi di

allarme rapido saranno prese molto più seriamente. L'aumento del rischio di

guerra nucleare dovuto al cambiamento climatico è stato anche preso in

considerazione nell'orologio della guerra nucleare dal 2007.

Cyberattacchi

I cyberattacchi possono creare interazioni pericolose ed incalcolabili con i

sistemi di allarme rapido e con le forze nucleari, aumentando così

significativamente il rischio di una guerra nucleare accidentale. Finora, c'è

poca conoscenza di come si potrebbero svolgere le guerre cibernetiche. Gli

attacchi informatici sono considerati operazioni segrete; qui non c'è netta

separazione tra guerra e pace, quindi a distinzione potrebbe non essere

possibile. Una guerra informatica sarà probabilmente difficile da controllare.

Sarà anche difficile limitare una guerra informatica a singoli stati. I gruppi di

hacker che non possono essere controllati dai loro stati potrebbero interferire.

La fonte di un attacco informatico spesso non può essere determinata. Un

attacco può fornire indizi sull'autore, ma questo può anche essere

deliberatamente falsificato. C'è il rischio che gli attacchi reciproci si

intensifichino, portando ad una spirale di escalation che non può più essere

controllata da nessuna delle due parti. Le conseguenze di un grave attacco

informatico non sono prevedibili. Le nuove strategie militari possono non

escludere una risposta con armi nucleari. Anche se si spera che una tale

risposta non si verifichi normalmente, la situazione cambia se c'è un falso

allarme in un sistema di allarme rapido in un contesto temporale. Tuttavia,

una strategia militare così "flessibile" aumenta anche il rischio di una falsa

valutazione di un allarme presso un potenziale avversario. Perché se la

segnalazione di un attacco missilistico viene ricevuto, questa potrebbe essere

interpretata come una risposta all'attacco informatico.

Gli attacchi informatici potrebbero anche essere diretti direttamente contro i

sistemi di allarme rapido, paralizzando i sottocomponenti, interrompendo la

comunicazione, intercettando le informazioni o inviando determinati segnali.

Dati falsi potrebbero essere trasmessi a un sistema di allarme rapido, i missili

nucleari nemici potrebbero essere resi innocui o si potrebbe ottenere il

controllo su di essi (vedi Austin e Sharikov 2016 e Sharikov 2018).

Nuova corsa agli armamenti

La fine del trattato INF sta già portando a una nuova corsa agli armamenti.

Oltre alla maggiore precisione del nuovo tipo di missili e testate e ai tempi di

avvertimento più brevi per l'uso di missili a medio raggio, le armi nucleari più

piccole sono un fattore importante, poiché sono considerate più facilmente

utiizzabili. Tuttavia, una soglia di dispiegamento più bassa aumenta anche il

rischio che un allarme sia accettato come valido, poiché l'uso di armi nucleari

diventa più probabile. Così aumenta anche il rischio di una guerra nucleare

per errore. Completamente incalcolabili sono gli effetti della progettata

militarizzazione dello spazio, così come lo sviluppo di armi ipersoniche, che

sono ovviamente difficili da localizzare e accorceranno estremamente i tempi

di allarme. Questo aumenterà drasticamente la complessità dei messaggi

d'allarme, per cui sarà difficilmente possibile testare l'affidabilità dei sistemi

d'allarme rapido rispetto a questi nuovi sistemi d'arma.

Decisioni automatiche

Il numero e la varietà di oggetti nell'aria e nello spazio continueranno ad

aumentare (ad esempio, droni, satelliti, razzi ipersonici). La valutazione dei

segnali dei sensori diventerà quindi più difficile, e sempre più processi di

intelligenza artificiale (AI) saranno richiesti per prendere decisioni

automaticamente per alcune sottoattività. L'ulteriore sviluppo di sistemi

d'arma con maggiore precisione e tempi di volo più brevi richiederà sempre

più tecniche di intelligenza artificiale. Ci sono già richieste di sviluppare

sistemi autonomi di IA in relazione ai sistemi di allarme rapido, poiché non c'è

tempo per le decisioni umane.

Tuttavia, testare tali sistemi in condizioni reali è quasi impossibile. Inoltre,

rispetto ad altre applicazioni AI (ad esempio la guida autonoma), ci saranno

molti meno "dati di apprendimento" per generare i criteri di riconoscimento

necessari. Questo può portare a effetti imprevedibili che non possono essere

valutati e controllati dall'uomo. Nel breve tempo a disposizione tra un allarme

e l'ordine di usare le armi nucleari, in genere non sarà nemmeno possibile

controllare le decisioni prese dalla macchina. Agli esseri umani non resterà

che credere ai dati forniti dai sistemi automatici.

Molte potenze nucleari

Ora ci sono nove potenze nucleari. Non solo gli Stati Uniti e la Russia hanno

sistemi di allarme rapido, ma anche paesi come la Cina li stanno costruendo.

Anche in questi sistemi di preallarme, errori e decisioni sbagliate possono

verificarsi con conseguenze globali fatali. Anche uno scambio nucleare

limitato, per esempio tra India e Pakistan, può portare a un inverno nucleare

con gravi conseguenze per tutta l'umanità.

Cicli di previsione-adattamento

Nel suo libro "Homo Deus" (2016; edizione tedesca 2017), Yuval Noah Harari

descrive (da p. 96) che con l'aiuto di "Big Data" e "Intelligenza Artificiale",

sono possibili previsioni sempre migliori sui cambiamenti futuri. Tuttavia,

questa conoscenza viene immediatamente utilizzata per adattamenti, in

modo che i cambiamenti previsti non si verifichino. I cicli tra previsione e

adattamento stanno accelerando, rendendo sempre più difficile interpretare la

situazione attuale e pianificare il futuro. Che un sistema di armi che minaccia

l'umanità nel suo insieme possa essere controllato mentre i nostri sistemi

sociali cambiano sempre più velocemente, è da mettere fortemente in dubbio.

Imprevedibile - evento improvviso

Una "guerra nucleare accidentale" non è direttamente prevedibile. Come per

altri incidenti nei sistemi tecnici, non c'è un preavviso. Come un "normale

incidente", una guerra nucleare accidentale può scoppiare improvvisamente

in pochi minuti. In seguito, nessuna correzione è possibile. Nel caso di

incidenti normali, spesso vengono prese misure a posteriori per evitare tali

rischi in futuro. Dopo un attacco nucleare, difficilmente ci sarà un tale futuro.

Nel caso del rischio di guerra nucleare, non possiamo aspettare che si

verifichi il primo "incidente" sotto forma di una "guerra nucleare accidentale"

prima di prendere misure per ridurre questo rischio.

FONTI

Austin, G.; Sharikov, P. (2016): Pre-emption is victory - aggravated nuclear

instability of the information age. The Nonproliferation Review, Vol. 23, Nr. 5-

6, S. 691-704.

Bläsius, K.H.; Siekmann, J. (2019): Computergestützte Frühwarn- und

Entscheidungssysteme. Eigenpublikation, 36 S.; fwes.info/fwes-19-3.pdf.

Bulletin of the Atomic Scientists (2020): The Doomsday Clock;

thebulletin.org/doomsday-clock.

Yuval Noah Harari, Homo Deus: A Brief History of Tomorrow (2017)

Sharikov, P. (2018): Artificial intelligence, cyberattack, and nuclear weapons -

A dangerous combination. Bulletin of the Atomic Scientists, Vol. 74, Nr. 6, S.

368-373.

Traduzione dell'articolo pubblicato in Wissenschaft & Frieden 2020-1:

Atomwaffen - Schrecken ohne Ende?, Seite 10-12