Gli algoritmi nella lotta al terrorismo: il caso di Israele
Le Monde ha pubblicato un’intervista a Boaz Ganor, un esperto israeliano di antiterrorismo che spiega l’uso dell’intelligenza artificiale (IA) applicata alla lotta al terrorismo in Israele, con riferimento alla discussione di una legge in Francia sulla stessa questione. Si tratta di un pezzo da leggere, perché in mezzo ad affermazioni completamente assurde, ci sono diversi punti che fanno immaginare verso dove vanno (e dove sono già, parzialmente) i servizi di intelligence e quali implicazioni la crisi sanitaria ha, anche, sul controllo.
Riassumendo:
- L’IA pare necessaria per trovare i cosiddetti «lupi solitari»: coloro che agiscono al di fuori di organizzazioni e senza programmare un attacco.
- Israele usa queste tecniche dal 2015, ma è la pandemia di Covid19 che ne ha esteso l’uso a tutta la popolazione.
- L’idea quella è di poter intercettare i segnali di “instabilità mentale” on line. (E qui rischiamo di far esplodere i data center, imho)
- Centrale il concetto di “attacco potenziale” («Non voglio essere frainteso, ma ogni palestinese nei territori occupati potrebbe avere motivi per commettere un attentato, eppure non lo fa. Il concetto di “potenziale terrorista” è molto problematico»).
- Definizione di cosa è un atto di terrorismo («Come possiamo aspettarci che una macchina cerchi i terroristi se non siamo d’accordo sulla definizione di terrorismo?»)
- Le conseguenze di un “falso positivo” e il suo trattamento.
- E’ possibile un uso etico di queste tecnologie?
Il contesto dell’intervista è la discussione, in Francia, di un progetto di legge “sulla prevenzione degli atti di terrorismo e sull’intelligence” che contiene un pacchetto di disposizioni per potenziare l’uso di sistemi automatizzati di ascolto (ovvero l’uso di algoritmi) nelle comunicazioni via Internet per individuare connessioni suscettibili di rappresentare una minaccia terrorista. La novità è che il Governo francese vuole aggiungere l’Url ai dati che sono già passibili di essere utilizzati.
Boaz Ganor, fondatore e direttore esecutivo dell’International Institute for Counter-Terrorism (ICT) in Israele, interrogato da Le Monde, spiega in che modo l’Intelligenza artificiale (IA) può aiutare ad individuare i «lupi solitari» o i «terroristi non organizzati», ovvero coloro che compiono un atto senza essere in un network conosciuto dai servizi e senza averlo pianificato, come nel caso dell’omicidio di Samuel Paty avvenuto lo scorso ottobre in Francia.
Che uso fa Tel-Aviv degli algoritmi e dell’intelligenza artificiale (AI) nella lotta contro il terrorismo?
Ganor ci spiega che Israele usa l’AI e gli algoritmi nella lotta al terrorismo dal 2015, quando il Paese ha visto un gran numero di attacchi all’arma bianca da parte di «lupi solitari». Il fenomeno era già stato visto durante la prima Intifada (1987) ma non con questa portata, dice. In questo caso l’IA si è rivelata «abbastanza efficace».
«Qual è il vantaggio dell’IA contro questi tipi di attacchi?», chiede il quotidiano? Fondamentalmente Ganor ci spiega che l’IA servirà a segnalare l’instabilità mentale (sic!): «Tra i diversi tipi di terroristi, i “lupi solitari” sono coloro che portano avanti un attacco individuale, senza avere legami operativi con un gruppo. Questo non significa che non siano ispirati da una particolare organizzazione, ma non sono stati reclutati o aiutati a realizzare il loro piano. I “lupi solitari” non discutono i loro piani al telefono o con le loro famiglie, non prendono ordini. Vanno e agiscono».
Tra di loro ci sono quelli che Ganor definisce “attentatori spontanei”, persone che decidono all’ultimo momento, il cui atto è il risultato di un’opportunità, uno stato d’animo o un fastidio: «La radicalizzazione era già presente, ma non il piano. Sono i più difficili da fermare, perché sfuggono a tutta la sorveglianza convenzionale, anche le loro famiglie spesso non hanno idea della loro radicalizzazione. La maggior parte dei “lupi solitari” palestinesi sono stati trovati grazie a “segnali” precoci di radicalizzazione via le loro interazioni sui social network. A differenza dei criminali comuni, i terroristi agiscono per “altruismo”: difendono i loro valori, la loro religione o la loro patria e lo fanno sapere. L’IA è in grado di analizzare enormi quantità di dati e di isolare segnali estremamente deboli, attività o stati insoliti, che l’intelligenza umana non avrebbe colto. D’altra parte, uno studio che abbiamo condotto sui “lupi solitari” condannati alla prigione in Israele mostra un alto livello di instabilità mentale. È possibile cercare questo tipo di comportamento online».
Possiamo misurare l’efficacia dell’uso degli algoritmi e dell’IA? Ganor spiega che nel 2015 ci sono stati 163 attacchi di “lupi solitari” in Israele. Nel 2016 108 , e nel 2017, 154. Secondo i dati pubblicati dall’Israel Security Agency (ISA, il servizio di sicurezza interna di Israele), più di 2mila attacchi sono stati evitati nel 2015–2016, 1.100 nel 2017. L’ISA parla di «attacchi potenziali».
Cos’è quindi un attacco potenziale? Traduco interamente la risposta perché mi pare centrale nell’analisi e completamente assurda nella sua ottusità (i grassetti sono miei, ndr).
«Quando parliamo di un potenziale attacco, prendiamo in considerazione due criteri: il livello di preparazione e il livello di motivazione. La maggior parte degli attacchi dei “lupi solitari” sono effettuati con coltelli o auto, e non richiedono alcuna preparazione. L’unico modo per giudicare il potenziale di un attacco è quindi analizzare la motivazione. Ma si tratta di un criterio molto complesso da valutare: non voglio essere frainteso, ma ogni palestinese nei territori occupati potrebbe avere motivi per commettere un attentato, eppure non lo fa. Il concetto di “potenziale terrorista” è molto problematico. Non ho dubbi che l’IA sia diventata una necessità nella lotta al terrorismo e abbia dimostrato la sua efficacia. Ma sono anche preoccupato, perché si tratta di una tecnologia in via di sviluppo, di cui non controlliamo tutte le implicazioni».
Cosa significa?
«Condivido le riserve di Henry Kissinger (articolo sull’IA su The Atlantic). In primo luogo, gli algoritmi possono produrre risultati indesiderati: le regole le stabiliamo noi, ma la macchina, “imparando”, cambia le regole per renderle più efficaci. In secondo luogo, si dà alla macchina il potere di trarre conclusioni sul comportamento e i valori umani. Come possiamo aspettarci che una macchina cerchi i terroristi se non siamo d’accordo sulla definizione di terrorismo? L’ultimo grande problema è che la macchina dà risultati che lo scienziato che l’ha progettata talvolta non può spiegare. Per esempio, ci sono algoritmi che monitorano i movimenti della folla registrati dalle telecamere di sorveglianza e sono in grado di indicare la persona che sta per commettere un attacco. Questi algoritmi lavorano sulla base di esempi passati, ma i programmatori non sono in grado di dire esattamente quali criteri la macchina ha selezionato. Non è fantascienza, sta accadendo ora».
Chi viene analizzato dall’algoritmo? Nel caso specifico di Israele l’insieme della popolazione, almeno oggi, dice Ganor. Nel periodo degli attacchi all’arma bianca forse il target erano solo i palestinesi ma, in epoca di Pandemia, le cose sono cambiate. «Quello di cui sono sicuro è che questa tecnologia è stata usata come parte della lotta contro il Covid-19 su tutta la popolazione di Israele, ebrei e arabi. Non c’è stato alcun dibattito sulla privacy quando gli algoritmi sono stati usati contro gli attacchi terroristici, queste questioni sono state sollevate durante la pandemia».
(Secondo il vecchio refrain che finché non ci tocca direttamente non ci lamentiamo così tanto. Ma questo passaggio è un “te l’avevo detto” grande come la tour Eiffel, ndr).
Le Monde chiede come ha agito il governo di Israele con le persone identificate dall’algoritmo tra il 2015 e il 2017. Secondo Ganor, nulla. Pare bizzarro? «Per quanto ne so, i risultati dell’algoritmo non sono stati utilizzati per arrestare una persona, ma per avvertire l’individuo o la famiglia, nella maggior parte dei casi. Spesso si trattava di una telefonata ai genitori per dire: “Vostro figlio o vostra figlia sta prendendo la strada sbagliata e si sta radicalizzando a vostra insaputa, state attenti!”».
Un articolo di un ricercatore danese, nel 2016, sostiene che queste tecniche producono circa 100mila potenziali “falsi positivi” per ogni vero terrorista, fa notare Le Monde a Ganor: «Non so se questo studio è ancora valido, ma qui sono in gioco delle vite innocenti. Per me, la vera domanda è: qual è la conseguenza di un “falso positivo”? Se si tratta di un momento di imbarazzo, ne vale la pena. Se si tratta di togliere la vita o la libertà a una persona innocente, non è accettabile. Ma non è la macchina a deciderlo».
«Esiste il rischio di profilare maggiormente alcune categorie di popolazione?», chiede ancora Le Monde. «Può sembrare sorprendente, ma questa tecnologia elimina il rischio di profilazione perché l’uso dei dati è rilevante solo se si prende in considerazione l’intera società. Se si applica la stessa tecnologia a tutti, solo i comportamenti pericolosi ed estremisti saranno evidenziati e non quelli di una parte della popolazione soltanto. La macchina è cieca. Al contrario, quando Facebook ha concentrato le sue risorse sulla lotta alla propaganda jihadista, la minaccia dei suprematisti bianchi è stata trascurata».
Queste tecnologie, spiega, «sono già usate nel Regno Unito e negli Usa. Nel prossimo futuro, tutti i paesi occidentali lo useranno. La Cina, naturalmente, sta usando questa tecnologia in modo massiccio e, in misura minore, la Russia. La Cina è il caso peggiore e non deve essere presa ad esempio dalle democrazie occidentali. Gli algoritmi sono molto efficaci e possono salvare delle vite. Il problema è trovare il giusto equilibrio tra il potenziale che aprono e il rispetto delle libertà individuali».