Articles

Intelligenza Artificiale: le sfide per la sicurezza

Intelligenza Artificiale: le sfide per la sicurezza

17 Jun 2022

L’“Intelligenza Artificiale”, in breve AI (Artificial Intelligence), è una branca dell’informatica che sviluppa sistemi in grado di riprodurre il funzionamento del cervello umano, con competenze simili: ragionamento, apprendimento e azione analoghi a quelli umani.

Oggi l’intelligenza artificiale non ci fa più pensare alla fantascienza o a mondi futuribili, ma è diventato ormai un termine di uso comune e le sue applicazioni sono entrate prepotentemente e in maniera diffusa nella nostra vita quotidiana, anche se non ce ne rendiamo conto.

Vediamone alcune:

Assistenti virtuali: “Siri, come si chiama la canzone che ascoltavo ieri?”

Telefono e computer ci mettono a disposizione assistenti virtuali come Cortana, Google Assistant, Siri che rispondono alle nostre richieste o comandi vocali attraverso algoritmi di AI per il riconoscimento del linguaggio e per “imparare” nel tempo le nostre abitudini di vita.

Chatbot, servizi clienti automatizzati: il cliente è servito…dall’AI

I servizi clienti spesso utilizzano l’AI per gestire chat e smistare le richieste telefoniche riconoscendo voce e perifrasi di linguaggio ed elaborando la risposta o l’azione pertinente alla richiesta.

Riconoscimento facciale: i “poliziotti” virtuali

Le telecamere nelle città, stazioni, aeroporti etc, registrano e processano migliaia di immagini rilevando comportamenti o situazioni anomale - ad esempio, un uomo a terra - segnalandole alle centrali operative preposte alla sicurezza. Il tutto in pochi secondi, grazie all’AI.

So già cosa vuoi: dalla pubblicità alla notizia su misura, l’AI seleziona i contenuti per noi.


Come riportato nel docufilm The social dilemma, l’ambiente digitale - che sia un social, un motore di ricerca, un thread di notizie - ci mostra solo ciò che gli algoritmi di AI e di Machine Learning ritengono che sia di nostro gusto, in base alla nostra personalità, che apprendono ogni volta che facciamo una scelta, mettiamo un “mi piace” o clicchiamo su un banner.

Queste sono solo alcune delle applicazioni che tutti noi usiamo ogni giorno, ma l’AI in realtà domina ogni ambito: dalla macchina che frena da sola quando ci avviciniamo troppo velocemente ad un ostacolo, ai “robot” per le operazioni chirurgiche, ai sistemi di guida e sicurezza degli aerei, e molto altro.

La guida autonoma dei veicoli è il prossimo e vicinissimo obiettivo.

Come funziona tutto questo e quali rischi corriamo?

In sintesi, possiamo dire che l’AI combina una enorme quantità di dati con una elaborazione basata su modelli che impara da sé, (modelli Machine Learning o ML).

Un modello di Machine Learning è basato principalmente su due componenti:
    1. Algoritmi statistici e/o predittivi
    2. Un insieme di dati (data-set) che il modello ML usa per imparare

Vi sono però ancora numerosi problemi di “restituzione” dell’elaborato da parte dii questi sistemi: errori nei data-set di apprendimento, negli algoritmi, etc. Secondo Gartner fino ad oggi, l’85% dei progetti di intelligenza artificiale ha prodotto risultati errati di questi fattori.

Ci sono molti casi ormai noti: modelli di riconoscimento delle immagini “ingannati” da immagini deformate, riconoscimenti facciali basati solo su precise etnie, che di conseguenza perdono la capacità di riconoscere persone di etnie diverse, modelli di calcolo per analisi del rischio (mutui, assicurazioni, etc) che danno risultati errati a seconda dell’appartenenza etnica e non su dati economici e molti altri casi.

In pratica, il sistema ad oggi è tutt’altro che stabile e cominciamo quindi a intuire quali conseguenze possa comportare in materia di sicurezza l’adozione dell’Intelligenza Artificiale, per quanto riguarda le intenzioni malevole della cyber criminalità.

L’IA può diventare una nuova arma di attacco per la cyber criminalità


Anche i criminali informatici stanno facendo sempre più uso dell'IA per sferrare i loro attacchi contro aziende, istituzioni e privati. Infatti, sfruttando le caratteristiche e risorse dell’intelligenza artificiale possono colpire più rapidamente e in maniera più precisa migliaia di obiettivi in contemporanea.

Questo è possibile perché grazie all’enorme capacità di analisi e di calcolo, le IA possono scansionare e identificare tutte le vulnerabilità informatiche all’interno del sistema IT del bersaglio scelto dai cyber criminali. Inoltre gli algoritmi utilizzati dalle IA hanno la capacità di adattarsi, apprendere e migliorarsi continuamente con il risultato che gli attacchi risulteranno sempre più efficaci e di difficile rilevamento da parte dei tradizionali sistemi di protezione.

Nel dark web, gli hacker hanno messo addirittura disponibili delle soluzioni informatiche già pronte generate con IA per sferrare questa tipologia di attacchi; ne è un esempio l’IA-as-a -Service che può essere acquistato da hacker “minori” o meno esperti che non hanno le conoscenze necessarie nel campo delle IA.

Sono diversi i sistemi che sfruttano l’intelligenza artificiale utilizzati degli hacker; alcuni tra i più frequenti sono quelli ideati per riuscire ad indovinare le password delle vittime oppure e-mail di phishing e malware che grazie all’autoapprendimento e all’imitazione del comportamento degli utenti, sono in grado di generare testi sempre più elaborati e personalizzati e di conseguenza sempre più difficili da distinguere dalle vere e-mail.

Un altro esempio, è l’Adversarial Attack, ovvero quando vengono introdotti dati “malevoli” nel data-set di apprendimento che porta quindi alla produzione di risultati ingannevoli.

Individuare questo tipo di attacco è molto difficile, perché è impossibile dedurre le logiche apprese da un modello ML - poiché le genera praticamente da solo - e a volte differiscono significativamente da quello che un cervello umano elabora intuitivamente.

Ad esempio, tornando al riconoscimento delle immagini, un bambino capisce intuitivamente che uno sticker appiccicato su una foto è un elemento esterno, l’AI invece no.
Essendo ormai gli utilizzi di AI diffusi in ogni ambito, è chiaro che i rischi aumentano all’aumentare della loro diffusione.

Paradossalmente, uno dei rischi riguarda proprio la sicurezza informatica: dagli anti-virus al monitoraggio delle reti, i sistemi di sicurezza informatica utilizzano proprio l’AI per individuare degli schemi (pattern) su grandi quantità di dati e da qui individuare anomalie e minacce come l’identificazione di campagne su ampia scala di spam e phishing, o di attacchi malware individuando codici malevoli.

E’ evidente che anche la criminalità informatica può usare l’IA per rendere gli attacchi meno individuabili e progettare contro-strategie sulla base di scenari predittivi della difesa.

In altri ambiti la violazione di una applicazione basata sull’AI suscita scenari inquietanti: si pensi ad una attacco ai sistemi di guida autonoma, o a Grover, un sistema creato dall'università di Washington e dall'istituto Allen per creare fake news perfettamente credibili e scoprire contenuti simili con un tasso di accuratezza del 92%.

Il fine della ricerca era quello di “addestrare” il sistema a riconoscere le fake news; ma è anche vero che l’AI può generare e diffondere abilmente fake news estremamente credibili, secondo uno studio del New York Times e del Washington Post pubblicato lo scorso anno.

Creare una campagna di disinformazione di massa sembra essere oggi abbastanza facile e veloce, grazie agli algoritmi di AI che possono creare e diffondere rapidamente contenuti credibili creati per indirizzare l’opinione pubblica; tesi fomentata da più parti riguardo la recentissima pandemia.

Il tema della falsa informazione manipolata dalla AI ha fatto da poco un altro passo avanti grazie a Dall·E 2, il sistema di intelligenza artificiale - progettato da OPEN AI, la no-profit di cui fa parte anche Elon Musk che crea immagini e foto perfettamente realistiche partendo da una descrizione testuale.

Lo scenario di organizzazioni cyber criminali, che possano violare banche dati di immagini (centri anagrafici, foto segnaletiche, etc) e modificarle tramite una descrizione è allarmante.

Per contrastare gli attacchi informatici, l’IA giocherà un ruolo fondamentale.


Come abbiamo visto le IA possono essere uno strumento di attacco da parte degli hacker ma al tempo stesso possono essere usate anche come meccanismo di difesa e protezione contro di essi.

A differenza dei tradizionali sistemi di sicurezza informatica, quelli basati sulle IA sono in grado di identificare in maniera più accurata e precisa la presenza di Hacker e rilevarne le attività criminali. Infatti gli algoritmi delle intelligenze artificiali possono riconoscere i modelli comportamentali degli Hacker sventando così i loro attacchi e in un prossimo futuro addirittura scoprire l’identità degli aggressori.

Negli ultimi anni molte aziende e organizzazioni si sono servite degli algoritmi delle IA per difendersi e rispondere ad attacchi hacker sempre più frequenti e insidiosi. Il lavoro dei team di sicurezza informatica delle aziende può essere molto agevolato grazie all’utilizzo delle IA, dal momento che sono in grado di scansionare e rivelare eventuali anomalie e criticità del flusso dei dati impiegando molto meno tempo e con maggior precisione rispetto ad un essere umano. Ciò permette ai membri del team di concentrare il loro tempo più che nella ricerca di falle nella sicurezza (di cui come appena detto si occupano le IA) nell’elaborare delle strategie di difesa.

In conclusione l’uso dell’intelligenza artificiale può essere molto utile nell’ambito della cyber security per contrastare attacchi informatici.

Possiamo quindi affermare che l’esplorazione delle potenzialità dell’intelligenza artificiale è appena cominciata, ma così come emergono i potenziali rischi, possiamo capire sempre meglio come utilizzare l’Intelligenza Artificiale nella prevenzione delle minacce e dei rischi associati alle debolezze della AI/ML e nel disegnare strategie di difesa.

Francesco Nonni @ F3RM1 Foundation


-Torna agli Articoli