| Undefined

L’intelligenza artificiale (IA) ha rivoluzionato il nostro mondo, portando con sé una serie di vantaggi e possibilità incredibili. Sicuramente l’IA ha accelerato la soluzione di problemi complessi, migliorato la nostra efficienza in numerosi settori e permesso la creazione di applicazioni innovative. Tuttavia, come ogni strumento potente, anche l’IA potrebbe essere sfruttata per scopi malevoli. 

Diverse le preoccupazioni e sfide che andrebbero affrontare attraverso la regolamentazione, l’etica e la consapevolezza per garantire che l’IA venga utilizzata in modo responsabile e benigno:

  • Privacy: L’IA può essere utilizzata per raccogliere e analizzare grandi quantità di dati personali, sollevando preoccupazioni sulla privacy delle persone.
  • discriminazione: Gli algoritmi di IA possono riflettere pregiudizi inconsci presenti nei dati di addestramento, portando a decisioni discriminatorie.
  • disoccupazione: L’automazione guidata dall’IA può sostituire alcuni lavori umani, portando a problemi occupazionali.
  • Cybersecurity: Gli attacchi informatici basati sull’IA possono essere più sofisticati, rendendo la sicurezza informatica una sfida crescente.
  • Armi autonome: L’IA può essere utilizzata per sviluppare armi autonome, innescando preoccupazioni etiche e sulla sicurezza globale.
  • Manipolazione dell’informazione: L’IA può essere utilizzata per creare contenuti falsi o manipolati, alimentando disinformazione e propaganda.
  • Controllo e sorveglianza: L’IA può essere utilizzata per il controllo e la sorveglianza delle persone, minando la libertà e i diritti civili.

Le nuove frontiere degli attacchi informatici

L’uso di IA malintenzionate sta aprendo nuove frontiere nell’ambito degli attacchi informatici. I cyber criminali possono sfruttare l’IA per creare malware sofisticati, condurre attacchi di phishing avanzati e persino violare sistemi di sicurezza complessi. Uno dei punti più inquietanti è rappresentato infatti da strumenti come FraudGPT e DarkBART, che sollevano preoccupazioni significative per la sicurezza informatica, in quanto sono due varianti di modelli di linguaggio basati su IA, che abusano delle capacità proprie dei modelli addestrati per generare testo in modo coerente e realistico. La difficoltà di rilevare queste minacce deriva dalla loro capacità di adattarsi e imparare dagli ambienti in cui operano.

  1. Phishing avanzato: FraudGPT e DarkBART possono generare e-mail di phishing altamente convincenti. Gli attaccanti possono creare messaggi personalizzati che sembrano provenire da fonti attendibili, inducendo le vittime a rivelare informazioni sensibili.
  1. Disinformazione online: Questi modelli possono generare notizie false, recensioni o commenti che sembrano autentici. Questo può influenzare l’opinione pubblica o danneggiare la reputazione di individui o aziende.
  1. Social Engineering automatizzato: Gli aggressori possono utilizzare l’IA per automatizzare tattiche di ingegneria sociale, manipolando le persone per ottenere accesso a sistemi protetti.
  1. Attacchi di forza bruta migliorati: DarkBART può generare password e frasi di accesso in modo più intelligente, rendendo più difficile la difesa contro gli attacchi di forza bruta.

FraudGPT e DarkBART, l’evoluzione dell’IA malevola

FrauGPT che si baserebbe sul sistema AI di Google Bard, è un nuovo chatbot preparato in maniera specifica per realizzare campagne di phishing accurate, sfruttando il social engineering anche per diffondere malware. 

Secondo il rapporto SlashNext (https://slashnext.com/blog/ai-based-cybercrime-tools-wormgpt-and-fraudgpt-could-be-the-tip-of-the-iceberg/) la scorsa estate la sua prima segnalazione sarebbe stata messa in opera da parte di un attore cyber, noto con il nome di “CanadianKingpin12” che secondo i ricercatori della società di sicurezza informatica SlashNext non si starebbe solo limitato al lavoro su FraudGPT ma avrebbe attivamente addestrato anche nuovi chatbot utilizzando set di dati illimitati provenienti dal Dark Web (https://f3rm1.cloud/articoli/dark-web-e-deep-web--cosa-sono-e-quali-sono-i-reali-pericoli-nel-loro-utilizzo-). 

Ad esempio, lo sviluppatore avrebbe rivelato il suo impegno nel contesto di DarkBART, un chatbot basato su un modello di linguaggio noto come DarkBERT, sviluppato da ricercatori coreani in ambiente accademico. In particolare CanadianKingpin12 avrebbe addestrato DarkBERT per renderlo efficace:

  • Nella creazione di campagne phishing avanzate e di social engineering;
  • nell’individuare e sfruttare vulnerabilità in sistemi informatici, software e reti;
  • nella creazione e distribuzione di malware;
  • nello sfruttamento di vulnerabilità zero-day.

Approccio di contrasto multiplo e in continua evoluzione

L’IA è una spada a doppia lama. Mentre offre innumerevoli vantaggi, la sua applicazione malintenzionata è una realtà preoccupante. La comunità tecnologica e la società nel suo complesso dovrebbero lavorare insieme per sviluppare soluzioni e difese efficaci contro il lato oscuro dell’intelligenza artificiale, al fine di proteggere la sicurezza online e la fiducia nella tecnologia. Pertanto affrontare il lato oscuro dell’IA richiede un approccio multiplo. Le aziende e i governi dovrebbero investire nella ricerca di metodi di rilevamento di IA fraudolente e dannose, promuovendo inoltre la consapevolezza pubblica riguardo alle potenziali minacce legate all’IA e alle buone pratiche di sicurezza da adottare. La collaborazione tra governi, aziende tecnologiche e organizzazioni di sicurezza informatica è essenziale per sviluppare linee guida e normative che regolamentino l’uso responsabile dell’intelligenza artificiale. 

Riassumendo 

Per contrastare lo sfruttamento malevolo dell’intelligenza artificiale, è importante adottare diverse strategie e misure. Ecco un decalogo:

1. Regolamentazioni: I governi e le organizzazioni devono sviluppare regolamenti e normative specifiche per l’uso responsabile dell’IA, inclusi controlli sulla raccolta e l’uso dei dati.

2. Trasparenza: Le aziende che sviluppano e utilizzano l’IA dovrebbero essere trasparenti sulla loro tecnologia e sui dati che utilizzano, consentendo un audit pubblico.

3. Educazione e formazione: L’istruzione riguardo all’etica e all’uso responsabile dell’IA è fondamentale per gli sviluppatori, gli utenti e il pubblico in generale.

4. Valutazione dell’impatto sociale: Prima di implementare soluzioni basate sull’IA, è importante condurre valutazioni dell’impatto sociale per prevenire conseguenze negative.

5. Protezione dei dati: Assicurarsi che i dati siano adeguatamente protetti e che vengano rispettate le leggi sulla privacy.

6. Collaborazione internazionale: La cooperazione tra paesi e organizzazioni è fondamentale per affrontare le sfide globali legate all’IA.

7. Etica nell’IA: Promuovere lo sviluppo di linee guida etiche e codici di condotta per i professionisti dell’IA.

8. Sicurezza informatica: Rafforzare le misure di sicurezza informatica per prevenire l’uso malevolo dell’IA, ad esempio l’hacking di sistemi basati sull’IA.

9. Monitoraggio e audit: Creare meccanismi di monitoraggio e audit per identificare e prevenire l’abuso dell’IA.

10. Sensibilizzazione: Informare il pubblico sulle potenziali minacce dell’IA e sulle misure di protezione disponibili.

In conclusione

Sebbene l’intelligenza artificiale offra innumerevoli vantaggi, non possiamo ignorare il suo potenziale abuso. Modelli come FraudGPT e DarkBART mettono in evidenza la necessità di una vigilanza costante e di misure preventive per evitare che l’IA cada nelle mani sbagliate.

Uno scenario dunque tanto imprevedibile quanto inquietante. Anche perché CanadianKingpin12, con molta probabilità, non è l’unico attore malevolo che sta studiando il modo per sfruttare l’Intelligenza Artificiale e le sue enormi potenzialità per fini dannosi.

Hai qualche domanda?

Inviaci un messaggio