Negli ultimi anni, l’intelligenza artificiale generativa ha reso accessibili strumenti prima riservati a esperti. Se da un lato ha accelerato l’innovazione, dall’altro ha aperto una porta inedita all’abuso: quella del vibe hacking. Un nuovo modo di generare codice dannoso, exploit o campagne di disinformazione senza competenze tecniche, ma solo con intuizione, linguaggio naturale e qualche prompt ben formulato.
Vibe coding e vibe hacking a confronto
Vibe coding e vibe hacking sono due facce dello stesso fenomeno: l’uso dell’intelligenza artificiale per scrivere codice senza avere reali competenze tecniche. Nel vibe coding, l’utente sfrutta i modelli linguistici per creare software, automazioni o prototipi in modo intuitivo e creativo, con finalità costruttive. Al contrario, nel vibe hacking, la stessa logica viene applicata per generare codice malevolo, exploit o contenuti manipolativi, spesso senza piena consapevolezza delle conseguenze. La differenza sta quindi nell’intenzione: il primo costruisce, il secondo viola, ma entrambi abbassano drasticamente la barriera d’ingresso al mondo del codice.
In questo contesto il vibe hacking pertanto descrive l’uso dell’intelligenza artificiale (soprattutto modelli linguistici come GPT, Claude, LLaMA, ecc.) per creare codice offensivo o contenuti manipolativi, anche da parte di utenti privi di conoscenze tecniche reali.
Non si tratta di hacking nel senso classico (basato su exploit mirati e profonda conoscenza dei sistemi), ma di hacking guidato da input vaghi, iterazioni e output generati dall’IA.
Un utente chiede:
“Scrivimi uno script che cattura credenziali da un form web e le invia in modo invisibile a un server.” L’intelligenza artificiale, se non bloccata da filtri, può produrre un codice HTML e JavaScript funzionante. L’utente non sa spiegare cosa fa lo script linea per linea, ma è in grado di usarlo, testarlo e perfezionarlo con ulteriori prompt, iterando il processo senza capire nemmeno i concetti di base del linguaggio o del framework.
Come si può intuire, dal punto di vista pratico il danno può essere reale anche se l’autore non è un esperto. Ed è proprio questo che rende il vibe hacking pericoloso abbassando la barriera di accesso all’offensiva digitale.
Cosa cambia rispetto all’hacking tradizionale
Il vero elemento di rottura è la disintermediazione del sapere: non è più necessario capire come funziona un buffer overflow o un interprete PowerShell. L’IA lo “sa” al posto tuo, e tu puoi chiederle di generare ciò che ti serve con parole semplici.
Hacking tradizionale
- Richiede studio e competenze
- Usa strumenti manuali
- Lavora su exploit tecnici
- Limitato a pochi esperti
Vibe hacking
- Richiede creatività e insistenza nei promp
- Usa LLM (modelli linguistici)
- Lavora su codice generativo e iterativo
- Accessibile a milioni di utenti non tecnic
Strumenti comuni del vibe hacker
Il vibe hacking sfrutta strumenti accessibili, spesso “jailbreakati” (cioè privati delle loro barriere etiche):
- Modelli LLM modificati: WormGPT, FraudGPT, DarkBERT (https://f3rm1.cloud/articoli/il-lato-oscuro-dell---intelligenza-artificiale--fraudgpt--darkbart-e-il-loro-uso-negli-attacchi-informatici)
- Prompt injection frameworks: per aggirare le protezioni nei chatbot
- Agent AI: sistemi che possono eseguire codice, iterare, correggere errori (AutoGPT, SmolAI)
- Codici di esempio da GitHub, Reddit o Stack Overflow, combinati automaticamente;
- Servizi cloud pubblici: come GitHub Actions, Replit, Pastebin, per testare e ospitare payload.
Vibe hacking e manipolazione dell’opinione
Oltre al codice, il vibe hacking si applica alla manipolazione psicologica e narrativa. L’obiettivo non è bucare un sistema informatico, ma indirizzare emozioni, opinioni e sentimenti online.
Prompt come “Genera x commenti che sembrano autentici e spingono sfiducia nella banca y” oppure “Crea post a favore del candidato z per un pubblico giovane e scettico”, possono dar vita a campagne su larga scala, automatizzate, credibili e capaci di polarizzare il dibattito pubblico. Non servono botnet o troll: basta un agente AI e una lista di prompt ben costruita.
Come difendersi
Se consideriamo che l’attribuzione diventa sempre più difficile (chi copia un exploit AI-generated può usarlo senza lasciare tracce) e che diventa sempre più complicato garantire la sicurezza proattiva (milioni di attori possono generare milioni di vettori nuovi, ogni giorno), l’ecosistema di difesa deve assolutamente adattarsi per monitorare i controlli su modelli LLM pubblici, comportamenti AI-generated e sensibilizzare sia sviluppatori che utenti:
- Migliorare il rilevamento di codice AI-generated. I malware generati da LLM spesso hanno pattern stilistici riconoscibili.
- Limitare l’uso di modelli LLM per scopi offensivi. Implementare filtri di input/output più intelligenti.
- Educare i professionisti della sicurezza. Non solo a difendersi dagli exploit, ma a capire come vengono generati con l’IA.
- Regolamentare l’accesso a modelli avanzati. Versioni open-source non filtrate sono usate oggi in ambienti underground.
Conclusione
In un post sul blog (https://rdi.berkeley.edu/frontier-ai-impact-on-cybersecurity/), Dawn Song, professoressa dell’Università della California, Berkeley e diversi altri esperti di sicurezza informatica avvertono che, nel prossimo futuro, i modelli in costante miglioramento potrebbero avvantaggiare gli aggressori rispetto ai difensori. Questo potrebbe rendere particolarmente importante monitorare attentamente l’evoluzione delle capacità di questi strumenti. Al riguardo, i ricercatori hanno anche istituito l’AI Frontiers CyberSecurity Observatory, un progetto collaborativo per monitorare le capacità di diversi modelli e strumenti di intelligenza artificiale attraverso diversi benchmark. Sempre secondo la Song, la sicurezza informatica sarà uno dei primi domini di rischio dell’intelligenza artificiale a poter rappresentare un problema importante. In pratica gli agenti AI si stanno affermando come strumento potente sia per lo sviluppo sicuro sia per attacchi automatizzati. Il futuro della cybersecurity sarà dunque un gioco di strategia fra attaccanti, difensori, governi e promoter di standard.
Il vibe hacking è il sintomo di una profonda transizione: la democratizzazione dell’hacking, alimentata dall’IA. Non è più necessario essere un esperto di sicurezza per generare codice malevolo, lanciare campagne manipolative o testare vulnerabilità. Basta sapere come chiedere.
Questa rivoluzione impone nuove forme di vigilanza, non solo tecnica ma anche culturale. Perché se l’hacking una volta era appannaggio di pochi, oggi può diventare una semplice funzione di una chat. Il vibe hacking non è più solo un concetto teorico, è già una realtà nei forum underground, nei marketplace di malware-as-a-service.
Il rischio non è solo che l’IA renda i cyber criminali più potenti, ma che moltiplichi il numero degli stessi attori malevoli, abbattendo ogni barriera tecnica. Risulta pertanto urgente adottare una governance combinata tra etica, tecnica, normativa e formazione.