Cybersecurity AI

OpenAI lancia GPT-5.4 Cyber: difesa digitale scalabile

Schermata dell'interfaccia di verifica per il programma Trusted Access for Cyber di OpenAI, con il logo GPT-5.4 Cyber.

GPT-5.4 Cyber è la nuova variante del modello OpenAI lanciata il 14 aprile 2026,pensata specificamente per la cybersecurity difensiva. Con l'espansione del programmaTrusted Access for Cyber (TAC), migliaia di difensori verificati possono ora accedere a capacità avanzate con restrizioni ridotte rispetto alla versione standard.

La notizia non riguarda un nuovo modello in senso stretto, ma un cambiamento nel modo in cui OpenAI gestisce le capacità dual-use — strumenti utilizzabili sia in difesa che in attacco. Per la prima volta l'azienda produce una versione deliberatamente più permissiva delle proprie restrizioni di sicurezza, concedendola non a tutti, ma a un gruppo selezionato di professionisti verificati. È un precedente operativo, non solo tecnico, che ridefinisce il confine tra apertura e controllo nelle applicazioni AI per la sicurezza.

Come funziona GPT-5.4 Cyber

GPT-5.4-Cyber è una variante di GPT-5.4 — classificato come modello ad “alta capacità cyber” nel Preparedness Framework di OpenAI, il sistema interno che valuta i rischi dei modelli prima del rilascio — con una soglia di rifiuto abbassata per le attività legittime di cybersecurity. In pratica, il modello accetta richieste che la versione standard bloccherebbe, come l'analisi di codice potenzialmente malevolo o l'esplorazione di vettori di attacco all'interno di contesti strettamente difensivi.

La capacità aggiunta più rilevante è la binary reverse engineering — l'analisi di software compilato senza accesso al codice sorgente. Un professionista della sicurezza può caricare un eseguibile sospetto e chiedere al modello di identificare vulnerabilità, potenziale malware e valutazioni di robustezza. Si tratta di un'operazione che fino a ieri richiedeva tool specialistici come IDA Pro o Ghidra e ore di lavoro manuale, ora compressa in una singola interazione conversazionale.

Il percorso che ha portato a questo punto non è improvviso. OpenAI ha iniziato con il cyber-specific safety training su GPT-5.2, ha aggiunto safeguard aggiuntive con GPT-5.3-Codex, e con GPT-5.4 ha introdotto la classificazione “high” per le capacità cyber. Ogni rilascio ha progressivamente abbassato le barriere per i difensori, ma GPT-5.4-Cyber segna il primo salto verso un modello progettato esplicitamente per essere più permissivo, non solo meno restrittivo.

In parallelo, OpenAI ha condiviso dati aggiornati su Codex Security, l'agente che scansiona automaticamente repository GitHub, valida vulnerabilità in ambiente sandbox e propone patch senza modificare direttamente il codice. Dal lancio, Codex Security ha contribuito alla risoluzione di oltre 3.000 vulnerabilità classificate come critiche o ad alta priorità, e ha raggiunto oltre 1.000 progetti attraverso il programma Codex for , che offre scansioni di sicurezza gratuite.

“Non è pratico né appropriato decidere centralmente chi debba difendersi. Il nostro obiettivo è abilitare quanti più difensori legittimi possibile, con accesso fondato su verifica, segnali di trust e responsabilità.” — OpenAI, annuncio ufficiale del 14 aprile 2026

Il sistema di accesso verificato

Il programma TAC, lanciato in forma iniziale a febbraio 2026, si articola ora su più livelli. Al livello base, i singoli utenti possono verificare la propria identità su chatgpt.com/cyber e ottenere versioni dei modelli esistenti con meno attriti legati alle safeguard che bloccano automaticamente richieste ritenute a rischio. Il processo si basa su KYC forte e verifica identitaria, con criteri dichiaratamente oggettivi e automatizzabili per evitare decisioni arbitrarie su chi merita accesso legittimo.

I livelli superiori, accessibili tramite ulteriore autenticazione, sbloccano GPT-5.4-Cyber. OpenAI non ha pubblicato criteri dettagliati per i tier più alti, ma specifica che l'accesso è riservato a vendor di sicurezza verificati, organizzazioni e ricercatori con segnali di trust chiari. Le aziende possono richiedere l'accesso per i propri team attraverso il proprio rappresentante OpenAI.

Un dettaglio operativo rilevante: l'accesso ai modelli più permissivi potrebbe non essere disponibile in modalità Zero-Data Retention (ZDR), soprattutto per chi accede tramite piattaforme terze dove OpenAI ha meno visibilità diretta sull'utente, sull'ambiente e sullo scopo della richiesta. Questo significa che per usare GPT-5.4-Cyber al massimo delle sue capacità, alcuni team dovranno accettare che OpenAI possa trattare i dati inviati.

I limiti che contano

L'approccio di OpenAI non è esente da fragilità. A marzo 2026, i ricercatori di BeyondTrust hanno divulgato una vulnerabilità di command injection in Codex che consentiva il furto di token GitHub sfruttando nomi di branch Git con caratteri Unicode invisibili. L'incidente, classificato come Critical Priority 1 e corretto in più round, dimostra che un modello più permissivo amplia anche la superficie di attacco dell'infrastruttura stessa.

Il modello di accesso a tier crea poi un punto di attrito per i professionisti indipendenti e per le organizzazioni più piccole, esattamente quelle che — secondo i principi dichiarati da OpenAI — dovrebbero beneficiare dell'accesso democratizzato. La verifica forte rischia di favorire chi ha già relazioni commerciali dirette con l'azienda. Non è un problema esclusivo di OpenAI: Anthropic sta seguendo un percorso simile con Claude Code Security, ma attraverso partnership istituzionali come quella con il Pacific Northwest National Laboratory, piuttosto che programmi di accesso aperti.

Perché conta per l'Italia

Per i team di sicurezza italiani che operano nella protezione di infrastrutture critiche e servizi pubblici, il dato concreto è questo: un programma come TAC rende accessibili capacità prima riservate a pochi laboratori di ricerca, ma al prezzo di una visibilità potenzialmente ridotta sui dati processati. Le aziende soggette a NIS2 e DORA dovranno valutare attentamente se l'uso di GPT-5.4-Cyber — potenzialmente senza garanzie di ZDR — sia compatibile con gli obblighi normativi sul trattamento dei dati e con le policy di sicurezza interna. Il programma è accessibile da oggi, ma la decisione su come integrarlo nei flussi di lavoro esistenti spetta ai singoli responsabili.

Fonte:

OpenAI, Trusted access for the next era of cyber defense, 14 aprile 2026.

Potrebbe interessarti

AI Generativa

21 Apr 2026

READ TIME : 7 MIN

Kimi K2.6: il modello open-source di Moonshot AI guida i benchmark agentic con 300 sub-agent e 13 ore di coding autonomo

Kimi K2.6 di Moonshot AI supera GPT-5.4 e Claude su HLE-Full con 54.0. Open-source, 300 sub-agent, 13 ore di coding autonomo: cosa cambia per i team italiani.

C. Petrolillo

Business e Mercati

21 Apr 2026

READ TIME : 9 MIN

Allarme carenza memorie DRAM 2027: l'IA divora i wafer

Carenza memorie DRAM 2027: Nikkei segnala il 60% della domanda soddisfatta, SK Group estende il deficit al 2030. Cause HBM, prezzi e risposta industriale UE.

C. Petrolillo

Business e Mercati

20 Apr 2026

READ TIME : 5 MIN

California: analisi dei documenti antitrust amazon su pratiche di mercato

Scopri cosa rivelano i documenti antitrust amazon nella causa statale. Analisi dettagliata delle email interne, dinamiche di pricing e nuove sfide regolatorie per i tech giant.

C. Petrolillo