Mentre voi stavate decidendo se mettere il like a un reel sui gattini, OpenAI e Anthropic hanno lanciato una corsa agli armamenti cyber che farebbe impallidire la Guerra Fredda. Solo che invece dei missili, stavolta ci sono modelli AI addestrati per bucare sistemi informatici. Che bello il progresso.

Cybersecurity AI arms race

Partiamo dal colpo grosso: Anthropic ha sganciato "Mythos", il suo modello frontier annunciato il 7 aprile, inserito nel cosiddetto "Project Glasswing" — un programma in cui organizzazioni selezionate possono usare l'AI per scovare vulnerabilità nei software. Il risultato? Ha già trovato "migliaia" di falle critiche in sistemi operativi, browser e altro software. Praticamente il sogno bagnato di ogni hacker, ma in versione "difensiva". Certo.

OpenAI, ovviamente, non poteva restare a guardare. A una settimana esatta dall'annuncio di Mythos, ha tirato fuori GPT-5.4-Cyber: una variante del suo modello di punta, fine-tuned specificamente per il lavoro di cybersecurity difensiva. Il modello verrà dato inizialmente solo a vendor di sicurezza verificati, organizzazioni e ricercatori — perché, citazione testuale, ha un "design più permissivo". Tradotto: può fare cose che normalmente un'AI non dovrebbe fare. Ma tranquilli, è per il bene comune.

E qui arriva la parte succosa. Trump ha bannato Anthropic dai contratti governativi dopo una disputa con il Pentagono. Fine della storia? Assolutamente no. Secondo Politico, agenzie federali USA stanno tranquillamente aggirando il ban per testare le capacità cyber di Mythos. Il Center for AI Standards del Dipartimento del Commercio sta attivamente provando il modello. Almeno tre commissioni del Congresso hanno chiesto briefing ad Anthropic nell'ultima settimana.

Il co-fondatore di Anthropic, Jack Clark, ha dichiarato al Semafor World Economy che l'azienda sta comunque parlando con l'amministrazione Trump riguardo a Mythos. Quindi: ti banno ufficialmente, ma poi ti chiamo di nascosto perché mi serve la tua tech. La diplomazia americana nel 2026, signore e signori.

Nel frattempo, OpenAI espande il suo programma "Trusted Access for Cyber" a migliaia di difensori verificati e centinaia di team che proteggono software critici. Chi viene approvato per il livello più alto ottiene accesso a GPT-5.4-Cyber, con meno restrizioni su task sensibili come la ricerca di vulnerabilità. Cosa potrebbe mai andare storto?

La vera domanda è: chi controlla chi controlla? Abbiamo due mega-corporation che sviluppano AI capaci di trovare (e potenzialmente sfruttare) falle di sicurezza in qualsiasi software, governi che fanno finta di regolamentare mentre usano le stesse tech di nascosto, e un ex presidente che banna aziende per poi farci affari sottobanco. Benvenuti nell'era della cybersecurity come servizio premium — solo per chi può permetterselo.