Robot umanoide con volto digitale — l'intelligenza artificiale incontra la legge

Se c'è una cosa che Elon Musk sa fare bene, oltre a lanciare razzi e comprare piattaforme social, è fare causa. L'ultima della Serie A delle cause muskiane è una bellezza: xAI — la sua azienda di intelligenza artificiale — ha fatto causa al Colorado per bloccare la prima legge statale americana che regola l'AI. Il motivo? Secondo Musk & Co., la legge viola il Primo Emendamento. Ovviamente.

La legge che nessuno voleva (tranne chi doveva)

Il Senate Bill 24-205 del Colorado è in vigore da giugno e impone requisiti di trasparenza e mitigazione dei rischi agli sviluppatori di sistemi AI "ad alto rischio" — quelli usati per decisioni su lavoro, casa, educazione, sanità e servizi finanziari. In pratica: se un algoritmo decide se ti assumono, ti danno un mutuo o ti curano, il Colorado vuole che qualcuno spieghi perché e come.

Martello del giudice — la legge incontra l'intelligenza artificiale

xAI sostiene che la legge forzerebbe Grok, il suo modello di AI, a riflettere "le visioni del Colorado su diversità e discriminazione" invece di essere "obiettivo". Il che è un modo elegante per dire: il Colorado vuole che l'AI non sia razzista, e Musk preferisce che l'AI sia… libera di dire quello che vuole. Che poi è anche il punto centrale: chi decide cosa è "obiettivo"?

Il problema vero: patchwork vs. federazione

Ma la causa non è solo sul Primo Emendamento. xAI cita anche gli ordini esecutivi della Casa Bianca che criticano la regolamentazione statale frammentata dell'AI, e gli avvertimenti federali sui rischi per la sicurezza nazionale. Traduzione: Washington dice che il patchwork di leggi statali bowling l'innovazione, e xAI sta usando l'argomento federale per strangolare la legge statale.

È la classica mossa della big tech americana: non è che l'AI non debba essere regolata — è che deve essere regolata solo da chi sa dire "sì". E Washington, per ora, sta dicendo un sacco di sì.

La California guarda e aspetta

Robot umanoide con design futuristico blu — l'IA avanzata tra etica e regolamentazione

Dall'altra parte, il procuratore generale della California ha avvertito che non si può affidare solo al Congresso la regolamentazione dell'AI, ricordando gli anni di ritardo su privacy e tecnologia. E il suo stato ha già la sua inchiesta aperta su xAI (come abbiamo raccontato quando OpenAI fermava il Regno Unito mentre la Florida indagava).

Intanto, il Pentagono ha appena cacciato Anthropic dal suo programma di difesa (ne abbiamo parlato in "Il Pentagono caccia Anthropic: la guerra AI è appena cominciata"), e Anthropic stessa sta considerando di progettare chip propri per non dipendere da nessuno. La gara per il controllo dell'infrastruttura AI è totale — e la legge del Colorado è solo il primo vero campo di battaglia.

Perché dovreste preoccuparvi

Se xAI vince la causa, il messaggio sarà chiaro: nessuno stato può regolare l'AI. E Washington non ha ancora una legge federale. Il vuoto normativo diventerebbe un buco nero dove ogni azienda può fare quello che vuole, come se il genere umano fosse un gruppo di beta tester volunteei.

Se xAI perde, il Colorado diventa il modello per ogni altro stato che vuole mettere un paio di paletti alle macchine che prendono decisioni sulla vostra vita. E la lobby tech impazzirà.

In entrambi i casi, la vera domanda è chi decide il futuro dell'AI: gli Stati Uniti che si litigano tra governo federale e stati singoli, l'Europa che nel frattempo ha già la sua AI Act, o le aziende che fanno come loro pare? Per adesso, la risposta è: causa in corso, giudice in arrivo, futuro appeso.