Anthropic vs. Department of War: quando l’AI diventa un’arma a doppio taglio

Anthropic vs. Department of War: quando l'AI diventa un'arma a doppio taglio

Vi siete mai chiesti cosa succede quando l’esercito americano decide che la tua startup di AI è una minaccia per la sicurezza nazionale? Ecco, Anthropic lo sa bene.

La scorsa settimana, il Department of War ha etichettato Anthropic come ‘rischio per la catena di approvvigionamento’, un colpo basso che ha scatenato una tempesta di polemiche. Ma andiamo con ordine, perché questa storia è più contorta di un cavo ethernet annodato dopo una notte di hacking maratona.

Anthropic, l’azienda dietro il modello linguistico Claude, ha ricevuto una lettera ufficiale che la bolla come pericolo per la sicurezza. Secondo il CEO Dario Amodei, la cosa è assurda e legali sono già all’opera per contestare la decisione. Ma il punto interessante è che, anche se il governo potesse avere ragione, la legge è scritta in modo così stretto da limitare l’uso di Claude solo per contratti diretti con il Department of War.

Quindi, in pratica, il governo sta dicendo: ‘Sì, siete pericolosi, ma solo per noi, non per tutti gli altri’. Un po’ come dire a un ragazzino che il suo robot giocattolo è letale, ma solo se lo usa per giocare a palla con il preside.

Da smanettone, non posso fare a meno di notare quanto sia ironico che l’esercito americano, con tutto il suo budget e le sue risorse, stia facendo i capricci su una legge del 2017 (10 USC 3252) scritta in modo così vago da poter essere interpretata in mille modi diversi. Ma d’altronde, chi ha mai detto che i burocrati fossero bravi a scrivere codice?

Per noi maker e appassionati di AI, la domanda è: cosa significa tutto questo? Beh, intanto, se siete contractor del Department of War, preparatevi a qualche cambiamento. Ma per il resto del mondo, probabilmente non cambierà molto. Anche perché, come fa notare Amodei, la legge impone al governo di usare ‘i mezzi meno restrittivi necessari’, il che significa che non possono semplicemente bandire Anthropic senza una valida ragione.

Il vero problema, però, è che questa storia mostra ancora una volta come l’AI stia diventando un’arma a doppio taglio. Da una parte, abbiamo aziende che cercano di fare del bene (o almeno così dicono), dall’altra abbiamo governi che cercano di controllare tutto, spesso senza capire davvero come funzionano queste tecnologie.

E poi c’è la questione del vendor lock-in. Se il governo decide di bandire Anthropic, chi ne beneficia? OpenAI, ovviamente, che ha già siglato un accordo con il Pentagono. Un classico caso di ‘se non puoi batterli, fagli causa e spera che il governo li cacci dal mercato’.

In ogni caso, la situazione è ancora in evoluzione. Amodei ha promesso che Anthropic continuerà a supportare i warfighters per il tempo necessario, e ha anche presentato le scuse per un post interno trapelato che ha scatenato ulteriori polemiche. Insomma, un bel pasticcio.

Ma alla fine, cosa possiamo imparare da tutto questo? Che il mondo dell’AI è ancora un far west, e che, se volete costruire qualcosa di serio, è meglio farlo con le mani e non con le parole. Perché, come sappiamo tutti, la tecnologia è un gioco per chi ha il coraggio di sporcarsi le mani.

Source: Where things stand with the Department of War

Lascia un commento