AI Delegation: l’arte di rompere le cose senza nemmeno accorgersene

AI Delegation: l'arte di rompere le cose senza nemmeno accorgersene

Avete presente quella sensazione di soddisfazione quando il vostro script Python gira al primo colpo senza lanciare una valanga di eccezioni? Ecco, dimenticatela, perché l’era dell’automazione ‘delegata’ sta per trasformare i vostri file in un campo minato di errori silenti.

Un recente paper (arXiv:2504.15597) ha appena lanciato una bomba che non rispetta affatto l’hype da conferenza Apple. I ricercatori hanno testato quello che chiamano ‘DELEGATE-52’, un framework per vedere quanto siano affidabili i modelli quando gli diamo in mano compiti lunghi e complessi in ben 52 domini diversi, dal coding alla cristallografia. Il verdetto? I nostri amati LLM sono dei pessimi assistenti che, mentre pensano di aiutarci, stanno segretamente corrompendo i nostri dati.

La cosa assurda è che non parliamo di modelli mediocri che girano su un Raspberry Pi 1. No, parliamo dei pesi massimi: Gemini 3.1 Pro, Claude 4.6 Opus e persino GPT 5.4. Questi mostri della Silicon Valley, in media, corrompono il 25% del contenuto dei documenti alla fine di workflow prolungati. E la cosa peggiore è che gli errori sono ‘sparsi ma gravi’. Non è che il programma crasha e ti avvisa con un log rosso fuoco; è che il modello cambia una riga di codice, altera una nota musicale o modifica una coordinata cristallografica in modo quasi impercettibile. È il classico bug che scopri tre mesi dopo, quando tutto il progetto è già andato a rotoli.

Da smanettoni, noi siamo abituati a debuggare. Se un motore CNC sballa di un millimetro, lo troviamo controllando i file G-code. Ma se l’intelligenza artificiale che sta scrivendo il codice o gestendo i parametri del modello 3D introduce errori ‘silenti’, il debugging diventa un incubo allucinante. Il paper dice chiaramente che l’uso di tool agentici non risolve nemmeno il problema e che la situazione peggiora se i file sono grandi o se ci sono distrazioni nel contesto.

Quindi, cosa significa per noi che amiamo mettere le mani in pasta? Significa che il ‘vibe coding’ — quel modo di programmare basato più sull’intuito e sul linguaggio naturale che sulla logica rigorosa — è un suicidio tecnico se applicato a documenti critici. Possiamo continuare a divertirci con l’AI per generare boilerplate o bozze creative, ma se state delegando la gestione di un database o la generazione di istruzioni per una macchina CNC, tenete le mani sul volante.

Non lasciate che l’hype dei big tech vi convinca che l’automazione totale sia pronta. Per ora, l’AI è un collaboratore creativo brillante, ma con la tendenza alla distruttività di un bambino che gioca con i LEGO senza leggere le istruzioni. Verificate sempre l’output. Sempre.

Source: LLMs corrupt your documents when you delegate

Lascia un commento