
E se ti dicessi che il vero ostacolo ai tuoi progetti con i modelli di linguaggio non è il modello in sé, ma quel maledetto ‘cavalletto’ che lo tiene su? Sì, proprio così: stiamo parlando dell’interfaccia, quella cosa apparentemente banale che fa da ponte tra te e l’AI.
Un recente articolo su Hacker News ha scatenato un dibattito che dovrebbe far riflettere tutti noi smanettoni: e se il problema non fosse GPT-5.3 vs. Opus, ma piuttosto il modo in cui interagiamo con questi modelli?
L’autore, Can Bölük, ha preso 15 modelli diversi e li ha testati con tre strumenti di editing diversi. Il risultato? Cambiando solo l’interfaccia di editing, ha migliorato le performance di alcuni modelli fino a 10 volte. Grok Code Fast 1, ad esempio, è passato dal 6,7% al 68,3% di successo.
Ma cosa significa questo per noi, che passiamo le notti a smanettare con Python e Arduino? Significa che forse stiamo sprecando un sacco di tempo a cercare il modello perfetto, quando invece dovremmo concentrarci su come lo usiamo.
Pensa alla tua ultima sessione di coding: quanti errori sono stati causati dal modello e quanti invece dal modo in cui hai cercato di fargli fare quello che volevi?
Il problema è ancora più evidente quando si parla di vendor lock-in. Anthropic e Google stanno cercando di chiudere gli sviluppatori nei loro ecosistemi, bloccando progetti open-source come OpenCode. Ma è una strategia miope: come dice Bölük, ‘bruciare i ponti significa che meno persone si prenderanno la briga di attraversarli’.
La soluzione? Sostenere progetti open-source come oh-my-pi, che cercano di ottimizzare l’interfaccia per tutti i modelli, non solo per uno.
In conclusione, la prossima volta che il tuo modello sembra fare schifo, chiediti: è davvero il modello il problema, o è il cavalletto che lo tiene su?
Source: Improving 15 LLMs at Coding in One Afternoon. Only the Harness Changed
