Claude il cavernicolo: quando l’AI parla come un Neanderthal (e risparmia un botto)

Claude il cavernicolo: quando l'AI parla come un Neanderthal (e risparmia un botto)

Se pensavi che l’AI dovesse per forza fare la professorona con le frasi lunghe e i giri di parole, Julius Brussee ti presenta il Caveman: il plugin che fa parlare Claude come un uomo delle caverne.

La premessa è geniale: perché usare 69 token quando 19 bastano e avanzano? Il Caveman riduce le risposte tecniche del 75% mantenendo precisione assoluta. E la scienza gli dà ragione: uno studio del 2026 dimostra che costringere i modelli a essere concisi migliora l’accuratezza del 26%.

Da smanettone, apprezzo l’approccio minimalista. Niente fronzoli, niente “I’d be happy to help” che mangiano token inutilmente. Solo il succo tecnico, come un buon commento su GitHub: diretto, senza inutili convenevoli. Il Caveman cancella articoli, convenevoli e tutte quelle frasi di cortesia che sembrano pensate per riempire spazio.

Per noi maker e hacker, questo significa:
– Risparmio concreto sui costi API
– Risposte più veloci (e chi non ha mai maledetto i tempi di attesa di un modello linguistico?)
– Code review trasformate in sitcom
– La possibilità di sprecare meno token in stupidaggini e dedicarli a progetti più seri

Certo, non è perfetto. Non tutti amano lo stile telegrafico, e qualche volta una spiegazione più articolata è necessaria. Ma per chi lavora con LLM, è una rivoluzione.

Installazione? Facilissima: un comando e via. E se ti stanchi del Neanderthal, basta chiedere di tornare in modalità normale.

La mia domanda sorge spontanea: ma perché non abbiamo pensato a questo prima? Forse perché eravamo troppo impegnati a scrivere documentazione dettagliata per le nostre API…

Source: Caveman: Why use many token when few token do trick

Lascia un commento