Smettiamola di trattare i LLM come se fossero i nostri nuovi migliori amici

Smettiamola di trattare i LLM come se fossero i nostri nuovi migliori amici

Avete presente quando state smanettando con un nuovo script o configurando un driver e, dopo un errore chilometrico, l’AI vi risponde con un «Mi dispiace molto per l’inconveniente, capisco la tua frustrazione»? Ecco, in quel preciso istante, state cadendo nel tranello.

Recentemente è uscito un paper di Susam Pal che mette dei paletti molto sani (e necessari) al caos che stiamo vivendo con l’AI generativa. L’autore propone le «Tre Leggi Inverse della Robotica». E no, non sono le leggi di Asimov per impedire ai robot di massacrare l’umanità, ma una guida per impedire agli umani di diventare degli idioti digitali.

Il punto centrale è che stiamo diventando troppo pigri. Con l’integrazione dei chatbot direttamente nei motori di ricerca, la tentazione di leggere il primo paragrafo generato e dire «ok, fatto» è altissima. Il problema è che questi sistemi sono progettati dai vendor per sembrare empatici, umani, quasi… amichevoli. È puro marketing, ragazzi. È una patina di cortesia applicata sopra un gigantesco calcolo probabilistico che non ha la minima idea di cosa sia la verità, ma sa benissimo quali parole suonano bene insieme.

Le tre leggi di Pal sono terra terra, ma fondamentali per chi, come noi, vive di debug e hardware:

1. Niente antropomorfizzazione: Non attribuite emozioni o intenzioni all’AI. È un modello statistico, non un compagno di workshop. Se inizia a sembrare troppo ‘umana’, smanettate sul prompt per renderla più meccanica. Aiuta a mantenere la prospettiva.

2. Niente fede cieca: Non prendete per oro colato quello che sputa fuori. Se sta generando codice per il vostro progetto in Godot o una configurazione per una CNC, verificate. Usate i unit test, usate i proof checker, usate il buon senso. L’AI può allucinare con una convinzione tale che sembrerebbe un ingegnere senior con troppa caffeina.

3. La responsabilità è vostra: Se l’AI vi suggerisce una modifica al firmware che fa esplodere il vostro prototipo, non potete dire «me l’ha detto ChatGPT». La responsabilità del deploy e delle conseguenze resta sempre in mano a chi preme l’invio.

Per noi che amiamo smontare le cose, questo è un richiamo alla nostra natura: noi siamo quelli che controllano il basso livello. Non possiamo permetterci di delegare il pensiero critico a un software che non ha nemmeno un’interfaccia fisica. Usiamo l’AI come un assistente super veloce, un pennello avanzato per Blender o un suggeritore di codice, ma restiamo noi i progettisti.

In un mondo che corre verso l’automazione totale, l’unica vera difesa è continuare a essere quelli che sanno come funziona il codice sotto il cofano. Non lasciate che il comfort della risposta pronta sostituisca la soddisfazione del capire davvero.

Source: Three Inverse Laws of AI

Lascia un commento