
Ti sei mai chiesto come sarebbe avere un robot che scrive la tua tesi di laurea? Non sto parlando di correggere qualche frase, ma di generare un testo completo, con bibliografia e tutto. Bene, questa è la realtà di oggi.
Un recente esperimento ha dimostrato che ChatGPT riesce a produrre tesi scientifiche di livello accademico, tanto da ingannare anche i docenti più esperti. Ma cosa significa questo per la ricerca e per chi, come noi, ama mettersi le mani in pasta?
Da una parte, è affascinante vedere quanto sia migliorata l’IA. Basta dire “Scrivi una tesi sul comportamento dei delfini” e il bot ti consegna un testo ben strutturato, con citazioni e grafici. È come avere un ghostwriter scientifico sempre a disposizione.
Ma dall’altra, questo solleva seri dubbi. Se chiunque può produrre un testo apparentemente valido con pochi click, dove finisce il confine tra scienza e fiction? E soprattutto, cosa significa per chi vuole davvero capire, sperimentare e scoprire?
Il problema non è solo etico: se l’IA scrive per noi, perdiamo la capacità di ragionare criticamente. È come imparare a guidare guardando Netflix. Sure, vedi come si fa, ma non sai davvero cosa succede quando l’auto davanti a te frena di colpo.
E poi c’è la questione del vendor lock-in. Se tutti usano gli stessi modelli, chi decide cosa è “corretto”? Amazon, Google o Microsoft? Non sembra proprio il futuro della scienza aperta che molti di noi vorrebbero.
Per fortuna, non siamo ancora arrivati a un punto di non ritorno. L’IA può essere un ottimo strumento, ma come per un martello, serve una mano esperta per usarla bene. Il consiglio? Usala per scrivere codice, correggere bozze o trovare fonti, ma non per sostituire il tuo cervello.
In fondo, la scienza non è solo raccogliere dati e fare grafici. È curiosità, dubbio, sperimentazione. E queste sono cose che nessun bot può replicare, almeno per ora.
Source: The threat is comfortable drift toward not understanding what you're doing
