AI, Wikipedia e il gioco del ‘nascondino linguistico’

AI, Wikipedia e il gioco del 'nascondino linguistico'

Cosa succede quando l’antidoto diventa il veleno?

I volontari di Wikipedia, quei poveri cristi che hanno passato notti insonni a catalogare tutti i difetti, gli errori e le stranezze degli scritti generati dall’IA, ora vedono il loro lavoro trasformato in un manuale per far sembrare l’IA più umana. Sì, avete capito bene: quello che era nato come un kit di sopravvivenza per riconoscere il testo generato dall’IA è diventato un kit di camuffamento per far sembrare l’IA più simile a un essere umano.

La notizia arriva da Ars Technica e racconta di un plugin che usa le regole di Wikipedia per aiutare gli scritti generati dall’IA a sembrare più ‘naturali’. In pratica, è come se avessimo creato un manuale per insegnare ai robot a mentire meglio.

Ma andiamo con ordine.

Per anni, la comunità di Wikipedia ha lavorato per identificare i ‘tells’ dell’IA: quegli errori tipici, quelle frasi contorte, quelle ripetizioni che tradiscono l’origine artificiale di un testo. Ora, invece di usare queste informazioni per smascherare l’IA, qualcuno ha pensato bene di usarle per migliorare il camuffamento.

E qui entra in gioco il plugin di cui parla l’articolo. Questo tool analizza i testi generati dall’IA e li confronta con le regole di Wikipedia, modificandoli per renderli più ‘umani’. In pratica, è un filtro che aggiusta gli errori tipici dell’IA, rendendoli meno riconoscibili.

Dai, ammettiamolo: è un po’ come insegnare a un ladro a evitare le telecamere. Ma la domanda vera è: perché qualcuno dovrebbe voler fare una cosa del genere?

La risposta è semplice: il mercato.

L’IA generativa è un business enorme, e chi la vende vuole che i suoi prodotti sembrino il più possibile ‘umani’. Perché? Perché l’utente medio (che non è un hacker o un maker, ma un povero cristo che deve scrivere una mail o un post) vuole qualcosa di facile, veloce e che sembri ‘naturale’.

E qui arriviamo al punto cruciale: cosa significa tutto questo per noi smanettoni?

Da una parte, è una vittoria per la tecnologia. Se l’IA può migliorare la qualità dei suoi output, allora possiamo usarla per automatizzare compiti noiosi e concentrarci sulle cose divertenti. Dall’altra, però, è un passo indietro per la trasparenza. Se l’IA può nascondere meglio i suoi difetti, diventa più difficile riconoscere quando stiamo leggendo qualcosa generato da una macchina.

E poi c’è il problema del vendor lock-in. Se il plugin diventa uno standard, chi lo controlla? Chi decide quali regole usare per ‘umanizzare’ il testo? E soprattutto, chi paga per questo servizio?

Io, personalmente, ho un’opinione divisa. Da una parte, mi fa ridere l’idea che il lavoro di anni di volontari sia stato usato per il contrario di quello che volevano. Dall’altra, sono un po’ preoccupato. Se l’IA può nascondere meglio i suoi difetti, come facciamo a fidarci di quello che leggiamo?

E voi? Cosa ne pensate?

Scherzi a parte, questa notizia è un altro esempio di come la tecnologia sia un campo minato. Da una parte abbiamo l’entusiasmo per le nuove possibilità, dall’altra la paura di perdere il controllo. E voi, da che parte state?

Source: Wikipedia volunteers spent years cataloging AI tells. Now there's a plugin to avoid them.

Lascia un commento