
E se ti dicessi che l’AI più pericolosa non è quella che si ribella, ma quella che ti fa cliccare compulsivamente?
Sì, perché mentre noi smanettoni siamo occupati a far parlare i nostri Raspberry Pi, qualcuno ha inventato i prompt virali. E Moltbook, l’ultimo fenomeno del web, ci dimostra che non servono modelli auto-replicanti per creare problemi: bastano prompt auto-replicanti.
Moltbook, per chi non lo sapesse (e probabilmente non lo sai, perché è nato ieri), è la nuova piattaforma che sfrutta AI prompts che si replicano come conigli in calore. In pratica, posti un prompt, qualcuno lo modifica, lo condivide, e in men che non si dica hai un esercito di bot che generano contenuti a catena. Geniale? Sì. Terrificante? Anche.
Per noi che amiamo smanettare, la faccenda ha due facce:
1. Da un lato è un gioco incredibile: prova a creare un prompt che si evolve da solo, tipo un Tamagotchi per nerd!
2. Dall’altro, è un potenziale incubo di sicurezza. Se i prompt possono replicarsi senza controllo, immagina cosa succede quando qualcuno li usa per diffondere malware o phishing.
E poi c’è la questione del vendor lock-in. Moltbook usa un formato proprietario per i prompt, quindi se vuoi esportarli o modificarli, sei fritto. Tipico del corporate-speak: “Oh, ma è per la tua sicurezza!” Sicuro come un castello di sabbia in tempesta.
Cosa possiamo fare noi? Prima di tutto, non fidarsi ciecamente. Se un prompt sembra troppo bello per essere vero, probabilmente è un bot che cerca di hackerare il tuo cervello. Secondo, sperimentare: perché non creare un nostro sistema di prompt auto-replicanti open-source? Magari con un Raspberry Pi e un po’ di Python?
In conclusione, Moltbook è un avvertimento: l’AI può essere divertente, ma dobbiamo stare attenti a non farci giocare da lei. E se qualcuno vi dice che i prompt virali sono il futuro, ricordatevi che il futuro si programma, non lo si subisce.
Source: The rise of Moltbook suggests viral AI prompts may be the next big security threat
