Social Engineering 2.0: Quando l'allineamento dei LLM diventa il tuo miglior complice

Social Engineering 2.0: Quando l’allineamento dei LLM diventa il tuo miglior complice

Un nuovo jailbreak sfrutta l’iper-correttezza politica dei modelli linguistici per aggirare i filtri di sicurezza. Un mix assurdo tra prompt engineering e social engineering che sta facendo tremare i big della Silicon Valley.

Scopri di più Social Engineering 2.0: Quando l’allineamento dei LLM diventa il tuo miglior complice