
Scommetto che anche voi, tra un setup di una CNC e l’altro, ogni tanto vi ritrovate intrappolati in un loop infinito di video senza senso alle tre di notte. Il problema è che, mentre per noi è solo un modo discutibile per sprecare tempo prezioso che potremmo usare per compilare codice o moddare un vecchio arcade, per i ragazzini la questione è decisamente più seria.
L’Unione Europea ha appena annunciato che sta aprendo un’inchiesta pesante contro i colossi dei social, con TikTok e Instagram nel mirino. Ursula von der Leyen è stata piuttosto netta: l’obiettivo è smascherare quei meccanismi di design studiati appositamente per creare dipendenza e trascinare i minori in ‘rabbit hole’ di contenuti tossici. In pratica, stanno dicendo ai big tech che l’ingegneria del software non può essere usata solo per massimizzare il tempo di permanenza sulla piattaforma a spese della salute mentale dei più piccoli.
Da smanettone, la cosa che mi manda in tilt non è tanto l’idea di limitare i contenuti cattivi, ma il concetto stesso di ‘addictive design’. Sappiamo tutti come funziona: algoritmi di raccomandazione che girano su modelli di machine learning ottimizzati per colpire le nostre dopamina-receptors. È pura ingegneria, ed è una figata tecnica, ma quando viene usata come una trappola per topi per i giovanissimi, diventa un problema etico enorme. È un po’ come se qualcuno progettasse un motore per una stampante 3D che, invece di depositare filamento, inizia a stampare l’idea che devi restare incollato alla macchina finché non ti esplode il cervello.
Certo, c’è il rischio che queste regolamentazioni diventino l’ennesimo esempio di sovra-regolamentazione burocratica che finisce per danneggiare solo l’innovazione o per creare dei workaround assurdi che solo chi sa usare una VPN o un proxy può aggirare. Per noi che amiamo smontare tutto, il rischio è che si passi dal ‘libertà di creare’ al ‘dobbiamo implementare filtri pesantissimi e intrusivi’ che rompono la privacy e il funzionamento fluido delle API.
Però, restiamo con i piedi per terra: se l’unico modo per proteggere i fragili è smettere di usare algoritmi predittivi basati sul puro sfruttamento psicologico, allora forse è ora di iniziare a pensare a un design che sia ‘human-centric’ e non ‘profit-centric’. In fondo, progettare un sistema che rispetta i limiti dell’utente è una sfida ingegneristica molto più interessante che creare un loop infinito di video di gattini e drama social. Speriamo solo che l’UE non finisca per rompere anche i tool che usiamo per far funzionare le cose in modo creativo.
Source: EU to crack down on TikTok, Instagram's 'addictive design' targeting kids
