
Immagina di programmare un algoritmo di tiro automatico. Ora immagina che quel codice venga usato per sparare 900 proiettili in pochi minuti. Ecco cosa è successo secondo un rapporto choc.
Earshot e Forensic Architecture hanno ricostruito con precisione chirurgica la strage di operai umanitari a Gaza nel 2025. 15 morti, 900 colpi, distanze ravvicinate. Numeri che fanno venire i brividi, soprattutto quando pensi che dietro ci sono sistemi automatizzati e protocolli militari.
Da smanettoni, ci viene spontaneo chiedersi: quanto controllo umano c’è in situazioni del genere? Quanti livelli di approvazione servono per trasformare un software di targeting in un’arma letale? E soprattutto, chi scrive il codice sa davvero dove finisce il suo lavoro?
Per noi che passiamo le notti a far comunicare Arduino con Raspberry Pi, la lezione è chiara: la tecnologia è neutra finché non diventa strumento. Un sensore può misurare la temperatura di una stanza o guidare un missile. La differenza la fa l’etica di chi lo usa.
Il rapporto cita “precisione letale” ma noi sappiamo bene che ogni sistema ha i suoi bug, i suoi margini di errore. E quando parliamo di vite umane, anche l’1% di errore è inaccettabile. Forse è ora di chiedersi se certi algoritmi dovrebbero mai essere automatizzati.
Per finire, una riflessione amara: mentre noi ci divertiamo a programmare giochini con Godot, altri scrivono codice che decide chi vive e chi muore. La tecnologia è democratica, ma l’accesso al suo uso no. E questo è un problema che va ben oltre il nostro laboratorio di elettronica.
Source: IDF killed Gaza aid workers at point blank range in 2025 massacre: Report
