Israeli Defense Forces e la precisione letale: quando la tecnologia diventa arma di guerra

Israeli Defense Forces e la precisione letale: quando la tecnologia diventa arma di guerra

Immagina di programmare un algoritmo di tiro automatico. Ora immagina che quel codice venga usato per sparare 900 proiettili in pochi minuti. Ecco cosa è successo secondo un rapporto choc.

Earshot e Forensic Architecture hanno ricostruito con precisione chirurgica la strage di operai umanitari a Gaza nel 2025. 15 morti, 900 colpi, distanze ravvicinate. Numeri che fanno venire i brividi, soprattutto quando pensi che dietro ci sono sistemi automatizzati e protocolli militari.

Da smanettoni, ci viene spontaneo chiedersi: quanto controllo umano c’è in situazioni del genere? Quanti livelli di approvazione servono per trasformare un software di targeting in un’arma letale? E soprattutto, chi scrive il codice sa davvero dove finisce il suo lavoro?

Per noi che passiamo le notti a far comunicare Arduino con Raspberry Pi, la lezione è chiara: la tecnologia è neutra finché non diventa strumento. Un sensore può misurare la temperatura di una stanza o guidare un missile. La differenza la fa l’etica di chi lo usa.

Il rapporto cita “precisione letale” ma noi sappiamo bene che ogni sistema ha i suoi bug, i suoi margini di errore. E quando parliamo di vite umane, anche l’1% di errore è inaccettabile. Forse è ora di chiedersi se certi algoritmi dovrebbero mai essere automatizzati.

Per finire, una riflessione amara: mentre noi ci divertiamo a programmare giochini con Godot, altri scrivono codice che decide chi vive e chi muore. La tecnologia è democratica, ma l’accesso al suo uso no. E questo è un problema che va ben oltre il nostro laboratorio di elettronica.

Source: IDF killed Gaza aid workers at point blank range in 2025 massacre: Report

Lascia un commento