Oggi è stato divulgato l'Open Letter Autonomous Weapons un documento interessante.
L'approccio però, a mio parere , è tragicamente sbagliato per la sua impostazione utopistica, tipica degli "addetti ai lavori".
Se, infatti, da un punto di vista etico, chiedere a tutti di NON sviluppare armamenti che possano prendere decisioni autonome (cioè, in pratica, armi robotiche) può essere un punto di vista condivisibile, fa però a pugni con gli ultimi millenni di storia umana.
Da quando esiste come essere senziente, l'uomo ha sempre fatto qualuque cosa fosse in grado di fare.
Non anche quelle più nefaste, soprattutto quelle più nefaste, figuriamoci se l'argomento sono gli armamenti.
Quale che sia l'ambito, comunque, se una cosa si può tecnicamente fare, qualcuno sicuramente la farà.
L'approccio più pragmatico e secondo me vincente, qualunque sia l'argomento, è sempre quello di governare un fenomeno, mettere dei paletti, escogitare dei sistemi di controllo, piuttosto che ignorarlo oppure cercare di eliminarlo totalmente.
Questo non evita i rischi, al massimo permette di circoscriverli, ma la storia ci insegna che non si è mai risuciti a fare nulla di più, mentre spesso, cercando di reprimere ciò che era indesiderato, si è finiti per renderlo incontrollabile, generando danni ben maggiori.
Nel caso specifico il problema dei controlli e dei paletti è certamente di non facile soluzione, infatti il 99% del problema è legato allo sviluppo di software di controllo e porre dei paletti in questo campo è quanto mai difficile.
Sappiamo però, ad esempio, che qualunque apparecchiatura che faccia girare del software ha necessità di essere alimentata elettricamente e, se è sufficientemente sofisticata e deve essere sufficientemente veloce, il consumo di corrente sarà piuttosto significativo.
Come spunto posso dire che mi sembra più facilmemte controllabile la produzione di batterie, non è facile produrre batterie potenti e performanti, ad oggi.
Se le batterie avessero un proprio software a bordo che permetta di inibirne le funzionalità se l'apparecchiatura che richiede energia non risponde a determinati controlli che certifichino che agisce secondo criteri etici chiari e adottati a livello internazionale, potrebbe essere un approccio che può dare un livello minimo di garanzia per ora accettabile.
Immaginiamo una batteria che ha una componente software, che controlla un qualche tipo di "impronta" fornita dall'apparecchio che deve alimentare e, se non corrisponde, si "disabilita" in modo permanente, con un ente sovranazionale che controlla chi sviluppa software per armi e, se eticamente accettabile, fornisce il codice di sblocco delle batterie.
Nessun commento:
Posta un commento