Oggi è stato divulgato l'Open Letter Autonomous Weapons un documento interessante.
L'approccio però, a mio parere , è tragicamente sbagliato per la sua impostazione utopistica, tipica degli "addetti ai lavori".
Se, infatti, da un punto di vista etico, chiedere a tutti di NON sviluppare armamenti che possano prendere decisioni autonome (cioè, in pratica, armi robotiche) può essere un punto di vista condivisibile, fa però a pugni con gli ultimi millenni di storia umana.
Da quando esiste come essere senziente, l'uomo ha sempre fatto qualuque cosa fosse in grado di fare.
Non anche quelle più nefaste, soprattutto quelle più nefaste, figuriamoci se l'argomento sono gli armamenti.
Quale che sia l'ambito, comunque, se una cosa si può tecnicamente fare, qualcuno sicuramente la farà.
L'approccio più pragmatico e secondo me vincente, qualunque sia l'argomento, è sempre quello di governare un fenomeno, mettere dei paletti, escogitare dei sistemi di controllo, piuttosto che ignorarlo oppure cercare di eliminarlo totalmente.
Questo non evita i rischi, al massimo permette di circoscriverli, ma la storia ci insegna che non si è mai risuciti a fare nulla di più, mentre spesso, cercando di reprimere ciò che era indesiderato, si è finiti per renderlo incontrollabile, generando danni ben maggiori.
Nel caso specifico il problema dei controlli e dei paletti è certamente di non facile soluzione, infatti il 99% del problema è legato allo sviluppo di software di controllo e porre dei paletti in questo campo è quanto mai difficile.
Sappiamo però, ad esempio, che qualunque apparecchiatura che faccia girare del software ha necessità di essere alimentata elettricamente e, se è sufficientemente sofisticata e deve essere sufficientemente veloce, il consumo di corrente sarà piuttosto significativo.
Come spunto posso dire che mi sembra più facilmemte controllabile la produzione di batterie, non è facile produrre batterie potenti e performanti, ad oggi.
Se le batterie avessero un proprio software a bordo che permetta di inibirne le funzionalità se l'apparecchiatura che richiede energia non risponde a determinati controlli che certifichino che agisce secondo criteri etici chiari e adottati a livello internazionale, potrebbe essere un approccio che può dare un livello minimo di garanzia per ora accettabile.
Immaginiamo una batteria che ha una componente software, che controlla un qualche tipo di "impronta" fornita dall'apparecchio che deve alimentare e, se non corrisponde, si "disabilita" in modo permanente, con un ente sovranazionale che controlla chi sviluppa software per armi e, se eticamente accettabile, fornisce il codice di sblocco delle batterie.
martedì 28 luglio 2015
venerdì 10 luglio 2015
Scienza etica e spyware, malware & co.
Il recente episodio di hackeraggio di una società che vendeva, in modo forse spregiudicato, uno spyware in grado di fare registrazioni ambientali da cellulare, di monitorare l'attività dei pc e, forse, anche di caricare false prove su dispositivi sotto controllo, pone dei problemi etici che ancora nessuno ha affrontato seriamente.
Il software, tutto il software, è, in ultima analisi, un robot, sprovvisto però di una qualsiasi etica.
In particolare questo software, ma ne esistono moltissimi altri, compie azioni già di per sè stesse eticamente discutibili e, almeno in alcuni stati, penalmente perseguibili.
In aggiunta, sia perché venduto coscientemente, sia perché utilizzato da malintenzionati, può essere stato o venire utilizzato in futuro, invece che dalle forze dell'ordine o assimilabili, da chiunque ne entri in possesso.
Chi decide e in base a quali criteri quali sono le operazioni eticamente accettabili che un software può compiere?
Chi e in quali situazioni può essere autorizzato e da chi all'utilizzo di strumenti di questo tipo?
Considerando la relativa facilità con cui è stata hackerata la società che produceva questo software, come anche in passato era già successo ad altre società simili, la materia è a dir poco esplosiva.
In questo caso però, a mio parere, la soluzione è estremamente semplice: non dovrebbe essere permessa la creazione di software a codice chiuso, cioè, tutto il software dovrebbe essere open source.
Solo la possibilità per chiunque di controllare qualunque software in circolazione pone le basi reali per la nascita e l'implementazione di una scienza etica ad hoc per il software.
Il software, tutto il software, è, in ultima analisi, un robot, sprovvisto però di una qualsiasi etica.
In particolare questo software, ma ne esistono moltissimi altri, compie azioni già di per sè stesse eticamente discutibili e, almeno in alcuni stati, penalmente perseguibili.
In aggiunta, sia perché venduto coscientemente, sia perché utilizzato da malintenzionati, può essere stato o venire utilizzato in futuro, invece che dalle forze dell'ordine o assimilabili, da chiunque ne entri in possesso.
Chi decide e in base a quali criteri quali sono le operazioni eticamente accettabili che un software può compiere?
Chi e in quali situazioni può essere autorizzato e da chi all'utilizzo di strumenti di questo tipo?
Considerando la relativa facilità con cui è stata hackerata la società che produceva questo software, come anche in passato era già successo ad altre società simili, la materia è a dir poco esplosiva.
In questo caso però, a mio parere, la soluzione è estremamente semplice: non dovrebbe essere permessa la creazione di software a codice chiuso, cioè, tutto il software dovrebbe essere open source.
Solo la possibilità per chiunque di controllare qualunque software in circolazione pone le basi reali per la nascita e l'implementazione di una scienza etica ad hoc per il software.
Etichette:
algoritmo,
algortmi,
hacker,
hackeraggio,
malware,
open source,
scienza etica,
spyware
venerdì 3 luglio 2015
Il robot "assassino"
http://www.hna.de/kassel/kreis-kassel/baunatal-ort312516/roboter-toetet-arbeiter-vw-werk-5191637.html
http://www.ft.com/fastft/353721/worker-killed-volkswagen-robot-accident
http://www.repubblica.it/esteri/2015/07/02/news/robot_uccide_operaio_in_fabbrica_wolksvagen-118121393/?ref=HREC1-13
Anche se questo fatto appare come una probabile disattenzione o un errore umano, più che come un omicidio robotico, resta il fatto che, senza ombra di dubbio, chi ha progettato questo robot non ha ritenuto necessario dotarlo di accorgimenti, hardware e software, tali da permettergli di evitare un simile incidente.
Sicuramente questi accorgimenti ne avrebbero aumentato i costi di produzione, sicuramente questa è una scelta eticamente discutibile che, oggettivamente, ha fatto compiere al robot un errore fatale per un essere umano.
Anche se per vie traverse, nel modo sbagliato, sensazionalistico e poco approfondito, come sempre fanno gli organi di informazione, è bene che, in un qualche modo, si ponga all'attenzione del grande pubblico un problema come quello della nascita di una scienza etica.
Speriamo che i discorsi intorno a questo argomento si facciano più profondi e, allo stesso tempo, più concreti.
Iscriviti a:
Post (Atom)