martedì 25 agosto 2015

Robot Razzisti

Un aspetto interessante dell'avvento dei robot è il fenomeno del razzismo, inteso in senso generico come immotivati favori o disfavori ad un determinato gruppo, che sia etnico, religioso, sessuale, etc.
Già oggi si fa largo uso di algoritmi ad apprendimento automatico, un tempo genericamente chiamati sistemi esperti, in generale raramente si intende far riferimento ad algoritmi relamente in grado di auto-riprogrammarsi, piuttosto a comportamenti adattivi dell'algoritmo sulla base dell'esperienza dei dati passati e dei successi o dei fallimenti.
Questo tipo di robot vengono largamente utilizzati proprio in situazioni fortemente a rischio, in particolare nella pre-selezione del personale.
Il problema è intrinseco e legato al processo stesso di auto-apprendimento. Se, infatti, la valutazione della bontà della pre-selezione di una short list di candidati viene valutata da esseri umani con intenti, anche inconsciamente, discriminatori, il programma affinerà la propria capacità di selezione orientandosi verso quel tipo di discriminazione andando, molto probabilmente, per la sua stessa intrinseca efficienza, al di là delle intenzioni e della pratica del o degli esseri umani che ne valutano le performance.
Esemplificando, se un HR manager riceve 10.000 cv e di questi il robot ne seleziona 20 e ha un feedback positivo su 10 di questi, tutti più alti di 180 cm, tenderà, man mano, a selezionare persone al di sopra di quella statura.
Questo naturalmente nell'ipotesi che sia l'algoritmo che l'HR manager siano in buona fede e ciò avvenga per una discriminazione incoscia nel soggetto umano e non programmata nell'algoritmo.
D'altra parte queste caratteristiche di rischio intrinseco nel metodo possono essere, anche in modo sottile, acuite da una programmazione apposita dell'algoritmo e/o da richieste e feedback faziosi del soggetto umano.
Più sottilmente infatti, ad esempio, da un dato apparentemente neutro come lo sport preferito, in USA potebbe essere favorita una certa nazionalità ancestrale, senza chiedere mai dati sensibili come appunto le origini del candidato.
In linea generale (come ben spiegato qui: Programming and Prejudice) , se un algoritmo è in grado di stabilire un dato sensibile, potenzialmente discriminatorio, ad esempio genere, razza, religione, etc. analizzando i dati utilizzati anche se questo dato non è presente, potenzialmente quei dati possono essere utilizzati da un altro algoritmo in modo discriminatorio.
Non si tratta di un problema etico irrilivante, perchè questa prima scrematura, ad esempio per i cv, può portare a risultati paradossili e magari non voluti.
In un sistema dove l'offerta di lavoro è costantemente scarsa e i cv inviati sono numerosissimi per ogni posizioni, taluni sottogruppi, magari anche impensabili, potrebbero essere estromessi completamente dal mondo del lavoro senza nemmeno sapere il perchè.
Affrontare queste problematiche è necessario e anche urgente, perchè questo tipo di algoritmi sono già largamente usati e non solo nella selezione del personale, lasciare questo campo senza regole può potenzialmente produrre danni incalcolabili.

martedì 28 luglio 2015

Armi robotiche

Oggi è stato divulgato l'Open Letter Autonomous Weapons  un documento interessante.
L'approccio però, a mio parere , è tragicamente sbagliato per la sua impostazione utopistica, tipica degli "addetti ai lavori".
Se, infatti, da un punto di vista etico, chiedere a tutti di NON sviluppare armamenti che possano prendere decisioni autonome (cioè, in pratica, armi robotiche) può essere un punto di vista condivisibile, fa però a pugni con gli ultimi millenni di storia umana.
Da quando esiste come essere senziente, l'uomo ha sempre fatto qualuque cosa fosse in grado di fare.
Non anche quelle più nefaste, soprattutto quelle più nefaste, figuriamoci se l'argomento sono gli armamenti.
Quale che sia l'ambito, comunque, se una cosa si può tecnicamente fare, qualcuno sicuramente la farà.
L'approccio più pragmatico e secondo me vincente, qualunque sia l'argomento, è sempre quello di governare un fenomeno, mettere dei paletti, escogitare dei sistemi di controllo, piuttosto che ignorarlo oppure cercare di eliminarlo totalmente.
Questo non evita i rischi, al massimo permette di circoscriverli, ma la storia ci insegna che non si è mai risuciti a fare nulla di più, mentre spesso, cercando di reprimere ciò che era indesiderato, si è finiti per renderlo incontrollabile, generando danni ben maggiori.
Nel caso specifico il problema dei controlli e dei paletti è certamente di non facile soluzione, infatti il 99% del problema è legato allo sviluppo di software di controllo e porre dei paletti in questo campo è quanto mai difficile.
Sappiamo però, ad esempio, che qualunque apparecchiatura che faccia girare del software ha necessità di essere alimentata elettricamente e, se è sufficientemente sofisticata e deve essere sufficientemente veloce, il consumo di corrente sarà piuttosto significativo.
Come spunto posso dire che mi sembra più facilmemte controllabile la produzione di batterie, non è facile produrre batterie potenti e performanti, ad oggi.
Se le batterie avessero un proprio software a bordo che permetta di inibirne le funzionalità se l'apparecchiatura che richiede energia non risponde a determinati controlli che certifichino che agisce secondo criteri etici chiari e adottati a livello internazionale, potrebbe essere un approccio che può dare un livello minimo di garanzia per ora accettabile.
Immaginiamo una batteria che ha una componente software, che controlla un qualche tipo di "impronta" fornita dall'apparecchio che deve alimentare e, se non corrisponde, si "disabilita" in modo permanente, con un ente sovranazionale che controlla chi sviluppa software per armi e, se eticamente accettabile, fornisce il codice di sblocco delle batterie.


venerdì 10 luglio 2015

Scienza etica e spyware, malware & co.

Il recente episodio di hackeraggio di una società che vendeva, in modo forse spregiudicato, uno spyware in grado di fare registrazioni ambientali da cellulare, di monitorare l'attività dei pc e, forse, anche di caricare false prove su dispositivi sotto controllo, pone dei problemi etici che ancora nessuno ha affrontato seriamente.
Il software, tutto il software, è, in ultima analisi, un robot, sprovvisto però di una qualsiasi etica.
In particolare questo software, ma ne esistono moltissimi altri, compie azioni già di per sè stesse eticamente discutibili e, almeno in alcuni stati, penalmente perseguibili.
In aggiunta, sia perché venduto coscientemente, sia perché utilizzato da malintenzionati, può essere stato o venire utilizzato in futuro, invece che dalle forze dell'ordine o assimilabili, da chiunque ne entri in possesso.
Chi decide e in base a quali criteri quali sono le operazioni eticamente accettabili che un software può compiere?
Chi e in quali situazioni può essere autorizzato e da chi all'utilizzo di strumenti di questo tipo?
Considerando la relativa facilità con cui è stata hackerata la società che produceva questo software, come anche in passato era già successo ad altre società simili, la materia è a dir poco esplosiva.
In questo caso però, a mio parere, la soluzione è estremamente semplice: non dovrebbe essere permessa la creazione di software a codice chiuso, cioè, tutto il software dovrebbe essere open source.
Solo la possibilità per chiunque di controllare qualunque software in circolazione pone le basi reali per la nascita e l'implementazione di una scienza etica ad hoc per il software.

venerdì 3 luglio 2015

Il robot "assassino"


http://www.hna.de/kassel/kreis-kassel/baunatal-ort312516/roboter-toetet-arbeiter-vw-werk-5191637.html
http://www.ft.com/fastft/353721/worker-killed-volkswagen-robot-accident
http://www.repubblica.it/esteri/2015/07/02/news/robot_uccide_operaio_in_fabbrica_wolksvagen-118121393/?ref=HREC1-13

Anche se questo fatto appare come una probabile disattenzione o un errore umano, più che come un omicidio robotico, resta il fatto che, senza ombra di dubbio, chi ha progettato questo robot non ha ritenuto necessario dotarlo di accorgimenti, hardware e software, tali da permettergli di evitare un simile incidente.
Sicuramente questi accorgimenti ne avrebbero aumentato i costi di produzione, sicuramente questa è una scelta eticamente discutibile che, oggettivamente, ha fatto compiere al robot un errore fatale per un essere umano.
Anche se per vie traverse, nel modo sbagliato, sensazionalistico e poco approfondito, come sempre fanno gli organi di informazione, è bene che, in un qualche modo, si ponga all'attenzione del grande pubblico un problema come quello della nascita di una scienza etica.
Speriamo che i discorsi intorno a questo argomento si facciano più profondi e, allo stesso tempo, più concreti.

giovedì 25 giugno 2015

I robot sono tra noi, ci affamano, ci uccidono e non hanno etica

Il passato, il nostro miglior insegnante, non fa ben sperare sulla capacità dell'umanità in generale e di nazioni, enti, comunità scientifica, nell'affrontare la necessità della nascita di una scienza etica.
Nel recente passato abbiamo già subito una prima invasione di robot, avvenuta senza quasi che se ne abbia avuto nemmeno la consapevolezza, e il problema non è stato minimamente affrontato.
Nel recente passato robot software, in generale definiti algidamente col termine "algoritmi" o espressioni simili, hanno invaso il nostro mondo alterandolo, prendendo decisioni eticamente discutibili e portando distruzione, morte, povertà in tutto il mondo, senza che nessuno o quasi affrontasse i problemi etici correlati col fatto che determinate decisioni fossero prese da automatismi sui quali gli interventi umani avevano e hanno scarsa o nulla possibilità di incidere.
Il fatto che un "algoritmo" non sia un'entità fisica tangibile lo rende ovviamente impalpabile e quindi le sue decisioni avvengono senza che nessuno si sia preoccupato di definire un ambito etico all'interno del quale possa opportunamente agire.
La finanza sicuramente è l'ambito in cui, prima che in qualunque altro, hanno fatto il loro ingresso algoritmi che prendono decisioni automatiche.
Da decenni i mercati dei cambi, delle azioni, delle obbligazioni e dei derivati, sono nelle mani di algoritmi man mano più sofisticati, che prendono velocissime e ripetute decisioni, impossibili in precedenza per velocità, accuratezza e ripetitività per un essere umano.
Scalping, arbitrage, etc. sono tecniche che prendono piede solo a partire dal momento in cui i trader finanziari hanno avuto a disposizione degli algoritmi, che in effetti sono dei veri e propri robot software.
E questi algoritmi sono in grado di prendere decisioni e agire sui mercati in modo autonomo.
Se, nelle fasi iniziali di queste pratiche, i disastri sono stati molto evidenti, con tutti i robot che, seguendo trend in ascesa o discesa ad esempio di prezzi di titoli azionari o cambi valutari, hanno auto-alimentato questi trend portando i mercati verso situazioni insostenibili, man mano che venivano affinati, le conseguenze sono divenute più sottili, ma sono diventate strutturali e hanno contribuito non poco a portare a situazioni di crisi profondissime e dalle conseguenze assolutamente tangibili.
In particolare l'automatizzazione, sprovvista di un qualunque piano etico e addirittura, spesso di un qualunque controllo, hanno portato a conseguenze disastrose sul piano sociale e umano, nei settori energetici e delle materie prime.
In particolare nel settore alimentare, sono state messe "fuori mercato" (che significa ridurre alla fame) miliardi di persone a fronte di guadagni a volte marginali, conseguiti attraverso operazioni di creazione di "bolle" speculative avvenute mediante meccanismi automatici governati da algoritmi che non rispondono a nessun codice etico.
Questo problema non è nemmeno mai stato realmente posto all'attenzione, non dico del grande pubblico, ma nemmeno degli addetti ai lavori, in primis di chi programma questi robot software, il cui unico scopo è massimizzare il profitto, senza che nessuno si sia posto la domanda se abbiano o meno la necessità di un comportamento etico, o, perlomeno, di limiti etici.
Considereremmo eticamente accettabile se un essere umano, al fine di conseguire un guadagno tutto sommato marginale, ad esempio facendo arbitraggio sui prezzi del grano, portasse ad un aumento stabile dei prezzi di questa materia prima a livello mondiale, se fossimo a conoscenza che, in questo modo, centinaia di milioni di persone potrebbero morire di fame?
Se le decisioni che portano a questa situazione vengono prese da un meccanismo automatico, o dal concorso di un rilevante numero di meccanismi automatici a livello globale, qualcuno si preoccuperebbe delle conseguenze e del dilemma etico che ne conseguirebbe?
In pratica avviene uno spostamento surrettizio delle responsabilità.
Viene chiesto a qualcuno di creare un robot, senza nessuna etica, che agendo autonomamente, massimizza il guadagno di chi lo usa e sposta le responsabilità da chi l'ha commissionato ad un'entità astratta e impalpabile a cui nessuno chiede conto delle azioni e delle loro conseguenze.
E' possibile fare in modo che l'algoritmo si domandi, all'interno dei propri processi decisionali: "In conseguenza di questa azione un milione di persone in più, moriranno di fame, devo fare o non devo fare questa azione?"
Per fare questo, però, è necessario definire una scienza etica e obbligare chi costruisce robot, ad implementarla.
Non è fantascientifico immaginare un robot che, non avendo alcun codice etico, allo scopo di portare a termine il proprio compito, riduca alla povertà intere nazioni o affami milioni di persone.
Queste cose sono già state fatte e nessuno se ne è minimamente preoccupato.

lunedì 8 giugno 2015

Per la nascita di una scienza etica

L'etica, come tutte le discipline filosofico-umanistiche viene, da sempre, affrontata con un approccio non scientifico.
Alcune di queste discipline stanno, da anni, tentando di trasformarsi in scienza, certo non senza grandi difficoltà.
Per fare questo ci si appoggia alla matematica, alla statistica, alla teoria dei giochi, etc.
Spesso i risultati sono piuttosto deludenti, a mio parere perchè si è cercata una scorciatoia verso la scienza: utilizzare strumenti (teorie, analisi matematiche, ect.) considerati scientifici, applicandoli a teorie o per analizzare fatti, senza prima aver definito le basi della scienza a cui si vogliono applicare, ottenendo risultati aleatori e non scientifici.
Per prima cosa, quindi, andrebbero definite le basi di una nuova scienza, solo in un secondo tempo sarà possibile, su quelle basi, applicare metodi e verificare teorie.
Difficilmente alle discipline umanistiche sarà possibile applicare le stesse basi scientifiche che "funzionano" in discipline come la matematica, la fisica, etc.
Per quanto riguarda l'etica credo che nessuno ci abbia mai nemmeno provato.
Si parla, certo, da lungo tempo di etica della scienza, intendendo dire come la ricerca scientifica debba essere confinata all'interno di una certa etica.
Ma il problema di fondo è creare prima una scienza etica, che stabilisca in modo scientifico cosa è eticamente accettabile e cosa no, in base a quali criteri, e qual è l'ambito in cui tutto ciò si applica.
La nostra etica si basa solitamente su convinzioni religiose, su prassi consolidate, sul sentire comune, sulle opinioni di vari pensatori, filosofi, scienziati, etc., tutto ciò, ovviamente non ha nulla di scientifico.

Il problema di trasformare l'etica in una scienza etica è un problema reale?
Purtroppo o per fortuna è un problema reale e anche molto pressante.
Il comportamento etico dell'individuo, all'interno di una società, viene normato attraverso leggi, consuetudini, credenze religiose e l'interpretazione riguardo al fatto che l'individuo si sia o non si sia comportato eticamente avviene attraverso i sistemi giuridici, l'approvazione o disapprovazione della maggioranza delle persone, tutto ciò avviene solitamente ex-post.
In altre parole ad ogni individuo vengono proposte delle regole, che siano leggi o usanze o dettati religiosi, che definiscono, in modo piuttosto vago e interpretabile, come debba comportarsi.
La società interviene per sanzionare eventuali comportamenti non etici solo dopo che questi sono avvenuti: il singolo decide autonomamente quali opzioni scegliere e se attenersi o meno ad un certo codice etico.
Un essere umano ha, quindi, la possibilità di prendere decisioni anche se non possiede nessun codice etico.
Nel prossimo futuro, e quando dico prossimo intendo nel giro di uno o due anni al massimo, esisteranno sistemi robotizzati che dovranno prendere delle decisioni (anche) in base a principi e norme etiche che, però, per la natura stessa del software che deve prendere queste decisioni, dovranno sottostare a criteri rigidamente scientifici.
I robot dovranno avere prima un codice etico in base al quale prendere delle decisioni, e solo dopo, potranno prenderle, altrimenti non saprebbero letteralmente cosa fare.
Questa etica, di cui i robot dovranno fare uso per forza di cose, ad oggi non esite: questo potrebbe rivelarsi un enorme problema.
A livello "umano" non esiste un'etica condivisa, ogni stato, religione, fino ad arrivare ad ogni singola persona, offrono sfumature etiche differenti.
Una definizione scientifica di etica dovrà tenere conto di differenze tra nazione e nazione, tra religione e religione, tra singoli individui?
Chi deciderà come si dovrà comportare un robot di fronte ad una scelta etica? L'azienda che lo produce? Dovrà seguire regole stabilite da ogni singola nazione? Dovrà seguire regole decise da ogni singolo essere umano? In questo ultimo caso, se un robot svolge le sue attività all'interno di una comunità (gruppo, azienda, famiglia, etc.), chi decide quale comportamento, in determinate situazione è etico oppure no?
Chi ama la fantascienza starà già pensado: "Ma ci sono le 3 (4) leggi di Asimov!
L'etica di Asimon, cioè il codice comportamentale a cui soggiaciono i robot nell'universo ideato da Asimov, sono principi etici "umani", hanno come presupposto che il robot sia un essere senziente, in grado di fare valutazioni etiche specifiche in base a principi generali.
Ma il nostro mondo reale sta per essere invaso da robot che non sono per nulla senzienti e men che meno sono in grado di astrazione e contestualizzazione, definire principi etici astratti per una pressa computerizzata, un'automobile a guida robotizzata o un falciaerba automatico non ha alcun senso.

La questione è molto complessa e di non facile soluzione, le implicazioni sono anche stringenti dal punto di vista economico, visto che, fino a che una macchina agisce comunque sotto la supervisione di un essere umano si ritiene scontato che le conseguenze di un comportamento non etico della macchina siano responsabilità dell'essere umano.
Nel momento in cui una macchina prenderà delle decisioni senza la supervisione di un essere umano di chi saranno le responsabilità? Della ditta che la produce? Della persona che l'ha acquistata e messa in funzione? Può accettare questa persona di farsi carico di azioni di una macchina che segue un'etica che non è sotto il suo controllo ma decisa dall'azienda che la produce e/o dalla nazione che ne ha autorizzato l'uso?

Molti esempi possono essere fatti, tanto per chiarire il carattere pragmatico che deve assumere la scienza etica, su alcuni robot già in uso o che verranno commercializzati a breve.

Ammettiamo che si decida che ogni singolo stato definisce la propria etica:
Potranno essere venduti i robot tosaerba in nazioni con un'etica buddista, visto che, sprovvisti di un sensore che riconosca la presenza di animali sulla linea di taglio e di un braccio meccanico che li sposti in una zona sicura, la macchina, di sua inziativa, tagliando l'erba, potrebbe uccidere vermi e insetti presenti sul suo percorso?
Potrà circolare in Arabia Saudita un'automobile venduta in un paese occidentale che non ha un sensore che riconosca la presenza di una donna sola a bordo e si rifiuti di mettersi in moto?
Ipotizziamo che un'automobile a guida robotica abbia codificato un suo schema di valutazione etica che renda possibile decidere se frenare di colpo per evitare di investire chi attraversa la strada o proseguire tenendo conto anche dei possibili danni alle persone presenti nel suo abitacolo. Supponiamo che ad attraversare la strada sia: un pollo, un gatto, un cane, una mucca, un essere umano. Il rischio accettabile per chi si trova nell'abitacolo dipende dal valore che ogni nazione o ogni singolo darebbe sull'eventuale morte del soggetto investito. Un'auto indiana, cinese o europea potrebbero avere scale di valori differenti. Potranno circolare, ognuna col proprio codice etico, negli altri paesi?

Ammettiamo che a decidere il codice etico di comportamento sia la casa costruttrice:
Terrà conto delle varie sensibilità nei vari paesi e delle varie religioni? Sarà costretta a produrre un'infinità di modelli comportamentali? Produrrà un unico modello e rinuncerà a commercializzarlo in paesi che abbiano codici etici così differenti da non accettare i comportamenti dei propri robot?
Se l'etica viene decisa dall'azienda costruttrice, chi si farà carico delle conseguenze di scelte eticamente discutibili? Il singolo potrebbe rivalersi sull'azienda costruttrice asserendo di non condividere la scelta del robot e di non averne potuto influenzare le decisioni?

Ammettiamo che a decidere il codice etico sia il singolo acquirente:
Le aziende saranno in grado di produrre codici comportamentali così flessibili da adattarsi a qualunque richiesta del cliente? Chi si farà carico di definire se il codice etico deciso dal singolo sia accettabile per la collettività? Ad esempio, lasciato al singolo, il criterio di decisione di un'automobile robotizzata potrebbe essere che in caso di dubbio, l'incolumità delle persone a bordo del mezzo sia da ritenere sempre preponderante, quindi, anche nel caso di un possibile graffio ad una mano del passeggero dell'auto a confronto con la morte di una scolaresca di 30 bambini sia da preferire comunque la scelta che evita il graffio e compie una strage.

Con ogni probabilità sia le aziende costruttrici, sia i singoli acquirenti, per non doversi far carico di una serie imponderabile di conseguenze, cercheranno in qualche modo di ottenere delle norme per lo meno a livello di stati, se non addirittura a livello sovranazionale, ma chi si farà carico di definire la scienza etica che è necessaria per definire quali comportamenti sono etici e quali no, in modo puntuale e specifico e non in modo generico e aleatorio?

La differenza non è da poco, è abissale.
Norma etica: Non uccidere.
Scienza etica: L'auto deve frenare avendo il 40% di probabilità di finire contro un muro uccidendo chi si trova nell'abitacolo o cercare di evitare l'ostacolo con una probabilità del 60% di uccidere un pedone? Si dovranno stabilire i criteri di un algoritmo ben definito che permetta al robot di compiere una scelta etica. E non è affatto facile.

Parliamo sempre di auto, che sono anche il tipo di robotizzazione più vicina e al contempo che presenta enormi aspetti etici da affrontare.
Appare ovvio che un'auto a guida robotizzata rispetti tutto il codice della strada, si fermi agli stop, non superi i limiti di velocità etc. etc.
Questo comportamento potrebbe non essere però sempre eticamente accettabile.
Ammettiamo che un'auto robotizzata si avvicini ad un incrocio viaggiando a velocità codice e con il semaforo verde, prima di impegnare l'incrocio vede sopraggiungere a forte velocità un'auto guidata da un essere umano che non è più in grado di fermarsi al semaforo rosso e che, quindi, si scontrerà con quella robotica con gravi conseguenze per entrambi. Ammettiamo anche che l'auto robotica non possa fenare, altrimenti coinvolgerebbe anche l'auto che la segue, nè sterzare a destra o sinistra. In questo caso specifico sarebbe utile che l'auto sia libera di decidere, in via del tutto eccezzionale, di accelereare anche se questo comporterà il superamento dei limiti di velocità. Vediamo quindi che anche una norma assolutamente logica, come il pieno rispetto del codice della strada, potrebbe rivelarsi insidiosa se non vengono valutati in modo corretto i diversi pesi di comportamenti anche non etici, in linea generale, ma opportuni, in casi particolari.

Altri esempi possono essere relativi alla difesa robotizzata della propria casa.
In quali casi un robot potrebbe decidere di sparare, attivare una scossa elettrica potenzialmente dannosa, etc. per evitare un'effrazione in assenza dei proprietari? Eticamente è accettabile che un robot uccida un ladro? Chi avrebbe la responsabilità di questa azione? Cosa e chi sarebbe responsabile di un errore, cioè di danni gravi o della morte di qualcuno che cerca di entrare in una proprietà privata per motivi differenti dal furto, magari anche a tutela dei proprietari e/o delle loro proprietà?

A mio modesto parere tutte queste problematiche alquanto complesse potrebbero essere un grande aiuto per l'umanità.
La prima conseguenza positiva che vedo è che dovendo formalizzare cosa è eticamente accettabile e cosa no per un robot, volenti o nolenti, come essere umani, dovremo fare i conti con un'etica a cui diciamo di ispirarci altamente aleatoria e che, nascondendosi dietro a principi altissimi, si concretizza poi in azioni spesso molto lontane dall'etica "teorica" dietro cui si nascondono.
La seconda conseguenza potrebbe essere quella di definire un'etica comune, oggettiva e condivisa che porti finalmente al superamento dei codici etici religiosi e delle usanze, prese per buone perchè ataviche e non sempre perchè giustificate e giustificabili.