Il passato, il nostro miglior insegnante, non fa ben sperare sulla capacità dell'umanità in generale e di nazioni, enti, comunità scientifica, nell'affrontare la necessità della nascita di una scienza etica.
Nel recente passato abbiamo già subito una prima invasione di robot, avvenuta senza quasi che se ne abbia avuto nemmeno la consapevolezza, e il problema non è stato minimamente affrontato.
Nel recente passato robot software, in generale definiti algidamente col termine "algoritmi" o espressioni simili, hanno invaso il nostro mondo alterandolo, prendendo decisioni eticamente discutibili e portando distruzione, morte, povertà in tutto il mondo, senza che nessuno o quasi affrontasse i problemi etici correlati col fatto che determinate decisioni fossero prese da automatismi sui quali gli interventi umani avevano e hanno scarsa o nulla possibilità di incidere.
Il fatto che un "algoritmo" non sia un'entità fisica tangibile lo rende ovviamente impalpabile e quindi le sue decisioni avvengono senza che nessuno si sia preoccupato di definire un ambito etico all'interno del quale possa opportunamente agire.
La finanza sicuramente è l'ambito in cui, prima che in qualunque altro, hanno fatto il loro ingresso algoritmi che prendono decisioni automatiche.
Da decenni i mercati dei cambi, delle azioni, delle obbligazioni e dei derivati, sono nelle mani di algoritmi man mano più sofisticati, che prendono velocissime e ripetute decisioni, impossibili in precedenza per velocità, accuratezza e ripetitività per un essere umano.
Scalping, arbitrage, etc. sono tecniche che prendono piede solo a partire dal momento in cui i trader finanziari hanno avuto a disposizione degli algoritmi, che in effetti sono dei veri e propri robot software.
E questi algoritmi sono in grado di prendere decisioni e agire sui mercati in modo autonomo.
Se, nelle fasi iniziali di queste pratiche, i disastri sono stati molto evidenti, con tutti i robot che, seguendo trend in ascesa o discesa ad esempio di prezzi di titoli azionari o cambi valutari, hanno auto-alimentato questi trend portando i mercati verso situazioni insostenibili, man mano che venivano affinati, le conseguenze sono divenute più sottili, ma sono diventate strutturali e hanno contribuito non poco a portare a situazioni di crisi profondissime e dalle conseguenze assolutamente tangibili.
In particolare l'automatizzazione, sprovvista di un qualunque piano etico e addirittura, spesso di un qualunque controllo, hanno portato a conseguenze disastrose sul piano sociale e umano, nei settori energetici e delle materie prime.
In particolare nel settore alimentare, sono state messe "fuori mercato" (che significa ridurre alla fame) miliardi di persone a fronte di guadagni a volte marginali, conseguiti attraverso operazioni di creazione di "bolle" speculative avvenute mediante meccanismi automatici governati da algoritmi che non rispondono a nessun codice etico.
Questo problema non è nemmeno mai stato realmente posto all'attenzione, non dico del grande pubblico, ma nemmeno degli addetti ai lavori, in primis di chi programma questi robot software, il cui unico scopo è massimizzare il profitto, senza che nessuno si sia posto la domanda se abbiano o meno la necessità di un comportamento etico, o, perlomeno, di limiti etici.
Considereremmo eticamente accettabile se un essere umano, al fine di conseguire un guadagno tutto sommato marginale, ad esempio facendo arbitraggio sui prezzi del grano, portasse ad un aumento stabile dei prezzi di questa materia prima a livello mondiale, se fossimo a conoscenza che, in questo modo, centinaia di milioni di persone potrebbero morire di fame?
Se le decisioni che portano a questa situazione vengono prese da un meccanismo automatico, o dal concorso di un rilevante numero di meccanismi automatici a livello globale, qualcuno si preoccuperebbe delle conseguenze e del dilemma etico che ne conseguirebbe?
In pratica avviene uno spostamento surrettizio delle responsabilità.
Viene chiesto a qualcuno di creare un robot, senza nessuna etica, che agendo autonomamente, massimizza il guadagno di chi lo usa e sposta le responsabilità da chi l'ha commissionato ad un'entità astratta e impalpabile a cui nessuno chiede conto delle azioni e delle loro conseguenze.
E' possibile fare in modo che l'algoritmo si domandi, all'interno dei propri processi decisionali: "In conseguenza di questa azione un milione di persone in più, moriranno di fame, devo fare o non devo fare questa azione?"
Per fare questo, però, è necessario definire una scienza etica e obbligare chi costruisce robot, ad implementarla.
Non è fantascientifico immaginare un robot che, non avendo alcun codice etico, allo scopo di portare a termine il proprio compito, riduca alla povertà intere nazioni o affami milioni di persone.
Queste cose sono già state fatte e nessuno se ne è minimamente preoccupato.
giovedì 25 giugno 2015
I robot sono tra noi, ci affamano, ci uccidono e non hanno etica
lunedì 8 giugno 2015
Per la nascita di una scienza etica
L'etica, come tutte le discipline filosofico-umanistiche viene, da sempre, affrontata con un approccio non scientifico.
Alcune di queste discipline stanno, da anni, tentando di trasformarsi in scienza, certo non senza grandi difficoltà.
Per fare questo ci si appoggia alla matematica, alla statistica, alla teoria dei giochi, etc.
Spesso i risultati sono piuttosto deludenti, a mio parere perchè si è cercata una scorciatoia verso la scienza: utilizzare strumenti (teorie, analisi matematiche, ect.) considerati scientifici, applicandoli a teorie o per analizzare fatti, senza prima aver definito le basi della scienza a cui si vogliono applicare, ottenendo risultati aleatori e non scientifici.
Per prima cosa, quindi, andrebbero definite le basi di una nuova scienza, solo in un secondo tempo sarà possibile, su quelle basi, applicare metodi e verificare teorie.
Difficilmente alle discipline umanistiche sarà possibile applicare le stesse basi scientifiche che "funzionano" in discipline come la matematica, la fisica, etc.
Per quanto riguarda l'etica credo che nessuno ci abbia mai nemmeno provato.
Si parla, certo, da lungo tempo di etica della scienza, intendendo dire come la ricerca scientifica debba essere confinata all'interno di una certa etica.
Ma il problema di fondo è creare prima una scienza etica, che stabilisca in modo scientifico cosa è eticamente accettabile e cosa no, in base a quali criteri, e qual è l'ambito in cui tutto ciò si applica.
La nostra etica si basa solitamente su convinzioni religiose, su prassi consolidate, sul sentire comune, sulle opinioni di vari pensatori, filosofi, scienziati, etc., tutto ciò, ovviamente non ha nulla di scientifico.
Il problema di trasformare l'etica in una scienza etica è un problema reale?
Purtroppo o per fortuna è un problema reale e anche molto pressante.
Il comportamento etico dell'individuo, all'interno di una società, viene normato attraverso leggi, consuetudini, credenze religiose e l'interpretazione riguardo al fatto che l'individuo si sia o non si sia comportato eticamente avviene attraverso i sistemi giuridici, l'approvazione o disapprovazione della maggioranza delle persone, tutto ciò avviene solitamente ex-post.
In altre parole ad ogni individuo vengono proposte delle regole, che siano leggi o usanze o dettati religiosi, che definiscono, in modo piuttosto vago e interpretabile, come debba comportarsi.
La società interviene per sanzionare eventuali comportamenti non etici solo dopo che questi sono avvenuti: il singolo decide autonomamente quali opzioni scegliere e se attenersi o meno ad un certo codice etico.
Un essere umano ha, quindi, la possibilità di prendere decisioni anche se non possiede nessun codice etico.
Nel prossimo futuro, e quando dico prossimo intendo nel giro di uno o due anni al massimo, esisteranno sistemi robotizzati che dovranno prendere delle decisioni (anche) in base a principi e norme etiche che, però, per la natura stessa del software che deve prendere queste decisioni, dovranno sottostare a criteri rigidamente scientifici.
I robot dovranno avere prima un codice etico in base al quale prendere delle decisioni, e solo dopo, potranno prenderle, altrimenti non saprebbero letteralmente cosa fare.
Questa etica, di cui i robot dovranno fare uso per forza di cose, ad oggi non esite: questo potrebbe rivelarsi un enorme problema.
A livello "umano" non esiste un'etica condivisa, ogni stato, religione, fino ad arrivare ad ogni singola persona, offrono sfumature etiche differenti.
Una definizione scientifica di etica dovrà tenere conto di differenze tra nazione e nazione, tra religione e religione, tra singoli individui?
Chi deciderà come si dovrà comportare un robot di fronte ad una scelta etica? L'azienda che lo produce? Dovrà seguire regole stabilite da ogni singola nazione? Dovrà seguire regole decise da ogni singolo essere umano? In questo ultimo caso, se un robot svolge le sue attività all'interno di una comunità (gruppo, azienda, famiglia, etc.), chi decide quale comportamento, in determinate situazione è etico oppure no?
Chi ama la fantascienza starà già pensado: "Ma ci sono le 3 (4) leggi di Asimov!
L'etica di Asimon, cioè il codice comportamentale a cui soggiaciono i robot nell'universo ideato da Asimov, sono principi etici "umani", hanno come presupposto che il robot sia un essere senziente, in grado di fare valutazioni etiche specifiche in base a principi generali.
Ma il nostro mondo reale sta per essere invaso da robot che non sono per nulla senzienti e men che meno sono in grado di astrazione e contestualizzazione, definire principi etici astratti per una pressa computerizzata, un'automobile a guida robotizzata o un falciaerba automatico non ha alcun senso.
La questione è molto complessa e di non facile soluzione, le implicazioni sono anche stringenti dal punto di vista economico, visto che, fino a che una macchina agisce comunque sotto la supervisione di un essere umano si ritiene scontato che le conseguenze di un comportamento non etico della macchina siano responsabilità dell'essere umano.
Nel momento in cui una macchina prenderà delle decisioni senza la supervisione di un essere umano di chi saranno le responsabilità? Della ditta che la produce? Della persona che l'ha acquistata e messa in funzione? Può accettare questa persona di farsi carico di azioni di una macchina che segue un'etica che non è sotto il suo controllo ma decisa dall'azienda che la produce e/o dalla nazione che ne ha autorizzato l'uso?
Molti esempi possono essere fatti, tanto per chiarire il carattere pragmatico che deve assumere la scienza etica, su alcuni robot già in uso o che verranno commercializzati a breve.
Ammettiamo che si decida che ogni singolo stato definisce la propria etica:
Potranno essere venduti i robot tosaerba in nazioni con un'etica buddista, visto che, sprovvisti di un sensore che riconosca la presenza di animali sulla linea di taglio e di un braccio meccanico che li sposti in una zona sicura, la macchina, di sua inziativa, tagliando l'erba, potrebbe uccidere vermi e insetti presenti sul suo percorso?
Potrà circolare in Arabia Saudita un'automobile venduta in un paese occidentale che non ha un sensore che riconosca la presenza di una donna sola a bordo e si rifiuti di mettersi in moto?
Ipotizziamo che un'automobile a guida robotica abbia codificato un suo schema di valutazione etica che renda possibile decidere se frenare di colpo per evitare di investire chi attraversa la strada o proseguire tenendo conto anche dei possibili danni alle persone presenti nel suo abitacolo. Supponiamo che ad attraversare la strada sia: un pollo, un gatto, un cane, una mucca, un essere umano. Il rischio accettabile per chi si trova nell'abitacolo dipende dal valore che ogni nazione o ogni singolo darebbe sull'eventuale morte del soggetto investito. Un'auto indiana, cinese o europea potrebbero avere scale di valori differenti. Potranno circolare, ognuna col proprio codice etico, negli altri paesi?
Ammettiamo che a decidere il codice etico di comportamento sia la casa costruttrice:
Terrà conto delle varie sensibilità nei vari paesi e delle varie religioni? Sarà costretta a produrre un'infinità di modelli comportamentali? Produrrà un unico modello e rinuncerà a commercializzarlo in paesi che abbiano codici etici così differenti da non accettare i comportamenti dei propri robot?
Se l'etica viene decisa dall'azienda costruttrice, chi si farà carico delle conseguenze di scelte eticamente discutibili? Il singolo potrebbe rivalersi sull'azienda costruttrice asserendo di non condividere la scelta del robot e di non averne potuto influenzare le decisioni?
Ammettiamo che a decidere il codice etico sia il singolo acquirente:
Le aziende saranno in grado di produrre codici comportamentali così flessibili da adattarsi a qualunque richiesta del cliente? Chi si farà carico di definire se il codice etico deciso dal singolo sia accettabile per la collettività? Ad esempio, lasciato al singolo, il criterio di decisione di un'automobile robotizzata potrebbe essere che in caso di dubbio, l'incolumità delle persone a bordo del mezzo sia da ritenere sempre preponderante, quindi, anche nel caso di un possibile graffio ad una mano del passeggero dell'auto a confronto con la morte di una scolaresca di 30 bambini sia da preferire comunque la scelta che evita il graffio e compie una strage.
Con ogni probabilità sia le aziende costruttrici, sia i singoli acquirenti, per non doversi far carico di una serie imponderabile di conseguenze, cercheranno in qualche modo di ottenere delle norme per lo meno a livello di stati, se non addirittura a livello sovranazionale, ma chi si farà carico di definire la scienza etica che è necessaria per definire quali comportamenti sono etici e quali no, in modo puntuale e specifico e non in modo generico e aleatorio?
La differenza non è da poco, è abissale.
Norma etica: Non uccidere.
Scienza etica: L'auto deve frenare avendo il 40% di probabilità di finire contro un muro uccidendo chi si trova nell'abitacolo o cercare di evitare l'ostacolo con una probabilità del 60% di uccidere un pedone? Si dovranno stabilire i criteri di un algoritmo ben definito che permetta al robot di compiere una scelta etica. E non è affatto facile.
Parliamo sempre di auto, che sono anche il tipo di robotizzazione più vicina e al contempo che presenta enormi aspetti etici da affrontare.
Appare ovvio che un'auto a guida robotizzata rispetti tutto il codice della strada, si fermi agli stop, non superi i limiti di velocità etc. etc.
Questo comportamento potrebbe non essere però sempre eticamente accettabile.
Ammettiamo che un'auto robotizzata si avvicini ad un incrocio viaggiando a velocità codice e con il semaforo verde, prima di impegnare l'incrocio vede sopraggiungere a forte velocità un'auto guidata da un essere umano che non è più in grado di fermarsi al semaforo rosso e che, quindi, si scontrerà con quella robotica con gravi conseguenze per entrambi. Ammettiamo anche che l'auto robotica non possa fenare, altrimenti coinvolgerebbe anche l'auto che la segue, nè sterzare a destra o sinistra. In questo caso specifico sarebbe utile che l'auto sia libera di decidere, in via del tutto eccezzionale, di accelereare anche se questo comporterà il superamento dei limiti di velocità. Vediamo quindi che anche una norma assolutamente logica, come il pieno rispetto del codice della strada, potrebbe rivelarsi insidiosa se non vengono valutati in modo corretto i diversi pesi di comportamenti anche non etici, in linea generale, ma opportuni, in casi particolari.
Altri esempi possono essere relativi alla difesa robotizzata della propria casa.
In quali casi un robot potrebbe decidere di sparare, attivare una scossa elettrica potenzialmente dannosa, etc. per evitare un'effrazione in assenza dei proprietari? Eticamente è accettabile che un robot uccida un ladro? Chi avrebbe la responsabilità di questa azione? Cosa e chi sarebbe responsabile di un errore, cioè di danni gravi o della morte di qualcuno che cerca di entrare in una proprietà privata per motivi differenti dal furto, magari anche a tutela dei proprietari e/o delle loro proprietà?
A mio modesto parere tutte queste problematiche alquanto complesse potrebbero essere un grande aiuto per l'umanità.
La prima conseguenza positiva che vedo è che dovendo formalizzare cosa è eticamente accettabile e cosa no per un robot, volenti o nolenti, come essere umani, dovremo fare i conti con un'etica a cui diciamo di ispirarci altamente aleatoria e che, nascondendosi dietro a principi altissimi, si concretizza poi in azioni spesso molto lontane dall'etica "teorica" dietro cui si nascondono.
La seconda conseguenza potrebbe essere quella di definire un'etica comune, oggettiva e condivisa che porti finalmente al superamento dei codici etici religiosi e delle usanze, prese per buone perchè ataviche e non sempre perchè giustificate e giustificabili.
Alcune di queste discipline stanno, da anni, tentando di trasformarsi in scienza, certo non senza grandi difficoltà.
Per fare questo ci si appoggia alla matematica, alla statistica, alla teoria dei giochi, etc.
Spesso i risultati sono piuttosto deludenti, a mio parere perchè si è cercata una scorciatoia verso la scienza: utilizzare strumenti (teorie, analisi matematiche, ect.) considerati scientifici, applicandoli a teorie o per analizzare fatti, senza prima aver definito le basi della scienza a cui si vogliono applicare, ottenendo risultati aleatori e non scientifici.
Per prima cosa, quindi, andrebbero definite le basi di una nuova scienza, solo in un secondo tempo sarà possibile, su quelle basi, applicare metodi e verificare teorie.
Difficilmente alle discipline umanistiche sarà possibile applicare le stesse basi scientifiche che "funzionano" in discipline come la matematica, la fisica, etc.
Per quanto riguarda l'etica credo che nessuno ci abbia mai nemmeno provato.
Si parla, certo, da lungo tempo di etica della scienza, intendendo dire come la ricerca scientifica debba essere confinata all'interno di una certa etica.
Ma il problema di fondo è creare prima una scienza etica, che stabilisca in modo scientifico cosa è eticamente accettabile e cosa no, in base a quali criteri, e qual è l'ambito in cui tutto ciò si applica.
La nostra etica si basa solitamente su convinzioni religiose, su prassi consolidate, sul sentire comune, sulle opinioni di vari pensatori, filosofi, scienziati, etc., tutto ciò, ovviamente non ha nulla di scientifico.
Il problema di trasformare l'etica in una scienza etica è un problema reale?
Purtroppo o per fortuna è un problema reale e anche molto pressante.
Il comportamento etico dell'individuo, all'interno di una società, viene normato attraverso leggi, consuetudini, credenze religiose e l'interpretazione riguardo al fatto che l'individuo si sia o non si sia comportato eticamente avviene attraverso i sistemi giuridici, l'approvazione o disapprovazione della maggioranza delle persone, tutto ciò avviene solitamente ex-post.
In altre parole ad ogni individuo vengono proposte delle regole, che siano leggi o usanze o dettati religiosi, che definiscono, in modo piuttosto vago e interpretabile, come debba comportarsi.
La società interviene per sanzionare eventuali comportamenti non etici solo dopo che questi sono avvenuti: il singolo decide autonomamente quali opzioni scegliere e se attenersi o meno ad un certo codice etico.
Un essere umano ha, quindi, la possibilità di prendere decisioni anche se non possiede nessun codice etico.
Nel prossimo futuro, e quando dico prossimo intendo nel giro di uno o due anni al massimo, esisteranno sistemi robotizzati che dovranno prendere delle decisioni (anche) in base a principi e norme etiche che, però, per la natura stessa del software che deve prendere queste decisioni, dovranno sottostare a criteri rigidamente scientifici.
I robot dovranno avere prima un codice etico in base al quale prendere delle decisioni, e solo dopo, potranno prenderle, altrimenti non saprebbero letteralmente cosa fare.
Questa etica, di cui i robot dovranno fare uso per forza di cose, ad oggi non esite: questo potrebbe rivelarsi un enorme problema.
A livello "umano" non esiste un'etica condivisa, ogni stato, religione, fino ad arrivare ad ogni singola persona, offrono sfumature etiche differenti.
Una definizione scientifica di etica dovrà tenere conto di differenze tra nazione e nazione, tra religione e religione, tra singoli individui?
Chi deciderà come si dovrà comportare un robot di fronte ad una scelta etica? L'azienda che lo produce? Dovrà seguire regole stabilite da ogni singola nazione? Dovrà seguire regole decise da ogni singolo essere umano? In questo ultimo caso, se un robot svolge le sue attività all'interno di una comunità (gruppo, azienda, famiglia, etc.), chi decide quale comportamento, in determinate situazione è etico oppure no?
Chi ama la fantascienza starà già pensado: "Ma ci sono le 3 (4) leggi di Asimov!
L'etica di Asimon, cioè il codice comportamentale a cui soggiaciono i robot nell'universo ideato da Asimov, sono principi etici "umani", hanno come presupposto che il robot sia un essere senziente, in grado di fare valutazioni etiche specifiche in base a principi generali.
Ma il nostro mondo reale sta per essere invaso da robot che non sono per nulla senzienti e men che meno sono in grado di astrazione e contestualizzazione, definire principi etici astratti per una pressa computerizzata, un'automobile a guida robotizzata o un falciaerba automatico non ha alcun senso.
La questione è molto complessa e di non facile soluzione, le implicazioni sono anche stringenti dal punto di vista economico, visto che, fino a che una macchina agisce comunque sotto la supervisione di un essere umano si ritiene scontato che le conseguenze di un comportamento non etico della macchina siano responsabilità dell'essere umano.
Nel momento in cui una macchina prenderà delle decisioni senza la supervisione di un essere umano di chi saranno le responsabilità? Della ditta che la produce? Della persona che l'ha acquistata e messa in funzione? Può accettare questa persona di farsi carico di azioni di una macchina che segue un'etica che non è sotto il suo controllo ma decisa dall'azienda che la produce e/o dalla nazione che ne ha autorizzato l'uso?
Molti esempi possono essere fatti, tanto per chiarire il carattere pragmatico che deve assumere la scienza etica, su alcuni robot già in uso o che verranno commercializzati a breve.
Ammettiamo che si decida che ogni singolo stato definisce la propria etica:
Potranno essere venduti i robot tosaerba in nazioni con un'etica buddista, visto che, sprovvisti di un sensore che riconosca la presenza di animali sulla linea di taglio e di un braccio meccanico che li sposti in una zona sicura, la macchina, di sua inziativa, tagliando l'erba, potrebbe uccidere vermi e insetti presenti sul suo percorso?
Potrà circolare in Arabia Saudita un'automobile venduta in un paese occidentale che non ha un sensore che riconosca la presenza di una donna sola a bordo e si rifiuti di mettersi in moto?
Ipotizziamo che un'automobile a guida robotica abbia codificato un suo schema di valutazione etica che renda possibile decidere se frenare di colpo per evitare di investire chi attraversa la strada o proseguire tenendo conto anche dei possibili danni alle persone presenti nel suo abitacolo. Supponiamo che ad attraversare la strada sia: un pollo, un gatto, un cane, una mucca, un essere umano. Il rischio accettabile per chi si trova nell'abitacolo dipende dal valore che ogni nazione o ogni singolo darebbe sull'eventuale morte del soggetto investito. Un'auto indiana, cinese o europea potrebbero avere scale di valori differenti. Potranno circolare, ognuna col proprio codice etico, negli altri paesi?
Ammettiamo che a decidere il codice etico di comportamento sia la casa costruttrice:
Terrà conto delle varie sensibilità nei vari paesi e delle varie religioni? Sarà costretta a produrre un'infinità di modelli comportamentali? Produrrà un unico modello e rinuncerà a commercializzarlo in paesi che abbiano codici etici così differenti da non accettare i comportamenti dei propri robot?
Se l'etica viene decisa dall'azienda costruttrice, chi si farà carico delle conseguenze di scelte eticamente discutibili? Il singolo potrebbe rivalersi sull'azienda costruttrice asserendo di non condividere la scelta del robot e di non averne potuto influenzare le decisioni?
Ammettiamo che a decidere il codice etico sia il singolo acquirente:
Le aziende saranno in grado di produrre codici comportamentali così flessibili da adattarsi a qualunque richiesta del cliente? Chi si farà carico di definire se il codice etico deciso dal singolo sia accettabile per la collettività? Ad esempio, lasciato al singolo, il criterio di decisione di un'automobile robotizzata potrebbe essere che in caso di dubbio, l'incolumità delle persone a bordo del mezzo sia da ritenere sempre preponderante, quindi, anche nel caso di un possibile graffio ad una mano del passeggero dell'auto a confronto con la morte di una scolaresca di 30 bambini sia da preferire comunque la scelta che evita il graffio e compie una strage.
Con ogni probabilità sia le aziende costruttrici, sia i singoli acquirenti, per non doversi far carico di una serie imponderabile di conseguenze, cercheranno in qualche modo di ottenere delle norme per lo meno a livello di stati, se non addirittura a livello sovranazionale, ma chi si farà carico di definire la scienza etica che è necessaria per definire quali comportamenti sono etici e quali no, in modo puntuale e specifico e non in modo generico e aleatorio?
La differenza non è da poco, è abissale.
Norma etica: Non uccidere.
Scienza etica: L'auto deve frenare avendo il 40% di probabilità di finire contro un muro uccidendo chi si trova nell'abitacolo o cercare di evitare l'ostacolo con una probabilità del 60% di uccidere un pedone? Si dovranno stabilire i criteri di un algoritmo ben definito che permetta al robot di compiere una scelta etica. E non è affatto facile.
Parliamo sempre di auto, che sono anche il tipo di robotizzazione più vicina e al contempo che presenta enormi aspetti etici da affrontare.
Appare ovvio che un'auto a guida robotizzata rispetti tutto il codice della strada, si fermi agli stop, non superi i limiti di velocità etc. etc.
Questo comportamento potrebbe non essere però sempre eticamente accettabile.
Ammettiamo che un'auto robotizzata si avvicini ad un incrocio viaggiando a velocità codice e con il semaforo verde, prima di impegnare l'incrocio vede sopraggiungere a forte velocità un'auto guidata da un essere umano che non è più in grado di fermarsi al semaforo rosso e che, quindi, si scontrerà con quella robotica con gravi conseguenze per entrambi. Ammettiamo anche che l'auto robotica non possa fenare, altrimenti coinvolgerebbe anche l'auto che la segue, nè sterzare a destra o sinistra. In questo caso specifico sarebbe utile che l'auto sia libera di decidere, in via del tutto eccezzionale, di accelereare anche se questo comporterà il superamento dei limiti di velocità. Vediamo quindi che anche una norma assolutamente logica, come il pieno rispetto del codice della strada, potrebbe rivelarsi insidiosa se non vengono valutati in modo corretto i diversi pesi di comportamenti anche non etici, in linea generale, ma opportuni, in casi particolari.
Altri esempi possono essere relativi alla difesa robotizzata della propria casa.
In quali casi un robot potrebbe decidere di sparare, attivare una scossa elettrica potenzialmente dannosa, etc. per evitare un'effrazione in assenza dei proprietari? Eticamente è accettabile che un robot uccida un ladro? Chi avrebbe la responsabilità di questa azione? Cosa e chi sarebbe responsabile di un errore, cioè di danni gravi o della morte di qualcuno che cerca di entrare in una proprietà privata per motivi differenti dal furto, magari anche a tutela dei proprietari e/o delle loro proprietà?
A mio modesto parere tutte queste problematiche alquanto complesse potrebbero essere un grande aiuto per l'umanità.
La prima conseguenza positiva che vedo è che dovendo formalizzare cosa è eticamente accettabile e cosa no per un robot, volenti o nolenti, come essere umani, dovremo fare i conti con un'etica a cui diciamo di ispirarci altamente aleatoria e che, nascondendosi dietro a principi altissimi, si concretizza poi in azioni spesso molto lontane dall'etica "teorica" dietro cui si nascondono.
La seconda conseguenza potrebbe essere quella di definire un'etica comune, oggettiva e condivisa che porti finalmente al superamento dei codici etici religiosi e delle usanze, prese per buone perchè ataviche e non sempre perchè giustificate e giustificabili.
Iscriviti a:
Post (Atom)