lunedì 8 giugno 2015

Per la nascita di una scienza etica

L'etica, come tutte le discipline filosofico-umanistiche viene, da sempre, affrontata con un approccio non scientifico.
Alcune di queste discipline stanno, da anni, tentando di trasformarsi in scienza, certo non senza grandi difficoltà.
Per fare questo ci si appoggia alla matematica, alla statistica, alla teoria dei giochi, etc.
Spesso i risultati sono piuttosto deludenti, a mio parere perchè si è cercata una scorciatoia verso la scienza: utilizzare strumenti (teorie, analisi matematiche, ect.) considerati scientifici, applicandoli a teorie o per analizzare fatti, senza prima aver definito le basi della scienza a cui si vogliono applicare, ottenendo risultati aleatori e non scientifici.
Per prima cosa, quindi, andrebbero definite le basi di una nuova scienza, solo in un secondo tempo sarà possibile, su quelle basi, applicare metodi e verificare teorie.
Difficilmente alle discipline umanistiche sarà possibile applicare le stesse basi scientifiche che "funzionano" in discipline come la matematica, la fisica, etc.
Per quanto riguarda l'etica credo che nessuno ci abbia mai nemmeno provato.
Si parla, certo, da lungo tempo di etica della scienza, intendendo dire come la ricerca scientifica debba essere confinata all'interno di una certa etica.
Ma il problema di fondo è creare prima una scienza etica, che stabilisca in modo scientifico cosa è eticamente accettabile e cosa no, in base a quali criteri, e qual è l'ambito in cui tutto ciò si applica.
La nostra etica si basa solitamente su convinzioni religiose, su prassi consolidate, sul sentire comune, sulle opinioni di vari pensatori, filosofi, scienziati, etc., tutto ciò, ovviamente non ha nulla di scientifico.

Il problema di trasformare l'etica in una scienza etica è un problema reale?
Purtroppo o per fortuna è un problema reale e anche molto pressante.
Il comportamento etico dell'individuo, all'interno di una società, viene normato attraverso leggi, consuetudini, credenze religiose e l'interpretazione riguardo al fatto che l'individuo si sia o non si sia comportato eticamente avviene attraverso i sistemi giuridici, l'approvazione o disapprovazione della maggioranza delle persone, tutto ciò avviene solitamente ex-post.
In altre parole ad ogni individuo vengono proposte delle regole, che siano leggi o usanze o dettati religiosi, che definiscono, in modo piuttosto vago e interpretabile, come debba comportarsi.
La società interviene per sanzionare eventuali comportamenti non etici solo dopo che questi sono avvenuti: il singolo decide autonomamente quali opzioni scegliere e se attenersi o meno ad un certo codice etico.
Un essere umano ha, quindi, la possibilità di prendere decisioni anche se non possiede nessun codice etico.
Nel prossimo futuro, e quando dico prossimo intendo nel giro di uno o due anni al massimo, esisteranno sistemi robotizzati che dovranno prendere delle decisioni (anche) in base a principi e norme etiche che, però, per la natura stessa del software che deve prendere queste decisioni, dovranno sottostare a criteri rigidamente scientifici.
I robot dovranno avere prima un codice etico in base al quale prendere delle decisioni, e solo dopo, potranno prenderle, altrimenti non saprebbero letteralmente cosa fare.
Questa etica, di cui i robot dovranno fare uso per forza di cose, ad oggi non esite: questo potrebbe rivelarsi un enorme problema.
A livello "umano" non esiste un'etica condivisa, ogni stato, religione, fino ad arrivare ad ogni singola persona, offrono sfumature etiche differenti.
Una definizione scientifica di etica dovrà tenere conto di differenze tra nazione e nazione, tra religione e religione, tra singoli individui?
Chi deciderà come si dovrà comportare un robot di fronte ad una scelta etica? L'azienda che lo produce? Dovrà seguire regole stabilite da ogni singola nazione? Dovrà seguire regole decise da ogni singolo essere umano? In questo ultimo caso, se un robot svolge le sue attività all'interno di una comunità (gruppo, azienda, famiglia, etc.), chi decide quale comportamento, in determinate situazione è etico oppure no?
Chi ama la fantascienza starà già pensado: "Ma ci sono le 3 (4) leggi di Asimov!
L'etica di Asimon, cioè il codice comportamentale a cui soggiaciono i robot nell'universo ideato da Asimov, sono principi etici "umani", hanno come presupposto che il robot sia un essere senziente, in grado di fare valutazioni etiche specifiche in base a principi generali.
Ma il nostro mondo reale sta per essere invaso da robot che non sono per nulla senzienti e men che meno sono in grado di astrazione e contestualizzazione, definire principi etici astratti per una pressa computerizzata, un'automobile a guida robotizzata o un falciaerba automatico non ha alcun senso.

La questione è molto complessa e di non facile soluzione, le implicazioni sono anche stringenti dal punto di vista economico, visto che, fino a che una macchina agisce comunque sotto la supervisione di un essere umano si ritiene scontato che le conseguenze di un comportamento non etico della macchina siano responsabilità dell'essere umano.
Nel momento in cui una macchina prenderà delle decisioni senza la supervisione di un essere umano di chi saranno le responsabilità? Della ditta che la produce? Della persona che l'ha acquistata e messa in funzione? Può accettare questa persona di farsi carico di azioni di una macchina che segue un'etica che non è sotto il suo controllo ma decisa dall'azienda che la produce e/o dalla nazione che ne ha autorizzato l'uso?

Molti esempi possono essere fatti, tanto per chiarire il carattere pragmatico che deve assumere la scienza etica, su alcuni robot già in uso o che verranno commercializzati a breve.

Ammettiamo che si decida che ogni singolo stato definisce la propria etica:
Potranno essere venduti i robot tosaerba in nazioni con un'etica buddista, visto che, sprovvisti di un sensore che riconosca la presenza di animali sulla linea di taglio e di un braccio meccanico che li sposti in una zona sicura, la macchina, di sua inziativa, tagliando l'erba, potrebbe uccidere vermi e insetti presenti sul suo percorso?
Potrà circolare in Arabia Saudita un'automobile venduta in un paese occidentale che non ha un sensore che riconosca la presenza di una donna sola a bordo e si rifiuti di mettersi in moto?
Ipotizziamo che un'automobile a guida robotica abbia codificato un suo schema di valutazione etica che renda possibile decidere se frenare di colpo per evitare di investire chi attraversa la strada o proseguire tenendo conto anche dei possibili danni alle persone presenti nel suo abitacolo. Supponiamo che ad attraversare la strada sia: un pollo, un gatto, un cane, una mucca, un essere umano. Il rischio accettabile per chi si trova nell'abitacolo dipende dal valore che ogni nazione o ogni singolo darebbe sull'eventuale morte del soggetto investito. Un'auto indiana, cinese o europea potrebbero avere scale di valori differenti. Potranno circolare, ognuna col proprio codice etico, negli altri paesi?

Ammettiamo che a decidere il codice etico di comportamento sia la casa costruttrice:
Terrà conto delle varie sensibilità nei vari paesi e delle varie religioni? Sarà costretta a produrre un'infinità di modelli comportamentali? Produrrà un unico modello e rinuncerà a commercializzarlo in paesi che abbiano codici etici così differenti da non accettare i comportamenti dei propri robot?
Se l'etica viene decisa dall'azienda costruttrice, chi si farà carico delle conseguenze di scelte eticamente discutibili? Il singolo potrebbe rivalersi sull'azienda costruttrice asserendo di non condividere la scelta del robot e di non averne potuto influenzare le decisioni?

Ammettiamo che a decidere il codice etico sia il singolo acquirente:
Le aziende saranno in grado di produrre codici comportamentali così flessibili da adattarsi a qualunque richiesta del cliente? Chi si farà carico di definire se il codice etico deciso dal singolo sia accettabile per la collettività? Ad esempio, lasciato al singolo, il criterio di decisione di un'automobile robotizzata potrebbe essere che in caso di dubbio, l'incolumità delle persone a bordo del mezzo sia da ritenere sempre preponderante, quindi, anche nel caso di un possibile graffio ad una mano del passeggero dell'auto a confronto con la morte di una scolaresca di 30 bambini sia da preferire comunque la scelta che evita il graffio e compie una strage.

Con ogni probabilità sia le aziende costruttrici, sia i singoli acquirenti, per non doversi far carico di una serie imponderabile di conseguenze, cercheranno in qualche modo di ottenere delle norme per lo meno a livello di stati, se non addirittura a livello sovranazionale, ma chi si farà carico di definire la scienza etica che è necessaria per definire quali comportamenti sono etici e quali no, in modo puntuale e specifico e non in modo generico e aleatorio?

La differenza non è da poco, è abissale.
Norma etica: Non uccidere.
Scienza etica: L'auto deve frenare avendo il 40% di probabilità di finire contro un muro uccidendo chi si trova nell'abitacolo o cercare di evitare l'ostacolo con una probabilità del 60% di uccidere un pedone? Si dovranno stabilire i criteri di un algoritmo ben definito che permetta al robot di compiere una scelta etica. E non è affatto facile.

Parliamo sempre di auto, che sono anche il tipo di robotizzazione più vicina e al contempo che presenta enormi aspetti etici da affrontare.
Appare ovvio che un'auto a guida robotizzata rispetti tutto il codice della strada, si fermi agli stop, non superi i limiti di velocità etc. etc.
Questo comportamento potrebbe non essere però sempre eticamente accettabile.
Ammettiamo che un'auto robotizzata si avvicini ad un incrocio viaggiando a velocità codice e con il semaforo verde, prima di impegnare l'incrocio vede sopraggiungere a forte velocità un'auto guidata da un essere umano che non è più in grado di fermarsi al semaforo rosso e che, quindi, si scontrerà con quella robotica con gravi conseguenze per entrambi. Ammettiamo anche che l'auto robotica non possa fenare, altrimenti coinvolgerebbe anche l'auto che la segue, nè sterzare a destra o sinistra. In questo caso specifico sarebbe utile che l'auto sia libera di decidere, in via del tutto eccezzionale, di accelereare anche se questo comporterà il superamento dei limiti di velocità. Vediamo quindi che anche una norma assolutamente logica, come il pieno rispetto del codice della strada, potrebbe rivelarsi insidiosa se non vengono valutati in modo corretto i diversi pesi di comportamenti anche non etici, in linea generale, ma opportuni, in casi particolari.

Altri esempi possono essere relativi alla difesa robotizzata della propria casa.
In quali casi un robot potrebbe decidere di sparare, attivare una scossa elettrica potenzialmente dannosa, etc. per evitare un'effrazione in assenza dei proprietari? Eticamente è accettabile che un robot uccida un ladro? Chi avrebbe la responsabilità di questa azione? Cosa e chi sarebbe responsabile di un errore, cioè di danni gravi o della morte di qualcuno che cerca di entrare in una proprietà privata per motivi differenti dal furto, magari anche a tutela dei proprietari e/o delle loro proprietà?

A mio modesto parere tutte queste problematiche alquanto complesse potrebbero essere un grande aiuto per l'umanità.
La prima conseguenza positiva che vedo è che dovendo formalizzare cosa è eticamente accettabile e cosa no per un robot, volenti o nolenti, come essere umani, dovremo fare i conti con un'etica a cui diciamo di ispirarci altamente aleatoria e che, nascondendosi dietro a principi altissimi, si concretizza poi in azioni spesso molto lontane dall'etica "teorica" dietro cui si nascondono.
La seconda conseguenza potrebbe essere quella di definire un'etica comune, oggettiva e condivisa che porti finalmente al superamento dei codici etici religiosi e delle usanze, prese per buone perchè ataviche e non sempre perchè giustificate e giustificabili.

Nessun commento:

Posta un commento