Il passato, il nostro miglior insegnante, non fa ben sperare sulla capacità dell'umanità in generale e di nazioni, enti, comunità scientifica, nell'affrontare la necessità della nascita di una scienza etica.
Nel recente passato abbiamo già subito una prima invasione di robot, avvenuta senza quasi che se ne abbia avuto nemmeno la consapevolezza, e il problema non è stato minimamente affrontato.
Nel recente passato robot software, in generale definiti algidamente col termine "algoritmi" o espressioni simili, hanno invaso il nostro mondo alterandolo, prendendo decisioni eticamente discutibili e portando distruzione, morte, povertà in tutto il mondo, senza che nessuno o quasi affrontasse i problemi etici correlati col fatto che determinate decisioni fossero prese da automatismi sui quali gli interventi umani avevano e hanno scarsa o nulla possibilità di incidere.
Il fatto che un "algoritmo" non sia un'entità fisica tangibile lo rende ovviamente impalpabile e quindi le sue decisioni avvengono senza che nessuno si sia preoccupato di definire un ambito etico all'interno del quale possa opportunamente agire.
La finanza sicuramente è l'ambito in cui, prima che in qualunque altro, hanno fatto il loro ingresso algoritmi che prendono decisioni automatiche.
Da decenni i mercati dei cambi, delle azioni, delle obbligazioni e dei derivati, sono nelle mani di algoritmi man mano più sofisticati, che prendono velocissime e ripetute decisioni, impossibili in precedenza per velocità, accuratezza e ripetitività per un essere umano.
Scalping, arbitrage, etc. sono tecniche che prendono piede solo a partire dal momento in cui i trader finanziari hanno avuto a disposizione degli algoritmi, che in effetti sono dei veri e propri robot software.
E questi algoritmi sono in grado di prendere decisioni e agire sui mercati in modo autonomo.
Se, nelle fasi iniziali di queste pratiche, i disastri sono stati molto evidenti, con tutti i robot che, seguendo trend in ascesa o discesa ad esempio di prezzi di titoli azionari o cambi valutari, hanno auto-alimentato questi trend portando i mercati verso situazioni insostenibili, man mano che venivano affinati, le conseguenze sono divenute più sottili, ma sono diventate strutturali e hanno contribuito non poco a portare a situazioni di crisi profondissime e dalle conseguenze assolutamente tangibili.
In particolare l'automatizzazione, sprovvista di un qualunque piano etico e addirittura, spesso di un qualunque controllo, hanno portato a conseguenze disastrose sul piano sociale e umano, nei settori energetici e delle materie prime.
In particolare nel settore alimentare, sono state messe "fuori mercato" (che significa ridurre alla fame) miliardi di persone a fronte di guadagni a volte marginali, conseguiti attraverso operazioni di creazione di "bolle" speculative avvenute mediante meccanismi automatici governati da algoritmi che non rispondono a nessun codice etico.
Questo problema non è nemmeno mai stato realmente posto all'attenzione, non dico del grande pubblico, ma nemmeno degli addetti ai lavori, in primis di chi programma questi robot software, il cui unico scopo è massimizzare il profitto, senza che nessuno si sia posto la domanda se abbiano o meno la necessità di un comportamento etico, o, perlomeno, di limiti etici.
Considereremmo eticamente accettabile se un essere umano, al fine di conseguire un guadagno tutto sommato marginale, ad esempio facendo arbitraggio sui prezzi del grano, portasse ad un aumento stabile dei prezzi di questa materia prima a livello mondiale, se fossimo a conoscenza che, in questo modo, centinaia di milioni di persone potrebbero morire di fame?
Se le decisioni che portano a questa situazione vengono prese da un meccanismo automatico, o dal concorso di un rilevante numero di meccanismi automatici a livello globale, qualcuno si preoccuperebbe delle conseguenze e del dilemma etico che ne conseguirebbe?
In pratica avviene uno spostamento surrettizio delle responsabilità.
Viene chiesto a qualcuno di creare un robot, senza nessuna etica, che agendo autonomamente, massimizza il guadagno di chi lo usa e sposta le responsabilità da chi l'ha commissionato ad un'entità astratta e impalpabile a cui nessuno chiede conto delle azioni e delle loro conseguenze.
E' possibile fare in modo che l'algoritmo si domandi, all'interno dei propri processi decisionali: "In conseguenza di questa azione un milione di persone in più, moriranno di fame, devo fare o non devo fare questa azione?"
Per fare questo, però, è necessario definire una scienza etica e obbligare chi costruisce robot, ad implementarla.
Non è fantascientifico immaginare un robot che, non avendo alcun codice etico, allo scopo di portare a termine il proprio compito, riduca alla povertà intere nazioni o affami milioni di persone.
Queste cose sono già state fatte e nessuno se ne è minimamente preoccupato.
Nessun commento:
Posta un commento