da L’Osservatore Romano, 8 aprile 2010
Il robot deve potersi vergognare
Programmazione delle macchine e responsabilità morali
di Giulia Galeotti
Vi sono saggi che è affascinante leggere anche solo per il gusto di veder posti problemi e questioni, nodi invisibili ai non addetti ai lavori, ma che invece iniziano ad attraversare, o già attraversano, le nostre società. È sicuramente questo il caso del libro di Weldell Wallach e Colin Allen, Moral Machines. Teaching Robots Right from Wrong (New York, Oxford University Press, 2009), in cui gli autori affrontano i problemi di responsabilità etica posti dalle macchine intelligenti, da quei robot sempre più sofisticati e indispensabili che popolano il mondo contemporaneo. Scrittore affiliato al Centro interdisciplinare di bioetica della Yale University l’uno, e docente di storia e filosofia della scienza all’Indiana University l’altro, l’incontro tra Wallach ed Allen dà luogo a pagine sorprendentemente problematiche.
I computer sono oggi protagonisti attivi delle nostre esistenze, guidando i treni o occupandosi di transazioni finanziarie (giusto per fare due esempi), al punto che è ormai più che legittimo domandarsi se, nelle loro mansioni costantemente crescenti, sia necessario programmarli come macchine in grado di prendere decisioni etiche, tutelando in questo modo l’incolumità del genere umano.
Analizzando con dovizia la letteratura esistente – soprattutto di area anglofona – in tema di filosofia, etica e intelligenza artificiale, contestando l’imminenza di un futuro attualissimo e rifiutando, del pari, sia gli eccessivi entusiasmi di alcuni che le catastrofiche preoccupazioni di altri (atteggiamenti entrambi dettati, secondo gli autori, dalle pressioni dell’industria e del profitto), Allen e Wallach giungono alla conclusione che occorra iniziare a riflettere seriamente su questi problemi. Più che una conclusione, è in realtà la messa a fuoco del bisogno di trovare un punto collettivo di inizio, che chiami in causa al contempo la politica, la scienza e l’etica. Una piattaforma ingenua, potrebbe obiettare qualcuno.
Certamente una piattaforma difficile: non è per nulla semplice immaginare un codice comune condiviso, al di là degli Stati e delle culture. Basti pensare a quanta differenza corre tra Paesi che ammettono e godono dei benefici della migrazione in termini di manodopera non qualificata, e Paesi che, avendo chiuso le frontiere, hanno necessità di investire nelle macchine. Non può essere certo un caso che in Giappone vi siano gli studi più avanzati per creare robot-badanti per gli anziani, o comunque robot-casalinghi.
Se il volume richiama questioni che paiono oggettivamente futuristiche (che diritti riconoscere al robot nel caso, poniamo per assurdo, di matrimonio tra un essere umano ed una macchina?), altre risultano invece di grande attualità: chi è responsabile per le azioni del robot? Il robot stesso, chi l’ha programmato (anche laddove non abbia previsto quella conseguenza negativa) o chi lo mette in azione?
La questione è evidente, ad esempio, nel caso di robot utilizzati per interventi militari particolarmente delicati e pericolosi, macchine che, tra l’altro, necessariamente vengono progettate violando la prima legge di Asimov (“un robot non può arrecare danno a un essere umano, o, per inazione, permettere che un essere umano subisca danno”). Secondo alcuni la soluzione potrebbe essere quella di programmarli con quelle che per solito si definiscono le human-friendly motivations, impedendo così la messa in atto di azioni che possano danneggiare l’uomo. È verosimile, però, che l’intelligenza artificiale di tali macchine le induca a oltrepassare i loro paletti “innati”.
Del resto, chiamare questi sistemi artificiali “macchine intelligenti” è davvero un bene? Se tale nomenclatura tende a deresponsabilizzare nell’immaginario dei più il disegnatore e il programmatore rispetto alle azioni che poi il robot mette in pratica, è anche vero che le categorie dell’agire umano seguono percorsi che sarà difficile applicare a questi sistemi. La paura della punizione (multa o carcere che sia), influenza le scelte e i comportamenti umani: è indubbio che allo stato attuale le macchine, sia pure intelligenti quanto si vuole, non ne sono invece influenzate in alcun modo. Si dovrebbe o potrebbe quindi instillare nel robot qualcosa come il senso di vergogna?
Oggi le normative tracciano una differenza netta a seconda che abbiano a che fare con persone umane o con macchine: man mano che i robot diventeranno sempre più autonomi e sofisticati, è pensabile un superamento di tale partizione? È ipotizzabile la necessità di riconoscere loro diritti? Del resto, gli autori notano come sia verosimile che man mano che i sistemi diventeranno più sofisticati, sempre meno persone si domanderanno se sia lecito o appropriato antropomorfizzare le loro azioni, vedendoli come entità intelligenti con una loro specificità propria.
Al fondo, comunque, Wallach e Allen rimarcano la presenza di una questione molto più radicale rispetto a quelle sollevate fin qui: è etico predisporre macchine dotate di senso morale? È antietico costruire robot che provino emozioni o, al contrario, è antietico programmarli senza sentimenti? È, forse, il vero nodo irrisolto della questione.
Un approccio interessante viene ancora una volta dalla fervida penna di Asimov. Nel racconto L’Uomo bicentenario (1976), il protagonista, il robot Andrew – modello NDR-113, viene accettato e riconosciuto anche giuridicamente come un essere umano solo dopo aver acconsentito a che il suo cervello positronico venga sostituito con cellule di cervello umano deperibili e mortali. La definizione di essere umano è inseparabile dalla mortalità. Intelligenza inclusa.
© L’Osservatore Romano
Lascia una risposta
Devi essere connesso per inviare un commento.