In robot we trust. Oppure no?
Non c’è partita, lo dicono i numeri. 1,7 contro 42: basta questo dato per capire che la rivoluzione 4.0 non riguarderà tanto le industrie quanto le nostre case. Secondo l’International Federation of Robotics entro il 2020 entreranno nelle fabbriche di tutto il mondo 1,7 milioni di nuovi robot, ma a fronte di essi saranno acquistati 42 milioni di robot per uso domestico o personale. Cioè robot che dovranno interagire con gli esseri umani, in particolare nella cura degli anziani. Non per nulla a trainare l’impennata dei Social Robot sarà l’health care.
Ma come ci immaginiamo i robot sociali del prossimo futuro? Quali caratteristiche dovrà avere il robot a cui affideremo il compito di assistenza e cura del nonno di casa? Ecco che il tema cruciale, parlando di Social Robot, diventa quello della fiducia. Possiamo fidarci dei robot? In discussione non è l’affidabilità tecnica dei robot, ma una fiducia morale. Non un banale “to rely on” ma un autentico “to trust in”. Detto in altre parole, la roboetica sta diventando la scienza più urgente e necessaria, al punto che persino Papa Francesco ha convocato gli esperti della Pontificia Accademia per la Vita sfidandoli, nella plenaria, con un “Roboetica. Persone, macchine e salute”.
[legacy-picture caption=”Giampaolo Ghilardi, ricercatore di Filosofia Morale” image=”a0f369dd-dbcf-45b5-a65c-6415ee1075b2″ align=”left”]Giampaolo Ghilardi, ricercatore di filosofia morale all’Istituto di Filosofia dell’Agire scientifico e tecnologico dell’Università Campus bio-medico di Roma, ripercorre a grandi tratti gli esordi della roboetica, rintracciata per la prima volta come disciplina nel 2005. «I primi temi erano legati ai droni militari o alle macchine a guida autonoma», ricorda il prof Ghilardi, «Se investe una persona, di chi è la responsabilità? E come devo programmare l’algoritmo per decidere come la macchina deve comportarsi? È meglio evitare un anziano o un bambino? Tutte domande che l’ingegnere robotico deve porsi». Può un algoritmo essere morale? È possibile impiantare una coscienza morale nei robot? «Qualcuno ha detto sì, poi lo sviluppo è stato diverso», afferma Ghilardi, «non esiste la fattispecie del robot etico ma è chi lo disegna e lo programma che può avere senso etico o no. Dove senso etico significa vedere tutto il complesso di problemi e anche il fatto che ogni risposta genera altri problemi. La parola robot viene da un termine ceco che indica lo schiavo, che per definizione non ha libertà e dunque non può essere soggetto di una decisione morale. La slave morality è una contradictio in adiecto, come direbbe Kant, come parlare di un “ferro di legno”».
Non esiste il robot etico. È chi lo disegna che può avere senso etico oppure no
La domanda allora si ribalta. I produttori oggi sono o no attenti a progettare con senso etico? Il tema è sul banco, spiega Ghilardi, perché «la robotica sta cominciando a subire un calo di credito, in parte per l’idea distopica per cui i robot tolgono all’uomo posti di lavoro. Di conseguenza sta emergendo un bisogno molto forte di costruire fiducia nelle macchine». Un sintomo del cambiamento è l’enfasi sulla spiritualizzazione del lavoro oppure il fatto che i bandi europei sono oggi più di ieri molto tarati sull’how to build trust on robotics.
Il tema centrale a questo punto qual è? «Che io la fiducia la posso accordare solo a un mio simile, quindi per sviluppare fiducia nei robot devo creare fiducia nei confronti di chi li progetta, lavorando sulla trasparenza tra progettatore e utente, rendendo chiara la filiera, rendendo visibile la faccia umana che sta dietro al robot. Il punto non è la reliability, la macchina è affidabile, ma il to trust in, il pensare che chi ha costruito questa macchina avesse a cuore la mia felicità e il mio benessere… altrimenti come posso affidargli il mio famigliare anziano o malato?».
Non parlo di reliability ma di to trust in. Altrimenti come posso affidare al robot il nonno? Per i produttori è un punto nodale
È evidente così che la riflessione della roboetica esplode dinanzi all’imminente massiccia diffusione dei Social Robot nelle nostre case. Avere uno slave in casa ha senso? «Sì se ci libera dagli aspetti più gravosi del lavoro domestico, come fa il Roomba, no se pensiamo di delegargli quelle funzioni personali che non sono delegabili, come la cura dell’anziano. È chiaro che possiamo essere aiutati dalla macchina e che la macchina nella sua impersonalità risolve anche meglio dell’uomo alcuni problemi, ma quello che non può essere demandato è il controllo. Il discrimine etico per il robot assistente di anziani o disabili è che il controllo umano deve essere sempre previsto, che sia un famigliare o un operatore, non è un vulnus», riflette Ghilardi, poiché «un conto è essere curati e un altro è essere aggiustati. Questo è un punto molto predicato, ma non so se sia acquisito. D’altronde siamo a livello embrionale, i robot assistenti sono a livello di prototipo. È vero però che nel campo dell'assistenza un robot completamente autonomo sarebbe poco accettato dal mercato e il mercato orienta».
Il discrimine etico per il robot assistente è che il controllo umano deve essere previsto.
Per ragioni non dissimili, anche il robot antropomorfo su cui qualche anno fa le fiction fantasticavano, sembra superato. Il fenomeno dell’uncanny valley in realtà è noto fin dagli anni ’70: in certe situazioni, la somiglianza del robot con l'essere umano inquieta anziché rassicurare. Il robot assistente con forma umana quindi dà un senso di alienazione, di inganno, che lo rende poco accettabile e non aiuta per nulla la famigliarità di utilizzo. Ricordando sempre, infine, mette in guardia Ghilardi, che per quanto «puoi addestrare la macchina a catalogare le espressioni del viso, a riconoscere le emozioni e anche a riprodurle, questo non significa che la macchina quelle emozioni le stia provando, allo stesso modo in cui alla portentosa capacità di calcolo della macchina non corrisponde che la macchina stia pensando. Il robot che ci batte a scacchi, non è per questo intelligente».