Posa un robot a la teva vida, o no

El debat sobre els beneficis, limitacions i perills de la intel·ligència artificial (IA) fa molt de temps que està present. Hi ha diverses definicions de què és la IA, des de l’original de John McCarthy (1995) que diu  que “és fer que una màquina es comporti d’una manera que seria considerada intel·ligent en un ésser humà” fins a la de Minsky que assigna a la IA la “realització de sistemes informàtics amb un comportament que en l’ésser humà qualificaríem d’intel·ligent” (Viquipèdia).  L’any 1950 Alan Turing va proposar el seu famós “test de Turing” per discernir si una màquina era capaç de mostrar un comportament intel·ligent de manera que un observador extern no pogués distingir entre el comportament d’aquesta màquina i el d’una persona. Avui dia encara hi ha debat sobre si alguna màquina ha superat ja aquest test o no. Entre els contraris a considerar la superació del test de Turing com a prova d’una intel·ligència trobem a John  R. Searle amb la seva prova de “l’habitació xinesa” on proposa que el fet que una màquina es comporti de manera aparentment intel·ligent no implica que pensi per si mateixa  ni que realment ho sigui (Searle, 1980).

En tot cas cal tenir present que part d’aquest debat sobre la IA rau en com definim conceptes com la pròpia “intel·ligència” o el “pensament”. En aquest sentit s’ha de distingir entre una IA “dèbil” que podríem associar a la de les màquines que ens ajuden a realitzar algunes tasques de manera més ràpida, eficient o sense haver de posar-nos en perill, i una IA “forta” que d’alguna manera ens superaria com a entitat intel·ligent i capacitat de pensament i raonament. I és aquesta IA “forta” la que genera més debat no tan sols en relació de quan la desenvoluparem tecnològicament sinó si és, de fet, realment assolible. Sembla clar pensar que al considerar aquesta IA “forta” com quelcom que superi la intel·ligència humana hauríem de definir molt bé què és aquesta i veure si la IA pot resultar una amenaça per a ella.

Com diu Daniel Innerarity si la IA vol semblar-se i superar a la humana caldria que tingués mecanismes cognitius similars als humans, com són la consciència de sí mateixa, l’afectivitat o la intuïció. Hauria d’imitar-nos en la manera en que nosaltres pensem, ens adaptem i actuem sovint amb informació incompleta i inclús inconsistent i consumint poca energia. I tot perquè tenim una gran capacitat de simplificar i detectar patrons (Innerarity, 2020). I és que mentre els ordinadors actuals poden processar una gran quantitat de dades en un temps cada cop menor és important ser conscient que velocitat de càlcul i judici són dues coses diferents. Per Innerarity la IA actualment és massa cartesiana i necessitaria una mena de gir interpretatiu semblant al que va dur a terme la teoria del coneixement de la mà de Heidegger i Wittgenstein. D’alguna manera la IA despulla d’interpretació l’input d’informació per deixar-lo en un simple conjunt de dades. Però no podem arribar a cap pensament sense uns prejudicis previs o una necessitat interpretativa. Així doncs, seria aquest “saber implícit” el que la IA no té encara (Innerarity, 2020).

En una línia semblant, Markus Gabriel critica una visió excessivament funcionalista del pensament que considera que seria possible extreure aquest pensament del hardware que representa el cos de l’ésser humà per a instal·lar-lo en un hardware no biològic. Per a ell, el nostre cos està connectat al medi ambient i aquesta connexió és essencial per a la nostra intel·ligència. En aquest sentit argumenta que la intel·ligència no és simplement un sistema de resolució de problemes sinó sovint de generació d’aquests. I no ho fa en un marc abstracte sinó en el marc concret de la nostra supervivència. En canvi, pels ordinadors no hi ha qüestions de supervivència perquè no estan vius (Gabriel, 2019).

Ara bé, malgrat que ara per ara no hi ha un consens sobre si aquesta IA “forta” es podrà assolir en un temps relativament proper sembla molt plausible pensar que si arriba el moment en que entenguem millor com funciona la intel·ligència i el pensament humà i desenvolupem una tecnologia que ens permeti replicar-la en un substrat no biològic, aquesta IA “forta” arribarà a les nostres vides. I per tant, pensar des de ja com hi interaccionarem es fa del tot necessari. De fet, és necessària una reflexió filosòfica sobre tota la IA, tant per la futura que pot arribar com la que ja tenim en el nostre dia. I és que en l’actualitat, i encara que no puguem atribuir una humanitat a la IA, aquesta controla, modifica, distorsiona i crea moltes de les nostres realitats quotidianes. I això va des dels algorismes que ens aconsellen música, restaurants i cites amoroses fins robots que ens netegen el terra de casa, passant per robots dissenyats com a armes autònomes  i fins a vehicles d’automoció autònoms i robots de cura o robots que realitzen operacions quirúrgiques de precisió. És cert que podríem dir que es tracta d’una IA al servei d’una intel·ligència humana, d’uns propòsits humans, triats per una sèrie concreta de motius i regles morals humanes. Però també hem de ser conscients que aquesta IA cada cop va esdevenint més autònoma de les persones i d’aquí la necessitat d’establir alguna mena de marc regulador i reflexiu per pensar la nostra relació amb la mateixa. Aquesta necessitat queda reflectida, per exemple, en la resolució del Parlament Europeu  sobre normes de Dret civil sobre robòtica del 2017. Aquesta resolució, entre d’altres coses, atribueix als robots intel·ligents característiques com ara: capacitat d’adquirir autonomia, capacitat d’aprenentatge a partir de l’experiència i la interacció, un suport físic mínim, una capacitat d’adaptar el seu comportament i accions a l’entorn i inexistència de vida en sentit biològic. Al mateix temps demana que la tecnologia robòtica complementi les capacitats humanes però no les substitueixi i que els humans tinguem en tot moment un control sobre les màquines. Respecte als principis ètics aquesta resolució indica que el disseny, producció, ús i modificació dels robots s’ha de dur a terme en un  marc ètic clar, estricte i eficient.

Dins de la robòtica un dels camps en creixement és el dels anomenats robots de cura. És a dir robots dissenyats per ajudar a tenir cura de persones dependents, especialment infants i gent gran que no es poden valer per sí mateixos. L’envelliment progressiu de la majoria de poblacions de societats desenvolupades fa que cada cop hi hagi més gent que arriba a una edat avançada on van perdent autonomia i necessiten d’una atenció personalitzada. És en aquest context on els robots de cura comencen a jugar un paper important. Un dels primers aspectes a tenir en compte és que la relació que establirem amb aquests robots que venen a realitzar una tasca feta fins ara per altres persones vindrà inicialment condicionada per la imatge que tinguem sobre els robots. Imatge que s’haurà format depenent del context cultural on haguem crescut. En aquest sentit resulta interessant el que escriu Heather Knight sobre com els robots estan més acceptats al Japó que als EEUU lligant-ho amb la religió. En una societat monoteista i d’arrel cristiana com l’occidental el fet de construir robots a imatge dels homes ha estat vist com una usurpació del paper creador de Déu. Només cal pensar en la història de Frankenstein de Mary Shelley. O en la literatura i el cinema on hi ha múltiples exemples de robots o màquines que desafien a l’home constantment (des de HAL a 2001: Una odissea a l’espai fins a Terminator). En canvi, al Japó el sintoisme ajunta objectes, natura, animals i persones compartint tots ells una mena d’esperit comú que vol estar en completa harmonia. En aquest sentit el robot no es veu com una amenaça. Al contrari sovint els robots són els herois de moltes històries.

És per això que podríem considerar que cada cultura determinarà quina mena de robots vol, com han de ser i què han de fer. I segons el context cultural i la funció buscada hauran de tenir unes formes o unes altres per tal que siguin acceptats. Per exemple, i en el cas dels robots de cura fins a quin punt cal antropomorfitzar-los l’aspecte? Han de tenir l’aspecte més humà possible? És interessant algun estudi que ha definit l’anomenat “Uncanny Valley”  (Mori, 1970) que indica que en principi com més semblant als humans és un robot més acceptació assoleix. Ara bé a mesura que augmenta aquesta semblança s’arriba a un punt on l’acceptació baixa de cop i no torna a créixer fins que el robot no adopta un aspecte molt i molt semblant al dels humans. Per altra banda, altres estudis indiquen que els robots que s’assemblen més a les persones generen més rebuig com més capaços són d’imitar molt bé els comportaments humans. Potser perquè llavors reconeixem en ells comportaments humans en un suport que en el fons sabem que no és humà però que en dubtem degut al comportament que mostren. En aquesta línia i pensant en els robots de cura  algun estudi ha trobat que la gent gran prefereix robots amb cares més humanes mentre que la gent jove s’estima més cares mixtes robot-humà. Això és rellevant perquè en el cas dels robots de cura el que s’espera és que de manera inevitable es creï un vincle emocional entre la persona i el robot. Per tant, la persona s’ha de sentir prou confortable en presència d’aquest robot i l’aspecte extern serà important (Borenstein and Pearson, 2011). Ara bé, el perill pot ser que la persona cuidada acabi considerant al robot com a una persona viva i perdi la capacitat de distingir entre ambdós. Sobretot si aquesta identificació física va acompanyada d’una identificació funcional i moral. Perquè llavors la persona cuidada podria trobar-se en el dilema moral d’haver de triar entre una persona viva i un robot, un cop aquest ha assolit un estatus moral als seus ulls. La qüestió és si aquest vincle s’estableix de manera recíproca o no. És a dir podrà un robot en algun moment establir un vincle emocional (que no pas funcional) amb la persona que cuida equivalent al que aquesta pot establir amb ell? Aquesta problemàtica apareix també en la pel·lícula Her (Dir. Spike Jonze, 2013) on el protagonista acaba enamorat d’una IA amb la que de fet es comunica a través de la conversa i la imaginació. La major frustració pel protagonista és quan se n’adona que mentre que per a ell la seva relació no és només real sinó que veu a la IA com alguna cosa única, quelcom que té una individualitat específica com la que té ell, la IA no el veu a ell ni la seva relació com una cosa única. De fet ella forma part de múltiples relacions semblants amb altres humans.

Un altre dels perills normalment associats a la nostra relació actual amb les màquines i la tecnologia és la paradoxa que mentre que busquem en ella la manera d’expandir la nostra xarxa de contactes acabem estant més sols que mai. Com diu la Sherry Turkle tenim el desig ocult de que les màquines ens “escoltin” com si fossin humans potser perquè en el món real no ens sentim escoltats i en canvi amb alguna màquina sí. I això pot generar una falsa sensació de realitat. De fet això li passa a Frank a la pel·lícula “Un amigo para Frank” (Dir. Jake Schreier, 2012). Malgrat el seu rebuig inicial al robot la veritat és que mica en mica estableix un vincle emocional més fort que el que té amb els seus fills que de fet  o no tenen temps per cuidar-lo constantment o simplement es relacionen amb ell a través de videotrucades. En aquest sentit què és més real o humà? Parlar amb la filla a través d’una pantalla o parlar cara a cara amb un robot mentre menges el que t’ha cuinat? Qui cuida millor de Frank, un robot sense suposada intel·ligència emocional o els seus fills? Per tant, per una banda tenir un robot de cura pot ser beneficiós per a la persona gran en forma de companyia, tenir algú amb qui parlar i que l’escolti però s’ha de vigilar que aquestes persones no deixin de buscar llavors el contacte humà. O potser no ens hem de preocupar i considerar que si aquesta persona té un vincle amb un robot prou fort com per veure’l com a una persona per què hauria de buscar un vincle amb una persona humana? De fet Frank veu al robot com algú viu, com un amic real malgrat que el robot no deixa de dir-li que ell no és un amic real ni viu. Potser llavors el dilema moral no l’ha de tenir Frank o la persona cuidada sinó les persones que fan que un robot sigui el cuidador. En aquest establiment d’un vincle emocional recíproc seran importants els criteris que usem per definir “humanitat”.  Què ens fa humans a nosaltres però no encara als robots? A la pel·lícula “Un amigo para Frank” és interessant el contrast entre Frank que té Alzheimer I va perdent la memòria I el robot que de fet té una memòria absoluta. En aquest punt, qui està més viu? Qui és més humà? En tots dos casos, la pèrdua de memòria acaba amb les seves identitats, en el cas de Frank es deshumanitza per l’Alzheimer; en el cas del robot per la seva reprogramació. És a dir que si considerem la memòria i l’aprenentatge a partir de les experiències com un tret humà que ens defineixi i modela la nostra identitat individual, els robots no estan tan lluny de nosaltres.

Seguint ara amb una perspectiva funcional un robot de cura pot estar dissenyat específicament per tenir cura de les persones grans. I evidentment com més autonomia guanyi i més aprengui més bé farà la seva feina. Això ho podríem contrastar amb la funció que s’espera de les persones. Estem dissenyats per cuidar de la gent gran? En tot cas per cuidar dels fills sembla que sí però que passa amb els pares i mares? Tenim permisos de maternitat i paternitat però no pas de cuidar dependents grans. I això pot tenir tant una raó biològica com, evidentment, de model de societat. Però no deixa de ser una realitat. En el cas de Frank veiem que pel seu robot lo important és tenir cura de Frank i per fer-ho fins i tot l’ajuda a robar. No és qüestiona si l’acte de robar és correcte des d’un punt de vista ètic o moral. Simplement assumeix que si és bo per Frank llavors no pot negar-s’hi. D’alguna manera adapta la seva moralitat a la del propi Frank. Això ens porta a considerar el tema de quina ètica i moral han de tenir els robots arribats el cas que els hi puguem programar. És evident que tindran l’ètica que els hi donin els seus programadors i dissenyadors. I de la mateixa manera que és molt difícil pensar en una ètica humana universal també ens haurem d’acostumar a múltiples ètiques per a la IA.

Un aspecte amb implicacions ètiques és la defensa de la privacitat i la intimitat de les persones a càrrec dels robots. Així, si aquests robots fan un monitoratge constant d’aquestes persones en forma de gravacions, què passa amb aquestes? qui hi tindrà accés? durant quant de temps? Imaginem una persona malalta d’Alzheimer que no és conscient que l’estan monitoritzant constantment. Tenim dret a gravar-la? En l’altre extrem, si una persona és conscient que està sent monitoritzada actuarà de la mateixa manera que si no ho fos? Un altre context on poden aparèixer dilemes ètics és el que fa referència a l’autonomia de les persones a càrrec. Així, seria legítim èticament autoritzar al robot que no permetés a l’infant o persona gran fer alguna cosa que el robot tingués  a la seva llista de coses perilloses? On està el dret a l’autonomia de les persones? Si el robot actua autònomament podem confiar en el seu criteri per decidir que és perillós  i què no? Per exemple, no deixar beure a una persona gran perquè no s’emborratxi i caigui o no deixar que un nen mengi dònuts per no esdevenir obès (Sharley and Sharley, 2011). Però de fet aquests dilemes ètics ens els podríem plantejar quan els nens i la gent gran estan a càrrec de persones humanes. Si som nosaltres els que prohibim fer aquestes coses als nostres fills o dependents no ho considerem una invasió de la seva autonomia, oi? Cada persona pot considerar què és perillós pel seus dependents. Per tant per què hauríem de qüestionar les mateixes decisions preses per un robot? És cert que en aquests moments els robots són bons seguint regles però segurament no són encara prou bons per comprendre el context social del voltant ni en predir conseqüències. Però què passaria quan un robot superés el que Rob Sparrow ha definit com el test del triatge de Turing (Sparrow, 2011). És a dir, què passarà si algun dia podem donar  un status moral als robots? Quan no els distingim de les persones humanes? Quan siguin capaços d’entendre quins comportament són apropiats en cada context així com ser capaços de predir les intencions de les persones a càrrec? De fet una situació semblant es planteja a la pel·lícula Ex-machina (Dir. Alex Garland, 2015) on es supera el test de Turing perquè el protagonista malgrat ser absolutament ser conscient d’estar interactuant amb un robot no està del tot segur que aquest no sigui humà.

En resum, la IA forma part ja de la nostra societat i el més probable és que cada cop participi més de les nostres vides, cada cop confiem més en la tecnologia per solucioni els nostres problemes. Una tecnologia que canvia no només com fem les coses sinó com som nosaltres. Per tant, és obvi que cal una reflexió filosòfica profunda de com establir les regles de relació amb aquesta IA, sobretot a mesura que aquesta es vagi fent més autònoma. No sabem si arribarà el dia en que la IA podrà definir les seves pròpies regles ètiques enlloc d’estar sotmesa a la que els programadors i dissenyadors li donin. O que puguin modificar aquestes regles si creuen que no són correctes com no els  passa als robots del llibre “Máquinas como yo” de Ian McEwan i que es suïciden perquè no poden mentir i això els genera un conflicte de relació amb les persones amb les que viuen. En tot cas, hem d’estar-hi preparats.

Referències

Benefits and risks of artificial intelligence. Future of Life Institute https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/

Borenstein, Jason i Pearson, Yvette. Robot caregivers: ethical issues across the human lifespan. En Robot ethics: the ethical and social implications of robotics. Lin, P., Abney, K., & Bekey, G.A. (eds), 2011.

Diario Oficial de la Unión Europea (2018). Normas de Derecho civil sobre robótica. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52017IP0051#ntr3-C_2018252ES.01023901-E0003

Gabriel, Markus. El sentido del pensamiento. Pasado y presente, Barcelona, 2019.

Innerarity, Daniel. La inteligencia de la inteligencia artificial. Consideraciones epistemológicas. Argumenta Philosophica vol 1: 37-50, 2020.

Intel.ligència artificial. Viquipèdia https://ca.wikipedia.org/wiki/Intel·ligència_artificial

Knight, Heather. How humans respond to robots

https://www.brookings.edu/research/how-humans-respond-to-robots-building-public-policy-through-good-design/ 2014.

McEwan, Ian. Máquinas como yo. Anagrama, Barcelona, 2019.

Mori, Masahiro. The uncanny valley. Energy 7: 33-35, 1970.

Searle, John R. Minds, brains, and programs. The behavioral and brain sciences 3: 417-457, 1980.

Sharkey, Noel i Sharkey, Amanda. The rights and wrongs of robot care. En Robot ethics: the ethical and social implications of robotics. Lin, P., Abney, K., & Bekey, G.A. (eds), 2011.

Sparrow, R. Can machines be people? reflections on the Turing triage test. En Robot ethics: the ethical and social implications of robotics. Lin, P., Abney, K., & Bekey, G.A. (eds), 2011.

Turkle, Sherry. Vídeo ¿Conectados pero solos?

https://www.ted.com/talks/sherry_turkle_connected_but_alone?language=es 2012.

Deixa un comentari

Fill in your details below or click an icon to log in:

WordPress.com Logo

Esteu comentant fent servir el compte WordPress.com. Log Out /  Canvia )

Google photo

Esteu comentant fent servir el compte Google. Log Out /  Canvia )

Twitter picture

Esteu comentant fent servir el compte Twitter. Log Out /  Canvia )

Facebook photo

Esteu comentant fent servir el compte Facebook. Log Out /  Canvia )

S'està connectant a %s