“A l’IRI apliquem la intel·ligència artificial en benefici de les persones, des d’assistents robòtics que ajudin a vestir fins al reciclatge de productes electrònics”
“En 30 anys Barcelona tindrà robots per tot arreu, incloent-hi les escoles”
“França vol impulsar el desenvolupament de la IA a través d’una tercera via entre la hipervigilància la Xina i el model ultra liberal dels Estats Units”
Carme Torras, professora d’investigació a l’Institut de Robòtica i Informàtica Industrial IRI (CSIC – UPC) és una de les veus més reconegudes i autoritzades per parlar sobre l’ètica aplicada als sistemes robòtics. La seva opinió s’ha escoltat en reunions sectorials de la UNESCO i en el recent Global Forum on AI for Humanity, i la seva carrera professional, a cavall entre els Estats Units i Barcelona, està alimentada per nombroses publicacions i desenvolupaments tecnològics. I a tot això s’afegeix una intensa reeixida tasca de divulgació. Una de les seves novel·les, ‘La mutació sentimental’, ha estat traduïda a l’anglès per incorporar-se com material d’estudi sobre ètica i robòtica en diverses universitats nord-americanes i europees.
Seria exagerat dir que tan important com el desenvolupament tecnològic de la robòtica ho és l’ús ètic que es fa d’ella?
No, no és exagerat fer aquesta afirmació, jo crec molt en això. Seria bo que la ciutadania tingués uns conceptes mínims sobre intel·ligència artificial (IA) i robòtica, que coneguessin com funcionen i quins beneficis poden aportar. I també conèixer els riscos, és clar.
Això, en el cas dels usuaris Però i en el dels que dissenyen, desenvolupen i venen aquest tipus de tecnologia?
També. Els que es dediquen a programar i desenvolupar aquesta tecnologia han de conèixer els riscos ètics als quals s’enfronten. Els biaixos en els processos d’aprenentatge d’aquest tipus de sistemes és un d’ells, i ho estem veient en casos reals d’intel·ligència artificial. Parlem d’aspectes relacionats amb el gènere, la raça o el lloc de residència, que poden ser tinguts en compte per algoritmes que, per exemple, prediguin la probabilitat de reincidència d’un delinqüent o que un ciutadà no retorni un crèdit, on la història prèvia pot introduir un biaix important.
Quin sistema s’empra per assegurar que es compleixen aquests criteris ètics en les fases prèvies al llançament d’una tecnologia robòtica?
Hi ha mecanismes per a això. Per exemple, en tots els projectes d’investigació que finança la Unió Europea sobre robòtica i IA cal superar una avaluació ètica prèvia a la concessió. Els investigadors hem d’aportar els protocols on es recull com va a dur-se a terme l’aprenentatge de les màquines, la seva interrelació amb les persones o la salvaguarda dels drets dels usuaris. I el CSIC compta amb un comitè ètic que estableix uns criteris de treball en aquestes àrees.
Què matisos diferencien l’ètica robòtica de la que s’aplica al conjunt del desenvolupament tecnològic?
En l’ètica aplicada a la tecnologia fins ara s’han manejat models orientats només a la seguretat, per evitar que les màquines autònomes puguin generar una situació de perill. Però quan vam passar a la robòtica social, amb una interacció estreta entre robots i persones, es plantegen necessitats com que les màquines no generin engany. Es pot donar el cas d’usuaris vulnerables, per exemple persones d’edat avançada o nens, que arribin a creure que els robots amb els quals es relacionen s’interessen i preocupen per ells, i això és molt perillós.
El problema sorgeix quan els robots es relacionen de forma directa amb els éssers humans, quan executen la seva activitat en un entorn on hi ha afectivitat?
Així és. La Unió Europea ja va generar fa temps una directiva derivada dels Drets Humans, uns principis bàsics que determinen com s’ha de dur a terme la interacció entre robots i persones. Altres organismes internacionals, com l’Institut d’Enginyeria Elèctrica i Electrònica (IEEE), estan desenvolupant aquests principis, que van actualitzant. És important comptar amb una base comuna que pugui guiar els governs en l’establiment d’un marc legal. En l’aplicació de la robòtica a activitats com l’ensenyament o la salut hi ha una norma bàsica que cal respectar: Preservar la dignitat de la persona i no cosificar-la.
En el cas dels robots assistencials La línia vermella són les emocions?
Crec que és molt bo que el robot sigui capaç de detectar les emocions de l’usuari, per exemple per animar-o captar la seva atenció, però sóc contrària a què la màquina simuli tenir emocions, perquè és un engany i pot generar indefensió i aïllament social de la persona.
La utilització d’algoritmes a gran escala forma part del procés de robotització El seu ús massiu en eines com cercadors i sistemes d’informació està contribuint a l’empobriment intel·lectual dels usuaris?
El perill és caure en la bombolla informativa, que els usuaris acabin parlant i relacionant-se només amb aquells amb els que comparteixen els mateixos plantejaments. Una de les fractures digitals es dóna entre els que són capaços d’usar Internet per aprendre i millorar i els que es conformen amb el que el sistema els ofereix com a primera opció.
I quines alternatives hi ha a aquests sistemes, que funcionen com un quasi monopoli?
Hi ha moltes eines de recerca, i és fonamental que els usuaris sàpiguen com localitzar informació fiable entre tanta mentida news i informacions interessades. I contrastar. També això s’ha d’aprendre.
Un problema derivat de la globalització i l’accés massiu als sistemes d’informació és el creixement de les fake news Poden els algoritmes ajudar-nos a desemmascarar? Com?
Ja hi ha gent treballant a usar la IA per desemmascarar les fake news, tractant d’aïllar fonts fiables i eliminant biaixos. La intel·ligència artificial pot causar el problema i alhora aportar la solució. A mi m’agrada subratllar que moltes de les seves aplicacions són positives, amb sistemes que aprenen a millorar a través de l’experiència dels mateixos usuaris, com els traductors en línia.
Vostè s’ha mostrat partidària d’orientar la tecnologia cap a posicions ètiques que afavoreixin a la ciutadania ¿Això significa que els governs i el sector públic han de portar la veu cantant en la investigació robòtica?
Crec que deu haver-hi un monitoratge per part dels poders públics, amb normatives clares i uns controls, però el que la investigació estigui liderada pel sector públic ho veig bastant inviable. Les entitats privades juguen un paper molt important.
Quina és la tendència en el desenvolupament de la intel·ligència artificial i la robòtica en l’àmbit mundial?
A l’octubre vaig participar a París al Global Forum on AI for Humanity. El Govern francès aspira a liderar el desenvolupament de la intel·ligència artificial a través d’una tercera via, entre la hipervigilància de la Xina i el model ultra liberal dels Estats Units, que em sembla molt interessant. En l’àmbit local, França està invertint més de 1.000 milions per captar talent i multiplicar les seves infraestructures i equips d’investigació. Jo, per descomptat, crec que Espanya hauria d’unir-se a aquesta via, que busca un desenvolupament més ètic d’aquest tipus de tecnologies.
Ha publicat dues novel·les relacionades amb la ciència i la tecnologia. I una d’elles, La mutació sentimental, s’ha traduït a l’anglès i s’utilitza en una assignatura universitària sobre ètica i robòtica en diversos països Com ho va fer?
La novel·la es va publicar en català el 2008, i va aconseguir dos premis. Després es va traduir al castellà, i MIT Press es va interessar per ella per fer-la servir com a material didàctic en una assignatura sobre ètica en les enginyeries i en informàtica. Em van demanar que edités un material complementari amb 24 preguntes que servissin per organitzar el debat, i la van traduir a l’anglès. Des de llavors s’utilitza en universitats nord-americanes, però també a Suècia, Gran Bretanya i, completant el cercle, a Catalunya. És una gran satisfacció.
Parli’ns dels projectes que duen a terme ara mateix en l’IRI.
Treballem en diverses línies d’aplicació de la IA. El projecte més important que tenim és Clothilde (Cloth manipulation learning from Demonstrations) on es combina topologia i machine learning per aplicar-lo a tres àmbits: L’assistència en el procés de vestit a les persones amb mobilitat reduïda; la manipulació de tèxtils professionals com roba de llit i fundes, i la millora dels processos automàtics de logística inversa (devolució de productes de moda a la cadena de venda després de la seva compra).
En una línia relacionada desenvolupem BURG, orientat a crear sistemes de benchmarking per manipular objectes rígids i deformables, en concret roba. Es tracta d’estandarditzar processos robòtics en la manipulació de peces tèxtils.
En relació amb persones que pateixen algun tipus de demència col·laborem amb la Fundació ACE usant robots en processos de diagnòstic i teràpia amb els malalts. El projecte es diu Sòcrates, i se centra en cinc àrees: Emoció, intenció, adaptabilitat, disseny i acceptació.
I en una altra línia d’investigació utilitzem la intel·ligència artificial en l’automatització del reciclatge de productes electrònics a través del projecte IMAGINE. El que fem és aplicar-la en els processos d’identificació i manipulació d’equips que es reciclen, des de discos durs a telèfons mòbils. Es tracta d’operacions complexes per la gran diversitat de models, cosa que dificulta el treball d’un robot, que ha d’aprendre a reconèixer els equips, dissenyar les seqüències de desacoblament i executar-les.
Juguem a imaginar el futur. Quin paper tindran els robots en una ciutat com Barcelona l’any 2050?
En 30 anys Barcelona tindrà robots per tot arreu, des d’assistents robotitzats en residències, hospitals i centres cívics fins als aeroports i estacions de tren. Veurem robots jardiners que tallin els parterres, que mantinguin les cunetes de les carreteres … I per descomptat, fent tasques de vigilància. Ens familiaritzarem amb molts tipus de robots en aquestes activitats, incloent-hi les escoles clar! Encara que no com a substituts de professor, sinó en tasques de suport. Per exemple, en l’aprenentatge de música i d’idiomes, i això no és ciència-ficció: A Corea del Sud ja es fan servir robots en l’ensenyament de l’anglès teleoperadors per professors nadius des d’Anglaterra.