Guía del profesor, con preguntas y sugerencias para propiciar un debate
Resumen del «Projecte SPiDeR»
Tras haber pasado unos años en una universidad americana, Júlia Pagès regresa a Barcelona a ejercer de profesora y le asignan el despacho de una catedrática, Ariadna Mestres, que se acaba de jubilar. Júlia se lleva una sorpresa mayúscula cuando en el ordenador, que han reformateado, encuentra información y contraseñas de la profesora Mestres. Un icono en forma de araña aparece repentinamente en la pantalla en varias ocasiones.
Paralelamente, Celia, una niña de trece años a quién criogenizaron porque padecía una enfermedad terminal, es devuelta a la vida en el siglo XXII para ser adoptada. En una sociedad futura donde cada cual cuenta con un asistente robótico, Celia choca con la manera de pensar, actuar y relacionarse de la madre adoptiva y su entorno, tan diferente de la de su familia biológica y sus amigos.
La inadaptación de Celia atrae a Silvana, una masajista emocional que estudia las emociones perdidas por los humanos, y a Leo, un joven ingeniero que está diseñando una prótesis de creatividad para la empresa de robots personales líder del mercado, CraftER, dirigida por el enigmático Doctor Craft.
Niveles educativos: Enseñanza Secundaria Obligatoria, 1.º y 2.º de Bachillerato
Asignaturas: Lengua catalana y literatura, Lengua castellana y literatura, Ciencias sociales, Religión o Cultura y valores éticos, Tecnología, Filosofía, Tutoría, Trabajo de Síntesis, Proyectos.
Capítulo Segundo «RELACIONES AFECTIVAS»
El objetivo de SPiDeR es aunar los deseos individuales con la ambición de una Civilización++ que entendemos como un bien global
PREGUNTAS
• ¿Cómo influye la apariencia de los robots en su aceptación social?
• ¿Se tendría que fomentar la vinculación emocional con los robots?
• ¿Cuándo topa la capacidad de decisión de los robots con la libertad/dignidad humana?
• ¿Es aceptable que los robots actúen como sustitutos emocionales? Si es así, ¿en qué
casos?
SUGERENCIAS PARA LA DISCUSIÓN
La apariencia antropomórfica y las emociones simuladas pueden hacer que los robots sean más convincentes en situaciones de emergencia, haciendo que la gente responda antes y con más rapidez. Aun así, una directriz ampliamente aceptada es que el grado de antropomorfismo y simulación de un robot no tendría que ser superior al requerido para la tarea concreta que tiene que realizar. Una consideración ética más genérica relacionada con la apariencia es, por supuesto, la necesidad de evitar morfologías y expresividad sexistas, racistas y, en general, discriminatorias en el diseño y programación de robots.
Celia se siente unida a su robot ROBbie por su comportamiento fiel, fiable y previsible, que se ve reforzado por su apariencia inequívoca de máquina.
Numerosos estudios han demostrado que, cuanto más antropomórfico es el robot,
más positiva y empática es la respuesta humana, hasta que se llega a un punto en que
el excesivo parecido del robot con un humano provoca repulsión; esto se conoce como
el efecto «valle inquietante» (en inglés, uncanny valley effect). En el estand de los Desastres, Leo experimenta esta repulsión ante un bebé mecánico y se da cuenta que el efecto “valle inquietante” puede hacer fracasar a un producto robótico.
El riesgo principal de la vinculación emocional a un robot es el llamado problema
de los lotófagos o comedores de lotos (en inglés, loto eater problem) que aparece en la
Odisea de Homero. En nuestro contexto, la facilidad de relacionarse con un robot podría erosionar la motivación para establecer vínculos con las personas, que no siempre son emocionalmente agradables, conduciendo al aislamiento social. En el caso de los niños, esto puede ser especialmente perjudicial, puesto que reducir el contacto con familiares y compañeros puede alterar gravemente su desarrollo, por ejemplo, impidiéndolos aprender a empatizar.
A Celia le gusta que ROBbie se comporte más «racionalmente» que sus compañeros de clase y que su madre adoptiva, puesto que al obedecer unas reglas no le hace sentir nunca descolocada ni confundida. Además, se siente protegida por el robot, que ve como a un compañero fiel en quien puede confiar.
En vez de poner límites morales al diseño de robots, que es la tendencia dominante hoy, algunos filósofos propugnan centrar la investigación en la interacción persona-robot y en cómo esta interacción puede enriquecer nuestra vida emocional de manera posiblemente diferente y complementaria a las relaciones humanas, mejorando el bienestar y la felicidad de las personas.
De todas maneras, hay una gran diferencia entre simular afecto y mostrar comportamientos emocionalmente inteligentes. Captar el estado emocional del usuario puede ser muy útil, a pesar de que una interpretación errónea puede tener consecuencias nefastas. Algunos psicólogos incluso sugieren que la ilusión de comprensión emocional por parte de un robot que establece contacto visual con el usuario y responde al tacto puede ser terapéutico en algunos contextos.
Las virtudes adicionales de los robots como terapeutas son su «paciencia» sin fin, la capacidad de actuar repetitivamente sin «aburrirse”, y el hecho de no mostrar nunca sentimientos involuntarios, que algunos humanos no pueden reprimir. De hecho, han sido utilizados con éxito para ayudar niños autistas a adquirir habilidades sociales.
En resumen, el reto es cómo asegurar que los robots mejoren la calidad de nuestra
vida cotidiana, amplíen nuestras capacidades y aumenten nuestra libertad, evitando a la vez que nos hagan más dependientes y emocionalmente débiles; es decir, el eterno dilema de cómo aprovechar las ventajas sin sufrir las consecuencias negativas.