Guía docente: Capítulo Cuarto

Guía del profesor, con preguntas y sugerencias para propiciar un debate

¡BIENVENIDAS Y BIENVENIDOS AL FUTURO!

 

Resumen del “Proyecto SPiDeR”

Tras haber pasado unos años en una universidad americana, Júlia Pagès regresa a Barcelona a ejercer de profesora y le asignan el despacho de una catedrática, Ariadna Mestres, que se acaba de jubilar. Júlia se lleva una sorpresa mayúscula cuando en el ordenador, que han reformateado, encuentra información y contraseñas de la profesora Mestres. Un icono en forma de araña aparece repentinamente en la pantalla en varias ocasiones.

Paralelamente, Celia, una niña de trece años a quién criogenizaron porque padecía una enfermedad terminal, es devuelta a la vida en el siglo XXII para ser adoptada. En una sociedad futura donde cada cual cuenta con un asistente robótico, Celia choca con la manera de pensar, actuar y relacionarse de la madre adoptiva y su entorno, tan diferente de la de su familia biológica y sus amigos.

La inadaptación de Celia atrae a Silvana, una masajista emocional que estudia las emociones perdidas por los humanos, y a Leo, un joven ingeniero que está diseñando una prótesis de creatividad para la empresa de robots personales líder del mercado, CraftER, dirigida por el enigmático Doctor Craft.

 

Niveles educativos: Enseñanza Secundaria Obligatoria, 1.º y 2.º de Bachillerato

Asignaturas: Lengua catalana y literatura, Lengua castellana y literatura, Ciencias sociales, Religión o Cultura y valores éticos, Tecnología, Filosofía, Tutoría, Trabajo de Síntesis, Proyectos.

 

Capítulo Cuarto «DESIGUALDADES»

PREGUNTAS

  • ¿Se puede garantizar la fiabilidad/seguridad de una máquina? ¿Cómo se pueden prevenir el pirateo y el vandalismo?
  • ¿Quién es responsable de las acciones de los robots? ¿Tendría que ser modificable el
    comportamiento moral en los robots?
  • ¿Cuándo ha de prevalecer el bienestar de la sociedad sobre la privacidad de los datos personales?
  • ¿Qué fracturas digitales puede provocar la robótica?

 

SUGERENCIAS PARA LA DISCUSIÓN

Los robots autónomos tienen que tomar decisiones en situaciones imprevistas por sus
diseñadores. Esto plantea no solo cuestiones de fiabilidad y seguridad para los usuarios,
sino también el reto de regular la toma de decisiones automática, especialmente en
contextos éticamente sensibles, y de establecer procedimientos para atribuir responsabilidades en los robots.

Algunos argumentan que los robots pueden tomar mejores decisiones en cuanto a moralidad que los humanos, puesto que su racionalidad no está limitada por los celos, el miedo, o el chantaje emocional. Incluso asumiendo que unas reglas de ética general se pudieran implementar en los robots, surgen preguntas sobre quiénes tienen que decidir qué moral se codifica en estas reglas y hasta qué punto las normas pueden ser modificables por el usuario. Por ejemplo, no está claro si se tendría que permitir a un robot actuar en contra de la autonomía del usuario para comportarse de forma más ética hacia otros seres humanos o en interés de la sociedad en general.

Un robot es una herramienta y, como tal, no es responsable de nada, pero siempre tendría que ser posible determinar quién es legalmente responsable de sus acciones. En el caso
de los robots capaces de aprender de la experiencia, esta responsabilidad puede ser
compartida entre el diseñador, el fabricante y el usuario; también un hacker puede cargar
con la responsabilidad si se demuestra su intervención ilegal. En previsión de posibles
litigios, es crucial que el proceso de decisión de un robot sea reconstruible. Se ha sugerido que los robots estén equipados con una caja negra no manipulable, como la que ahora llevan los aviones, que documente continuamente los acontecimientos relevantes y los resultados significativos del proceso de aprendizaje.

Es muy sabido que las tecnologías digitales originan fracturas sociales (en función de la
edad, la riqueza, la educación, las zonas geográficas) y los robots pueden ampliar
algunas de estas fracturas a causa de su coste, su implementación física y su uso no trivial. A la inversa, desarrollar asistentes robóticos para colectivos vulnerables podría reducir las discriminaciones sociales y ayudar a minimizar estas fracturas si se tomaran medidas políticas para proporcionar los recursos financieros y los conocimientos necesarios a estos grupos.

 

Si deseas más información contacta con nosotros:

 

    Deja un comentario

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Ver más

    • Responsable: Fundació Episteme.
    • Finalidad:  Moderar los comentarios.
    • Legitimación:  Por consentimiento del interesado.
    • Destinatarios y encargados de tratamiento:  No se ceden o comunican datos a terceros para prestar este servicio. El Titular ha contratado los servicios de alojamiento web a Nominalia que actúa como encargado de tratamiento.
    • Derechos: Acceder, rectificar y suprimir los datos.
    • Información Adicional: Puede consultar la información detallada en la Política de Privacidad.

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.