medio ambiental. Foto original: Pixar
Robots y computadoras son diseñados para realizar acciones de forma automática, sin intervención humana, pero... ¿Es concebible que una máquina haga juicios morales? Se puede hacer un software para que una máquina actúe "éticamente".
A eso apuntaban las famosas "leyes de los robots" propuestas por Isaac Asimov en sus famosas novelas de ciencia ficción. Y es que hay una relación íntima entre crear algo con "autonomía de acción" y su capacidad de juicio y comportamiento moral.
En 1982 el replicante Roy Batty enfrentó el dilema moral: ¿Le perdono la
vida a mi enemigo? Foto: Warner Bros.
Este ha sido un tema de ciencia ficción por décadas. En 1982 la película "Blade Runner" exploraba esa problemática en base a los "replicantes", especies de androides que hacían uso de su libertad y cuyo líder, Roy Batty (Rutger Hauer) en el momento clímax de la película, decide perdonarle la vida a su archienemigo humano Rick Deckard (Harrison Ford).
"No sé por qué salvo mi vida -reflexiona Deckard- quizás al momento de morir amó la vida más que nunca. No solo su vida. Todas las vidas. Incluso la mía. Después de todo sus preguntas eran las mismas que las nuestras: ¿De dónde venimos? ¿A dónde vamos? ¿Cuánto tiempo tenemos para descifrarlo?".
Spielberg también trató el tema en "Inteligencia Artificial" del 2001.
Foto: Dreamworks
Pero el tema está dejando de pertenecer a la ciencia ficción para ser un tema de ingeniería y robótica reales. Un reciente artículo publicado por Luis Moniz Pereira, de la Universidad Nova de Lisboa y por Ari Saptawijaya de la Universidad de Indonesia, titulado "Prospectiva lógica para modelos de moralidad" toca el tema desde el punto de vista de la inteligencia artificial.
La prospectiva analiza las consecuencias hipotéticas de decisiones morales posibles. Y los autores declaran (¿acaso con exceso de triunfalismo?) que el tema ha dejado de ser exclusivamente humano y filosófico.
Los autores creen que han dado una exitosa respuesta al llamado "dilema del tranvía" expuesto por Philippa Foot, dilema que propone lo siguiente: un villano ha amarrado en una vía a cinco personas que morirán cuando pase el tranvía. Tu puedes salvarlas apretando un botón que tienes a mano y que desviará el tranvía. Sin embargo, la nueva ruta que tomará la máquina matará a una persona. ¿Qué harías?
Los rasgos humanoides de ciertos robots potencian el debate, pero la verdad
es que toda computadora, incluso la que estás mirando en este momento,
puede considerarse un "robot". Foto: Warner Bros
La base del dilema es: ¿es moral elegir salvar a cinco a costa de uno? ¿Es moral no hacer nada y quedarse mirando?
Según los autores del artículo, sus modelos informáticos tomaron decisiones indistinguibles de las humanas para resolver el dilema del tranvía y sus muchas variantes. Lo que no han dicho es si eso es un alivio o un motivo de preocupación.
Paradójicamente, sin hablar y sin piernas, Walle es uno de los personajes
más "humanos" de la ciencia ficción. Foto: Pixar
En un mundo donde las máquinas cada vez hacen más cosas más más relacionadas a la supervivencia humana (control de ferrocarrilles, control aéreo, control del tránsito, explotación de recursos, sistemas de seguridad, etc), la pregunta deja de ser cosa de ciencia ficción y de filósofos para encarar aspectos de la vida doméstica. ¿Tu opinión?
Información de LiveScience. Versión, edición y traducción de Sophimanía
No hay comentarios:
Publicar un comentario