
Aunque las decisiones morales que tomamos como humanos pueden no siempre ser ideales, los expertos que llevaron a cabo este experimento sugieren que el camino hacia la creación de máquinas moralmente competentes podría comenzar traduciendo el proceso humano de toma de decisiones éticas al lenguaje de las computadoras, con el objetivo de mejorándolo.
Cada vez más, los sistemas informáticos, incluidos los robots y inteligencia artificial (IA), están cada vez más presentes en nuestra sociedad. Nos guste o no, cada vez habrá más situaciones en las que estos sistemas tengan que tomar decisiones morales importantes, como es el caso de los vehículos autónomos. ¿Cómo los prepararemos para tomar decisiones correctas? ¿Podrían tus decisiones volverse iguales? mejor que el nuestro?
Si está interesado en aprender más sobre cómo los sistemas informáticos toman decisiones morales, no se pierda la charla magistral titulada “El experimento de la máquina moral” a cargo del Dr. Edmond Awad, investigador de la Universidad de Oxford.
Existe un antiguo dilema bien conocido en los campos de la filosofía moral, el derecho y la ética, llamado “problema del tranvía“.
un problema ético
En este escenario, una persona se enfrenta a la decisión de cambiar la dirección de un tranvía desbocado. Si no haces nada, el tranvía atropellará. cinco personas en su camino; Si decides cambiar de dirección, atropellarás a una persona en el otro camino.
La situación plantea una decisión crucial de vida o muerte, aunque en la vida real las decisiones cotidianas suelen ser mucho más complejas y rara vez se reducen a un simple “mal menor”. Como seres humanos, tomamos en cuenta una serie de factores a la hora de tomar decisiones acertadas, considerando el contexto en su conjunto.
Para investigar cómo las personas toman decisiones éticas y qué influye en estas decisiones, el Dr. Edmond Awad y su equipo han creado el “Experimento de la Máquina Moral”, basado en el conocido “Problema del Tranvía”.
En esta versión actualizada para el siglo XXI se propone un escenario con un coche autónomo similar a los que ya circulan en San Francisco, Estados Unidos.
En esta situación hipotética, el vehículo autónomo se enfrenta a la elección de avanzar o girar y estrellarse. Si avanzas atropellarás a un determinado número de peatones, pero si giras, el accidente afectará a los pasajeros. Este experimento contempla diversas situaciones, involucrando a hombres, mujeres, niños, niñas, animales, profesionales, personas sin hogar, ancianos, personas con sobrepeso y deportistas.
A través de más de 40 millones de decisiones éticas recopiladas, los investigadores han identificado tres tendencias en lo que la gente considera el “mal menor”.
Estas tendencias incluyen favorecer la salvación de humanos en lugar de mascotas, elegir salvar a más individuos en lugar de menos y priorizar a los humanos jóvenes sobre los mayores. ¿Le gustaría probar sus propios criterios? ¡Puedes realizar el experimento en su sitio web!
Aunque las decisiones morales que tomamos como humanos pueden no siempre ser ideales, los expertos que llevaron a cabo este experimento sugieren que el camino hacia la creación de máquinas moralmente competentes podría comenzar traduciendo el proceso humano de toma de decisiones éticas al lenguaje de las computadoras, con el objetivo de mejorándolo.
Los resultados del “Experimento de la máquina moral” pueden tardar en implementarse en la práctica. Por ello, consultamos al Sr. Andrés Tortolero Baena, Coordinador de Ingeniería en Ciencia de Datos de la Universidad Iberoamericana, sobre la situación actual en relación a la toma de decisiones en sistemas informáticos, incluidos robots e inteligencia artificial.
TAMBIÉN TE PUEDE INTERESAR: Así se vería Chewbacca de Star Wars como un personaje de Studio Ghibli, según inteligencia artificial
HoyCripto, es sitio un web dedicado a compartir lo último en noticias e información relacionada con criptomonedas, NFTs y Metaverso en general.
