Web Analytics
Conecta con nosotros

Noticias

¿Debería matarte tu coche autónomo si con ello se salva más de una vida?

Publicado el
¿Debería matarte tu coche autónomo si con ello se salva más de una vida? 31

Son las 12:03 del doce de febrero de 2026. Mientras tu coche autónomo te lleva al trabajo, te relajas tranquilamente repasando las últimas noticias en tu smartphone; de repente, dos ancianos despistados cruzan con el semáforo en rojo y el procesador de tu automóvil debe tomar una decisión en milisegundos: ¿debería protegerte aunque ello suponga atropellar a los dos peatones imprudentes? ¿dos vidas valen más que una y por ello debe salvarlos aunque ello suponga un accidente mortal? ¿Qué es lo que vosotros haríais en esa situación?

A estas alturas, pocos dudan de que en menos tiempo de lo que pensamos veremos coches sin conductor por las calles de nuestras ciudades. Estos vehículos incoporarán multitud de sensores y cámaras que le dotarán de unos sentidos muchos más avanzados que los nuestros; podrán ver en la oscuridad, tener perspectiva de 360º sobre el entorno, comunicarse con otros coches o evaluar, mucho más rápido que nosotros, si es posible hacer una determinada maniobra con seguridad. Pero… ¿qué ocurre con las decisiones que tienen que ver con la moral y la ética?

Como comprenderéis, el debate aquí va mucho más allá de lo tecnológico; mientras conducimos se pueden producir infinidad de situaciones en las que debemos decidir cómo reaccionará la máquina. ¿Deben los fabricantes instalar una configuración «ética» de serie? ¿Es mejor dejar a cada usuario que personalice estas opciones en función de sus preferencias? ¿Debe ser un organismo independiente (como la DGT en España) la encargada de diseñar un «estándar de comportamiento» para todos los coches, independientemente de marcas y dueños?

coche-autonomo-2

Llegados a este punto es importante comprender que, por mucha información que tengamos (incluyendo toda la que pueda proporcionar el universo GTA), hay cuestiones realmente complicadas de resolver. El enigma del túnel, planteado hace un par de años en una revista especializada, plantea el siguiente escenario: viajas en un coche autónomo por una carretera de montaña de carril único y, justo antes de entrar en el túnel, un niño trata de cruzar y se cae justo en la entrada; el coche debe elegir entre dos opciones, continuar de frente y atropellarlo o girar, provocando un accidente que supondría tu muerte. ¿Qué escogeríais vosotros?

Los resultados de la encuesta son reveladores: un 64% indicó que el coche debería seguir adelante atropellando al niño y, a la cuestión sobre quién debería tomar esta decisión, un 44% aseguraban que debería ser el conductor (pasajero en este caso), un 33% que deberían ser los legisladores (instalando una configuración determinada en el vehículo) y un 12% opinó que la decisión compete al fabricante del vehículo.

¿Qué ocurre cuando la decisión óptima es matarte?

Es evidente que no estamos ante un problema de potencia de cálculo o de almacenamiento de cientos de escenarios predefinidos, sino que la solución debe estar en la intersección entre lo tecnológico y lo social. En este sentido, el trabajo del MIT dirigido por Iyad Rahwan es uno de los primeros que intenta abordar el tema con toda su complejidad.

Para ello, han diseñado su propia Máquina de la Moral (http://moralmachine.mit.edu/hl/es) donde se proponen al usuario diversos escenarios que debemos resolver y que os invitamos a probar. Con las respuestas obtenidas, se intentan establecer cuál sería el comportamiento que debería tener el coche autónomo desde el punto de vista de miles de personas, buscando patrones comunes.

moral-machine_mit-media-lab ¿Es mejor atropellar a la mujer que cruza o tener un accidente?

«Casi todo el mundo quiere coches que minimicen los daños totales. Los problemas vienen cuando les preguntamos si lo comprarian. Su reacción fue: nunca compraría un coche que me pudiera hacer daño bajo ninguna circustancia» asegura el profesor Rahwan en una entrevista concedida a One. «Si dejamos cada vez más decisiones en manos de las máquinas, también debemos desarrollar un contrato social entre la gente y los algoritmos encargados de tomar esas decisiones; así los podremos supervisar, hacerlos responsables y poder desconectarlos, si fuera necesario»

Para finalizar os invitamos a probar el test y conocer qué tipo de decisiones tomaría un coche programado por vosotros; quizás descubráis que sois mucho más altruistas de lo que pensáis o todo lo contrario, que nadie se interpone cuando es tu vida la que está en juego. Os animamos a continuar el debate en los comentarios.

Más información | Máquina de Moral del MIT

Me encargo de traer innovación y nuevo negocio al grupo TPNET. Además colaboro en varios de nuestros sitios como MC y MCPRO.

39 comentarios
  • Gregorio Ros

    Hombre, en el caso de los ancianos imprudentes me imagino a dos octogenarios a los que les queda media gripe, a esos o te los cargas o mueren del primer catarro, en ese caso optaría por acortarles el sufrimiento 😉
    En el caso del niño, está pleno de vida, pero… ¿Que vida le espera? Dos decadas estudiando, con el acoso escolar, drogas, pocas posibilidades de encontrar luego trabajo,… A este ser con un futuro tan negro, creo que a este tambien me lo cargaría 🙂
    Bueno, fuera de coñas, en cualquier caso, antes de comprar un coche autonomo, miraré lo que le programaron y sopesaré si continúo con el manual o lo pirateo.

  • Lord Condemort

    ¿A nadie se la ha ocurrido la opción de frenar?

    En caso de conseguir parar el vehículo nadie muere, y en caso contrario la velocidad de envestida (momento lineal para los más técnicos) es mucho menor, con lo que las lesiones se podrían llegar a reducir y así, no siempre, evitar la muerte del imprudente.

    De todas formas, si se llegase a producir la muerte del peatón, ésta siempre sería culpa de su imprudencia. En el caso de los viejos su propia imprudencia los mataría y en el caso del niño la de los padres o la persona encargada de su vigilancia, por no estar haciendo lo que deberían. No veo porqué un conductor o el fabricante de un coche autónomo que circule con prudencia y siguiendo las normas de tráfico tiene que pagar por la imbecilidad de otras personas.

    Esto es como siempre, si circulas por ciudad conduciendo a más de 50 Km/h y te llevas a alguien por delante, pringas, sino, sintiéndolo mucho, la selección natural habrá actuado de nuevo y habrá eliminado genes defectuosos de la especie (aunque en el caso de los viejos éstos no vayan a pasar a las futuras generaciones, si han tenido descendencia el mal ya estará hecho).

    Y como ya he dicho, si se circula con imprudencia y sin respetar las normas de tráfico, mejor que muera ese conductor indeseable a que lo hagan otros. Aunque eso implique que los pasajeros que lo acompañen también tengan el riesgo de morir, el único responsable en éste caso sería el cafre que fuese al volante. De todas formas, dudo mucho que éste sea el caso de un coche autónomo.

  • harry

    Este tipo de situaciones se darán. Da igual si mucho o poco. Alguien tendrá que programar a la máquina, y la ley supervisará la programación. No prever nada es tomar una decisión, pues muertos habrá igualmente.

  • tomy

    Partimos de la base que si es posible que no muera nadie, el coche autónomo siempre escogerá esa opción. Frenar o esquivar siempre es el plan A, pero en determinados escenarios es imposible detener un coche en pocos metros sin provocar una salida de la vía que pueda tener consecuencias dramáticas para el conductor.

    En lo que sí estoy de acuerdo es en la mejora de seguridad que podemos ganar con el respecto estricto de las normas de circulación. Detener un coche en pocos metros circulando a 50 Km/h es viable, hacerlo a 80 Km/h es mucho más complicado.

  • Eric Ciurana

    Pues yo aquí soy un fascista de manual:
    -Antes salvo a críos que a adultos.
    -Antes salvo a adultos que a viejos.
    -Si puestos a morir tengo que escoger entre un número indefinido de pasajeros y un número indefinido de peatones, calculo el valor de la vida de cada uno (antecedentes penales, edad, estudios, profesión, voluntariado… cualquier cosa que un estado digno de 1984 soñaría saber sobre sus ciudadanos), hago la media y mato al que menos valor tiene.
    -Los animales carecen de derechos siempre que conductor y pasajeros no tengan una puntuación tan negativa que el accidente te valga de excusa para hacer un poco de limpieza humana.

    Ojo, que me da igual el sexo, la religión y la raza de la gente y parto de la base que el accidente es inevitable y no ha sido provocado por imprudencias del conductor, que si este es el caso mato al conductor siempre.

  • Pepito Grillo

    Nadie se compraría un coche que en un caso como el comentado permitiese la muerte de su dueño.

    (A pesar de que pudiese matar a 5 personas mas jovenes)

    Alguno de vosotros lo haría?

    Yo NO !!!

  • linux_luthier

    ¿Haces todo eso en 1 segundo? Como no le ganas a Kasparov en el ajedrez.

  • linux_luthier

    Otra vez con la idiotez de la selección natural, dejen de usarla tan mal. Darwin debe estar revolcánose en su tumba, al ver a estos *#%- que quieren matar a todo el mundo en base a la selección natural, nazis en potencia.

  • linux_luthier

    ¿Es que en un accidente donde está la moral? No es una decisión premeditada, incluso cuando maneja una persona, si atropella a la persona o choca el auto al esquivarlo es decisión completamente suya. Lo podrán meter a juicio y demás, pero si el que se metió imprudentemente fue el peatón y se puede demostrar, entonces no debería pasarle nada.

    Estaría bueno que el auto trate de buscar la solución en la que nadie tenga que morir, a lo sumo lesiones poco graves, pero también hay gente que se puede aprovechar de eso, con lo cual el conductor saldría lastimado siempre.

  • tomy

    Siguiendo tu ejemplo, imagina que la persona que atropellas fallece. Tienes razón, porque es imprudencia suya pero.. ¿no pensarías alguna vez si podrías haber hecho algo más para evitar su muerte? Ese es el componente moral, el que no tienen las máquinas y el reto que tienen los investigadores por delante. En términos de «eficiencia u optimización» puede ser mejor opción matar al conductor que salvar a 3 niños que cruzan; es probable que si tu conduces, tu instinto de supervivencia haga todo lo posible por salvarte, sea cual sea la consecuencia.

  • tomy

    Aún así, el tema sigue planteando dudas. ¿Si matas a cinco personas jóvenes quién es el responsable? ¿El pasajero? ¿El fabricante? ¿La última actualización que venía con un bug?

  • linux_luthier

    Claro, el tema es que no existe esa legislación para las personas. Obvio
    no es lo mismo una persona que una maquina, pero ese es el tema,
    legalmente no te podés basar en la moral, porque entonces debería exigir
    lo mismo al conductor de un auto no autónomo.
    Tiene muchos «baches»
    que cubrir la ley respecto a esto, por ejemplo ¿podés dejar que una
    maquina decida quién vive y quién no? ¿podés dejar que una persona lo
    decida, por más que salve su propia vida?
    La verdad yo estoy con los
    que dicen que lo debería programar la persona, porque ya funciona así,
    la persona actualmente es la que tiene el poder de decisión, entonces
    que le delegue ese poder a la maquina, aunque debe atenerse a las
    consecuencias luego.

  • linux_luthier

    Según la moral no hay una vida humana más valiosa que otra, entonces no podés decir que si era viejo o que si era niño, que si eran 3 o si eran 5. Además, no creo que el automóvil pueda discernir tan fácil entre un viejo y un niño en todo caso.

  • tomy

    ¿Y cuál es esa moral de la que hablas? ¿Es la misma para todos?. Los valores que definen la moral van en función de dónde vives, tu educación, tu religión, tu nivel de vida o tu edad y pueden variar notablemente. Reproducir ese comportamiento en una máquina es imposible, de ahí que necesitemos llegar a un «contrato social» por el cual todos sepamos de antemano cómo se va a comportar el coche que «nos conduce». Saludos, interesantes reflexiones.

  • linux_luthier

    Es que éticamente lo correcto es lo que dije. La vida no tiene un valor, olvidándonos de las leyes que no son perfectas, no podés darle un valor a la vida de nadie, no importa de donde venga ni adonde va, ni su edad ni su sexo.
    Por ejemplo, que tal que si era un niño al que ibas a atropellar, crece para volverse un asesino, o que tal si al viejo que ibas a atropellar era Albert Einstein, no debe importar a la ley, porque ninguna vida tiene mayor valor que otra.

  • tomy

    Damos vueltas en círculo y nos lo llevamos al terreno de lo filosófico. ¿Es correcto para quién? Puedo estar de acuerdo contigo, pero también puede ser que otra persona opine diferente. Un ejemplo un poco extremo: para los nazis, era moral y éticamente correcto asesinar a millones de personas porque eran diferentes. A casi todos -espero- nos parece una aberración, pero desde su punto de vista era lo correcto y el resto del mundo estaba equivocado.

    Algo parecido ocurre con el aborto. Para muchos la mujer debe ser libre de decidir si quiere seguir con el embarazo o interrumpirlo, bajo cualquier circunstancia. Para otros (siguiendo tu razonamiento) esgrimen que ninguna persona debería ser dueña de la vida de otra y que, por tanto, el aborto no debería ser legal (entre medias hay diferentes supuestos en caso de malformaciones graves, violación y demás, pero por llevarlo al extremo).

    Resumiendo, las verdades universales son complicadas. Lo que ahora nos parece normal quizás dentro de 100 años sea visto como una barbaridad, como te ocurre a tí con solo echar la vista atrás.

  • Granota Tatami

    Hombre sere egoista, pero si he comprado el coche yo, quiero que me proteja a mi primero

  • Pepito Grillo

    Mientras cada marca utilize su sistema propio existiran problemas por discrepancias.

    Lo mas neutral es que un unico sistema gestionase a todos los automoviles.

    Si mi coche autonomo atropella y le causa la muerte a otras personas mientras esta en modo de conduccion automatica…

    El culpable no soy yo.

  • Pepito Grillo

    Auto Mercedes Benz atropella y mata a Adolfo Hitler de niño.

    https://www.youtube.com/watch?v=BCXBdKPqHxI

  • Lev

    ¿Y si en vez de ello crean una espuma/esponja/gel que te salve del impacto de desviarse para no matar a los que se cruzan y la garantía la asume el fabricante por medio de un «seguro obligatorio» en caso pase eso? ¡BAM! todos salvados.

  • Leonmafioso

    Lo siento, pero que se mueran los que están fuera del automóvil.

  • Leonmafioso

    Tomy te lo pongo fácil, que no haya autonomía en los vehículos y que sigan haciendo lo que hacen ahora.

  • caco222

    Por que me recuerda mucho a «Yo, Robot» la pelicula, cuando el prota le pidió al robot que le salvara la vida a la niña en el accidente, pero este al ver que ella tenia menos posibilidades de sobrevivir, fue a lo seguro… al prota

  • tomy

    Retrocede unos 100 años…. «¿para qué necesitamos coches que consumen gasolina, van demasiado rápido y provocan accidentes? quedémonos con nuestros caballos?» 😀

  • Eric Ciurana

    Vaya, olvidé hacer el comentario trollproof y poner en situación el estado del arte de las GPU que montarían estos vehículos autónomos en el momento en el que estas situaciones tengan que considerarse realmente.

  • Eric Ciurana

    Por otro lado, me parece curioso (que no mal) que ante tal barbaridad que digo en mi comentario desde un punto de vista humanista me cuestiones la capacidad de ejecución en lugar de la falta de empatía.

  • st.UART

    A mí, sinceramente, me preocupa que se esté discutiendo por algo que está planteado de una forma tan burda y tramposa.

  • Lord Condemort

    Es tan imprudente meterse en una carretera sin comprobar el tráfico como ponerse delante de una manada de antílopes en estampida. La insconsciencia, falta de miedo o torpeza lleva en ambos casos a que la conducta anormal del individuo ante la situación de peligro tienda a desaparecer de la especie. Exactamente lo mismo sucede cuando alguien se mata por usar el móvil mientras conduce o se saca un selfie colgandose de la barandilla de la Torre Eiffel. Si el individuo no es capaz de percibir el peligro que suponen para su supervivencia esas situaciones de riesgo es que algo no funciona bien en el y padece una clara inadaptación al medio en el que vive. A eso lo llamo yo selección natural.

    Distinto es que te caiga un coco, una maceta o un rayo en la cabeza. Salvo que se sea tan estupido como meterse en una zona en la que constantemente esten cayendo cocos y macetas o se vaya con un parayos en la cabeza serían accidentes.

  • Ds23yTube

    El coche autónomo frena de golpe cuando se cruza con un obstáculo, lo mismo que hace el buen conductor. Es mejor frenar en recto, que intentar esquivar. Sobretodo hay que ir a una velocidad moderada y respetar los límites de velocidad y estar atento. Esquivar eso solo lo hacen los que van a toda leche, y eso lo sabe el que conduce.

    No seamos extremistas por favor.

  • tomy

    No entiendo a qué te refieres con que es una trampa. Es una problemática real que ya se está investigando en todo el mundo y que será necesario resolver para la consolidación del coche autónomo.

    Por cierto, si los trenes también fueran autónomos tendríamos un debate similar.

  • st.UART

    Es que no es un tema nuevo, es simplemente el dilema del tranvía, trasladado a un nuevo campo.
    https://es.wikipedia.org/wiki/Dilema_del_tranv%C3%ADa

    Y sí, es una trampa en tanto en cuanto no tiene una sola respuesta satisfactoria.

  • linux_luthier

    No, ¿cómo vas a hablar de selección natural en una civilización creada por el hombre? Los autos no son algo con lo que nos desarrollamos como especie, es algo de hace 100 años que puede cambiar en otros 100. Además, la selección natural es un proceso lento que habla de adaptación al medio y corresponde a millones de individuos, no tiene que ver con accidentes de auto ni con un estúpido que se ponga enfrente de una manada de antílopes.

  • José Carlos Peralta

    No se si fascismo o no pero esas opciones son las más lógicas y de programarse realmente debería ser así, te falto que si es provocado por imprudencia del peatón lo mate siempre a menos que este sea un bebé y no hayan bebés en el auto

  • st.UART

    Pero no, aquí por lo visto pocos ven lo surrealista de las situaciones, el deliberado sesgo de variables, y la consecuente ausencia de una resolución lógica.
    Los de Massachusetts se han cubierto de gloria (de la que le gusta a las moscas) con ese aberrante conato de «medir la moralidad» con leyes booleanas.
    Para mearse y no echar gota, vamos.

  • tomy

    Por supuesto que no es nuevo, en ningún momento se habla de eso. Debatimos sobre cómo resolver un problema que se va a presentar cuando se popularicen los coches autónomos.

  • st.UART

    Y tal como está planteado el debate, me parece más sensato no hacerlo.

    Entiendase que no es una indisposición contra el artículo, sino contra la fuente y su manera, a mi parecer totalmente errónea, de plantear una disyuntiva con situaciones que se han simplificado más allá de lo razonable.

    Saludos.

  • Esau Riveroll

    jajajaja

  • David Mendoza

    En primer lugar, yo limitaría la velocidad maxima de los vehículos autónomos, en caso de que pase algo asi y que la IA valorara que en efecto es otra persona, frenara al instante y esquive, una persona dentro de un auto con bolsas de aire la pasara mejor que un transeúnte común, pero en caso de escojer solo una de las dos opciones, pues esta por verse, un transeúnte no tendría problema legal alguno por el conductor muerto, en el caso contrario sí que los habría, pero como digo una persona en el coche la tiene un poco mejor
    Bien podría ser una decisión aleatoria

  • Cristofer Fuentes

    Es obvio que el auto deve salvar la vida de sus ocupantes sin importar nada mas, por que para eso estas pagando. Así funciona el capitalismo :v

Lo más leído