tracker home

Los coches autotripulados y los humanos

El primer accidente con víctimas mortales de un coche vehículo conducido por software disparó todas las alarmas.

El pasado año se produjo el primer accidente con víctimas mortales de un coche autotripulado, es decir, completamente conducido por software. Ironías del destino, el fallecido era uno de los más fervientes defensores de este tipo de tecnologías.

Sin embargo, esa muerte ha disparado todas las alarmas y ya hay voces que cuestionan si los programas software puedan tener autonomía completa sobre ciertas funciones, y en particular la de conducir de forma autónoma. Que si no son lo suficientemente seguros. Incluso se ha dicho que la autoconducción no conlleva desentenderse de los mandos (entonces, ¿para qué está? se pregunta uno).

Pero el problema no creo que sea la seguridad, la tecnología, ni siquiera el software. Aquí se trata de un tema de confianza y, más concretamente, de ética y de empatía. Veamos por qué.

Desde luego, no es una cuestión sólo de seguridad, pues estos coches son más seguros que el resto. Esta ha sido la primera víctima mortal tras 215 millones de kilómetros recorridos por coches autotripulados, frente a 99 millones de kilómetros que separan una víctima de otra en los coches tradicionales. Es decir, un 64 % más. ¡Imaginemos la ganancia en vidas que supondría bajar un 36 % los accidentes mortales de tráfico!

Tras analizar el accidente, parece que la causa fue que ni la cámara del coche ni el radar pudieron distinguir al camión que apareció de pronto, totalmente blanco en un día de sol resplandeciente. Esto no sería noticia si el que hubiera ido conduciendo fuera un humano, que hubiera perdido el control del coche al quedar cegado por la luz, una causa común entre los accidentes de coche. Sin embargo, ¿por qué nos parece alarmante que le suceda a una máquina?

Aquí es donde entra en juego la psicología, y los sentimientos entran en conflicto con la lógica. Ante un accidente o una situación trágica debida a un error, por empatía los humanos solemos perdonar (o al menos comprender) a los seres similares a nosotros. Porque nos podría pasar a nosotros mismos. Mientras más cercano y afín, más empatía, y por tanto más comprensión y menos rechazo a sus acciones.

Otra situación similar ocurre cuando se trata de tomar decisiones que implican vidas humanas. Imaginemos a un coche no tripulado que tiene que tomar la decisión de atropellar a unos peatones o estrellarse contra un muro y matar a sus ocupantes. Cualquier decisión que tomase un humano en esa situación, bastante crítica, sería aceptada por la sociedad sin problemas. O, por lo menos, lo entenderíamos. Sin embargo, cualquier decisión que tomase una máquina, fuera cual fuese, provocaría un rechazo inmediato (véase, por ejemplo, el interesante artículo ¿Comprarías un coche que elegirá matarte para salvar otras vidas?).


¿Cuál es el motivo de todo esto?

Lo importante es observar que el problema no está en la propia decisión, sino en quien la toma. No es cuestión de seguir a rajatabla unos preceptos o una lógica perfecta, como seguiría un programa de ordenador, que posiblemente evaluaría la edad de los ocupantes y de los peatones y decidiría lo que es mejor para la mayoría; sino de comprender al que toma la decisión y entender que en su lugar uno hubiera hecho lo mismo. El principal motivo es que nuestra comprensión depende fundamentalmente de la empatía con quien toma la decisión y de lo similares que sean nuestros códigos éticos.

En resumen, la pregunta clave no creo que sea si las máquinas, a través de la inteligencia artificial o de la lógica tradicional, pueden tomar decisiones o no, o llevar a cabo la mayoría de los trabajos y funciones que realizamos ahora los humanos con tanta o más seguridad que lo hacemos nosotros. De esto estoy seguro que sí, y en un futuro bastante cercano.

La cuestión es si estamos dispuestos a dejarles realizar dichas funciones y aceptar sus decisiones y sus fallos (que también tendrán, aunque en significante menor medida que nosotros). Y la respuesta, por ahora, es que no. Al menos, hasta que tengamos una mayor empatía con ellas. Y eso significa, entre otras cosas, compartir con ellas un código ético y unos valores morales, y que podamos comprender sus reacciones, asumir sus decisiones y sus errores, y aceptar sus consecuencias. Así que ya no se trata solo de inteligencia y de lógica, sino también, y muy especialmente, de sentimientos, de ética y de empatía.

Ahora bien… ¿de verdad seremos capaces de tener empatía con las máquinas?

Con información de elpais.com