Tecnología

¿Será la Inteligencia Artificial un peligro en el futuro?

jmobileye-sistema-aviso-a-condcutor

Vehículos autónomos ante los accidentes

Ya hemos vivido la primera polémica alrededor de los vehículos autónomos. Un coche Tesla en modo autopiloto se estrelló causando la muerte de su ocupante, lo que llevó a todo el mundo a cuestionarse los peligros de ceder el volante a la Inteligencia Artificial, al menos por el momento.

Sin embargo, surge otra duda más a largo plazo: ¿qué ocurrirá cuando todos los vehículos sean pilotados por un software? ¿Es una amenaza la IA?

En este aspecto, hay una cosa que parece clara: la IA mejorará progresivamente hasta ser capaz de pilotar todo tipo de vehículos de forma segura. Al final se trata de crear software capaz de recopilar o recibir toda la información posible sobre el entorno, procesarla y actuar en consecuencia.

Por lo tanto, la seguridad ante un eventual choque llegará tarde o temprano, pero ¿y si la Inteligencia Artificial tiene que hacer una elección? Puede darse el caso en el que el software tenga que decidir entre estrellar un coche y matar a su ocupante o atropellar a un peatón, ¿qué ocurrirá entonces?

Digamos que, si la elección es entre dos humanos idénticos, las leyes de la robótica ordenan al software de autopilotaje a salvar la vida del humano que va en el Interior del vehículo. La cosa cambiaría si hay que elegir entre dos peatones y un único ocupante. Es el clásico dilema entre salvar a una persona y salvar a varias.

Arduino UNO rev3, la placa ideal para empezar a programar robótica

Cuantificar el potencial daño de un accidente puede parecer cosa fácil para un programa informático. En cualquier caso, el objetivo de estas Leyes de la Robótica reales sería dejar claro a la Inteligencia Artificial que la prioridad es salvar las vidas humanas, independientemente del coste material que pudiera acarrear esto.

Te recomendamos

Sobre el autor

Eduardo Álvarez

Leave a Comment