Ciber Cultura

Un manual de ética robótica para los Estados Unidos

robot
Escrito por Rafael Claudín

El Departamento de Defensa americano ha montado un equipo de investigación multidisciplinar para analizar la posibilidad de incorporar mecanismos éticos a la inteligencia artificial.

Un grupo de científicos, expertos en robótica y… filósofos es el encargado de afrontar la espinosa cuestión de incorporar un sistema ético a la inteligencia artificial de los robots. Parece el inicio de un mal chiste o de un relato sobre las leyes fundamentales de la robótica de Isaac Asimov. La cuestión, desde luego, es mucho más peliaguda que las tres leyes del novelista científico, que reflejan el maniqueísmo naif de la época.

Lo primero que tiene que definir el equipo multidisciplinar es qué es exactamente la moralidad humana. Si empiezan por la Ética a Nicómaco, puede que las discusiones sobre este primer punto no acaben nunca. Pero, si lo logran, el siguiente paso será definir algoritmos informáticos que les permitan proporcionar a los robots capacidad de toma de decisiones basadas en la ética fundamental.

Decisiones difíciles en entornos letales

Por más que al detective Spooner se le agarrotaría el brazo sólo de oírlo, la consecuencia última de una investigación en esta línea es proporcionar a los robots la capacidad de decidir quién muere y quién no. No olvidemos que la investigación la ha lanzado el Departamento de Defensa, de modo que estamos hablando de robots que trabajan en un entorno bélico y, aunque no decidieran en primera instancia si hay que disparar un misil o no, sí decidirían, por ejemplo, a qué soldado herido merece la pena rescatar y a cuál no. Pura cuestión ética de Asimov.

De concretarse, el proyecto daría un paso importante en la humanización de los robots. Y la humanización robótica es el preludio de la revolución robótica en cualquier ficción apocalíptica que se precie. Está muy bien que los científicos empiecen por Aristóteles, pero tampoco les vendría mal verse un puñado de sagas de cine y series de televisión que, con mayor o menor acierto y no siempre con la mejor factura, han explorado el tema desde el muy ético, y humano, punto de vista de la simple diversión.

Quizá el equipo multidisciplinar esté ya versado en estas cuestiones, por más que sean seres humanos muy serios de la Universidad Tufts, en Boston, la Universidad Brown, en Providence (Rhode Island) y el neoyorquino Rensselaer Polytechnic Institute. El dinero lo pone la Office of Naval Research, como señala ExtremeTech, una especie de DARPA del brazo naval del Departamento de Defensa de Estados Unidos.

El proyecto podría acabar produciendo algún HAL 9000 o algún Daneel Olivaw, o ninguna de las dos cosas y simplemente servirá para que los humanos podamos descargar en un robot el peso de las decisiones éticas en un entorno de decisiones extremas como es la guerra. En todo caso, a todos nos gustaría saber cuáles son las conclusiones de los expertos en este terreno. A más de un humano le vendría bien regirse por un manual de ética robótica.

Sobre el autor de este artículo

Rafael Claudín

Rafa M. Claudín ha trabajado durante más de 15 años como periodista especializado en tecnología de consumo en medios como PC Actual, Computer Idea, Tech Style o la versión española de Gizmodo, además de colaboraciones en diversas revistas de videojuegos y otras más generalistas como QUO.