Seguridad

Los graves peligros de los drones autónomos, según una exempleada de Google Maven

Los graves peligros de los drones autónomos, según una exempleada de Google Maven

Es uno de los proyectos más polémicos en los que ha estado inmerso Google. El gigante tecnológico lleva tiempo sufriendo las críticas de sus propios empleados por el que se conoce como Proyecto Maven, el cual se basa en un contrato del Departamento de Defensa de los Estados Unidos. 

El ejército estadounidense había contratado a Google para que éste mejorase los sistemas de inteligencia artificial y la autonomía de sus drones. Ante las protestas, Google decidió paralizar el proyecto, cuya resolución podría suponer serías consecuencias para la seguridad de los humanos según ha explicado una antigua empleada de Google.

Laura Nolan ha detallado a The Guardian las consecuencias que podrían tener en el futuro proyectos como el de Google. “Podría haber accidentes a gran escala porque estas cosas (drones autónomos) comenzarán a comportarse de manera inesperada“.

Nolan llevaba trabajando en Google cuatro años cuando fue “reclutada” por el Departamento de Defensa estadounidense para trabajar en el Proyecto Maven que desarrollaba sistemas de inteligencia artificial para hacer más inteligentes los drones y que estos fueran capaces de distinguir al enemigo de otras personas u objetos. Debido a las protestas de los empleados y renuncias como la de Nolan, Google se vio obligado a suspender ese contrato.

Qué es Project Maven y por qué 3.100 empleados de Google se oponen a él

Aunque no participé directamente en mejorar el reconocimiento del sistema, me di cuenta de que todavía era parte de la cadena de asesinatos; que en última instancia, esto conduciría a que más personas fueran atacadas y asesinadas por el ejército estadounidense en lugares como Afganistán” ha explicado al medio británico.

Esta exempleada de Google asegura que es imprescindible conservar la mano del ser humano y mantener su control frente a sistemas deshumanizados, por muy precisos que sean: “cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos “.

Señales de radar inesperadas, un clima inusual o simplemente encontrar personas que portan armas por motivos distintos a la guerra como la caza, podrían alterar el funcionamiento de las futuras armas autónomas y provocar masacres según la opinión de esta ingeniera.

Es más, Nolan advierte que únicamente se puede comprobar la efectividad de estas innovaciones en el mismo campo de batalla, utilizando a las personas de ese territorio como conejillos de indias.

Esta ingeniera se centra ahora en conseguir que los principales países se comprometan a prohibir la fabricación de este nuevo tipo de armas. Aunque ningún país ha admitido estar fabricando armas autónomas, la gran mayoría dedica parte de sus recursos a impulsar el desarrollo de la inteligencia artificial con fines militares. Ejemplo de ello son países como Israel que presume de la inteligencia de sus drones o Estados Unidos que ha presentado un buque de guerra que no necesita tripulación para pasar meses en el mar.

*Artículo original publicado en Computerhoy.com

Te recomendamos

Sobre el autor

ComputerHoy.com