Tecnología

¿Será la Inteligencia Artificial un peligro en el futuro?

inteligencia-artificial
Escrito por Eduardo Álvarez

La rebelión de las máquinas es uno de los temas favoritos de la ciencia ficción, especialmente de la de mediados del siglo pasado. No son pocas las novelas escritas con una guerra entre el hombre y los robots como argumento, algo que vuelve a la actualidad inmediata gracias a la Inteligencia Artificial. La pregunta es, ¿debemos frenar su desarrollo?

Por suerte para la humanidad, una mente privilegiada como la de Isaac Asimov ya se encargó de buscarle cinco pies al gato. En su Saga de los Robots -en la que se inspiró la película Yo, Robot– y posteriormente en La Fundación se aborda este tema. Si la inteligencia artificial se hace demasiado inteligente, podría ser un peligro.

Para evitar esto, en el universo de Asimov existían varias leyes de la robótica. Todos los androides están obligados a seguir estas leyes de forma obligatoria, ya que para ello han sido programados. Si uno de los robots pretende, por ejemplo, hacer daño a un humano, sus circuitos se fundirán de forma automática.

Es una perspectiva interesante que merece la pena valorar, aunque aún no hayamos llegado al punto en de tener problemas graves.

Hay que aclarar que para elaborar este artículo le hemos echado mucha imaginación. Evidentemente es difícil aplicar las leyes del universo de Asimov a un mundo que no tiene mucho que ver. Por ejemplo, las tres leyes de la robótica se podrían aplicar si la producción de robots y la programación de la IA estuviese centralizada de alguna forma. Si no, cualquier podría programarla para lo que se le ocurra.

Para hacerlo más fluido hemos identificado robots como Inteligencia Artificial. La diferencia entre la concepción clásica de robots y la moderna es la existencia de un hardware con aspecto humanoide, prácticamente descartada en nuestra época.

Desde hace más de un año, en el mundo real vivimos inmersos en la fiebre por laInteligencia Artificial. Ya tenemos coches autónomos y la IA se hace cargo de operaciones cada vez más complejas. Nos encargamos de programar software cada vez más complejo, pero ¿hasta dónde es recomendable llegar?

Compra en Amazon los tres libros de La Saga de los Robots de Asimov

Si pensamos ir más allá, dotando casi a los robots -incluso a los virtuales- de inteligencia casi humana, debemos salvaguardar la integridad de la humanidad. Puede parecer ridículo, y la verdad es que dicho así, lo es, pero no hace menos interesante la temática.

El verdadero problema, al menos por el momento, no es lo que los robots serán capaz de hacer por su cuenta, sino lo que los humanos pueden llegar a hacer con la tecnología de la que disponemos, sirviéndose de robots para sus propósitos.

Yo también puedo programar, el libro con el que los niños aprenden a programar

Al igual que en sus novelas, la cuestión se reduce básicamente a una sola: ¿debe la Inteligencia Artificial primar el bienestar futuro de la humanidad por encima del bienestar físico inmediato de un humano? Para ilustrar la necesidad de un debate sobre los límites de la Inteligencia Artificial, hemos recopilado una serie de situaciones en las que serían necesarias unas Leyes de la Robótica como las que creó Isaac Asimov, si no directamente las mismas:

  • Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
  • Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño. Conocida como Ley 0.

Artículo publicado en ComputerHoy.com

Sobre el autor de este artículo

Eduardo Álvarez