Ciber Cultura

Diseñan un ‘botón rojo’ para someter a inteligencias artificiales

bowman
Escrito por Marcos Merino

La división de inteligencia artificial de Google, DeepMind, ha recogido el guante lanzado por Elon Musk en 2014, cuando afirmó que con la IA estábamos “convocando al Diablo”.

“Tengo miedo. Tengo miedo, Dave”.
(HAL 9000 en ‘2001: Odisea en el Espacio’)

Durante una charla en el MIT en 2014, el CEO de Tesla Elon Musk hizo las siguiente declaraciones: “Con la inteligencia artificial estamos convocando al Diablo. Me recuerda a todas estas historias donde hay un hombre con un pentagrama y agua bendita, pensando que seguro podrá controlar al demonio, pero nunca funciona así. Yo me inclino mucho a pensar a que debe haber una especie de regulación, quizás a nivel nacional e internacional, sólo para asegurarnos que no haremos algo muy tonto”.

Poco después abundaba en la misma idea en la publicación Edge.org: “El ritmo de los avances en inteligencia artificial es increíblemente rápido. […] El riesgo de que algo peligrosamente serio suceda está en el plazo de cinco años. 10 años máximo. […] No soy el único que piensa que deberíamos estar preocupados. Las empresas líderes en AI han dado grandes pasos para garantizar la seguridad. Ellas reconocen el peligro, pero creen que pueden dar forma y controlar las superinteligencias digitales y prevenir que las malignas se escapen a Internet. Eso está por verse”.

Google recogió el guante de Musk, y su división dedicada al desarrollo de inteligencias artificiales, DeepMind, se puso a elaborar un documento en el que exponer cómo diseñarían el ‘gran botón rojo’ para desactivar una inteligencia artificial descontrolada, y evitar así ver un HAL 9000 o un Skynet en el mundo real (aunque DeepMind prefiere apegarse un poco más a la realidad y hablar de robots industriales que violen los protocolos de seguridad).

El paper, titulado “Safely Interruptible Agents” ha sido publicado conjuntamente con el Machine Intelligence Research Institute, y en él se abordan explícitamente “métodos para estar seguros de que el sistema de aprendizaje de la máquina no entiende cómo impedir una eventual interrupción del sistema”. No sólo hace falta un botón rojo, sino que ya piensan en cómo evitar que la máquina luche para no ser desconectada. Tranquilizador.

Sobre el autor de este artículo

Marcos Merino

Marcos Merino es redactor freelance y consultor de marketing 2.0. Autodidacta, con experiencia en medios (prensa escrita y radio), y responsable de comunicación online en organizaciones sin ánimo de lucro.