Innovación

¿Cómo la inteligencia artificial cambiará las relaciones internacionales?

inteligencia

¿Cómo pueden aplicarse estos avances en la gestión de las relaciones internacionales entre países? ¿Cuáles serán sus traslaciones en áreas como seguridad militar, humana y las perspectivas económicas, en los próximos 10-15 años?

En toda la historia humana, la política ha sido impulsada fundamentalmente por la acción humana consciente y las acciones e interacciones colectivas de los seres humanos dentro de las redes y organizaciones. Ahora, los avances en inteligencia artificial (IA) mantienen la perspectiva de un cambio fundamental en esta ecuación: la idea de una entidad no humana con una agenda específica que podría crear un cambio radical en nuestra comprensión de la política en los niveles más amplios.

Debido principalmente a la influencia de la literatura, el cine y la televisión, el pensamiento popular acerca de la inteligencia artificial puede tender hacia lo fantasioso. Las representaciones ficticias y apocalípticas de la guerra entre humanos y robots han influido en la cobertura sin aliento de desarrollos de IA relativamente pequeños.

Periódicamente, también, las principales figuras en los campos de la ciencia y la tecnología han emitido duras advertencias de que la IA puede representar una amenaza existencial para la vida humana. Juntos, estos han dado lugar a una percepción entre el público en general de que una nueva forma de inteligencia que exceda la inteligencia humana está a la vuelta de la esquina, o incluso presente ya entre nosotros.

Qué es lo que la Inteligencia Artificial puede aportar a tu negocio

Los seres humanos y las formas limitadas de IA coexisten en estos momentos: la tecnología de inteligencia artificial nos ayuda a guiarnos, a traducir textos y a encontrar vuelos baratos, por poner solo algunos ejemplos; y, a pesar de sus fallos y limitaciones conocidas, parece que será la clave de un futuro radicalmente transformado.

¿Cómo pueden aplicarse estos avances en la gestión de las relaciones internacionales entre países, como comentábamos al inicio del artículo? ¿Cuáles serán sus traslaciones en áreas como seguridad militar, humana y las perspectivas económicas, en los próximos 10-15 años?

En funciones analíticas, los sistemas de inteligencia artificial pueden permitir que menos humanos tomen decisiones de mayor nivel, o para automatizar tareas repetitivas tales como monitorizar los sensores establecidos para garantizar el cumplimiento de un determinado tratado. En estos roles, la IA bien puede cambiar, y de alguna manera ya ha cambiado, las estructuras a través de las cuales los encargados de tomar decisiones entienden el mundo. Pero es probable que el impacto final de esos cambios se atenúe en lugar de transformarse.

Más interesantes son los usos predictivos de la inteligencia artificial, aunque probablemente los veamos en un marco de tiempo más largo. Dichos usos pueden cambiar la forma en que los legisladores y los estados entienden los posibles resultados de acciones específicas. Esto podría, si tales sistemas llegan a ser lo suficientemente precisos y fiables, crear una brecha de poder entre los actores equipados con tales sistemas y los que no los tengan, con resultados notablemente impredecibles.

A su vez, es improbable que los usos operacionales de la IA se materialicen por completo en el corto plazo. Los obstáculos normativos, éticos y tecnológicos para los vehículos completamente autónomos, las armas y otros sistemas del mundo físico, como los asistentes personales robóticos, son muy altos, aunque se están realizando rápidos progresos para superar estas barreras. Sin embargo, a más largo plazo, tales sistemas podrían transformar radicalmente no solo la forma en que se toman las decisiones, sino la forma en que se llevan a cabo.

¿Cómo evitar los efectos negativos?

A medio y largo plazo, las capacidades de inteligencia artificial no deben residir solo en un pequeño número de países, o únicamente dentro de segmentos reducidos de la población. Los gobiernos de todo el mundo deben invertir en el desarrollo, la retención del talento y la experiencia local en IA si sus países quieren ser independientes de la experiencia dominante en inteligencia artificial que ahora se concentra en Estados Unidos y China. Asimismo, deberían trabajar para garantizar que el talento en esta parcela se nutra a través de una amplia base a fin de mitigar los problemas de sesgo inherentes.

Las corporaciones, las fundaciones y los gobiernos deberían asignar fondos para desarrollar y desplegar sistemas de inteligencia artificial con objetivos humanitarios. El sector humanitario podría obtener importantes beneficios de tales sistemas, lo que podría, por ejemplo, disminuir los tiempos de respuesta en situaciones de emergencia. Sin embargo, dado que es improbable que la IA para fines humanitarios sea inmediatamente rentable para el sector privado, es necesario realizar un esfuerzo concertado para desarrollarla sin fines de lucro.

¿Podría la inteligencia artificial provocar una guerra nuclear?

La comprensión de las capacidades y limitaciones de los sistemas artificialmente inteligentes no debe ser competencia exclusiva de los expertos técnicos. Una mejor educación y capacitación sobre lo que la inteligencia artificial es -y, críticamente, lo que no es- debe hacerse tan ampliamente disponible como sea posible, mientras que la comprensión de los objetivos éticos y de política subyacentes debería ser una prioridad mucho mayor para quienes desarrollan las tecnologías.

Igualmente, es fundamental desarrollar relaciones de trabajo sólidas, particularmente en el sector de la defensa, entre los desarrolladores de IA públicos y privados, ya que gran parte de la innovación se está produciendo en el sector comercial. Asegurar que los sistemas inteligentes cargados con tareas críticas puedan llevarlos a cabo de manera segura y ética requerirá apertura entre diferentes tipos de instituciones.

También se necesitan códigos de conducta claros para garantizar que los beneficios de la IA se puedan compartir ampliamente, mientras que sus riesgos concurrentes están bien gestionados. Al desarrollar estos códigos, los encargados de formular políticas y los técnicos deberían comprender las formas en que la regulación de sistemas artificialmente inteligentes puede ser fundamentalmente diferente de la regulación de las armas o los flujos de comercio, al tiempo que extraen lecciones relevantes de esos modelos.

Por último, los desarrolladores y reguladores deben prestar especial atención a la cuestión de las interfaces hombre-máquina. La inteligencia artificial y humana son fundamentalmente diferentes, y las interfaces entre las dos deben diseñarse cuidadosamente, y revisarse constantemente, a fin de evitar malentendidos que en muchas aplicaciones podrían tener graves consecuencias.

*Este texto es una traducción interpretada de un análisis del Dr. Jacob Parakilas, Mary L. Cummings, Dra. Heather Roff, Kenn Cukier y Hannah Bryce, publicado conjuntamente por la Chatham House y el Foro Económico Mundial. El original puede consultarse aquí.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, La Razón, El Mundo, ComputerWorld, CIO España, Business Insider, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo, ganador del Premio Día de Internet 2018 a mejor marca personal en RRSS y finalista en los European Digital Mindset Awards 2016, 2017 y 2018.