images-1

El progreso tecnológico sólo nos ha provisto de medios más eficientes para ir hacia atrás.
(Aldous Huxley (1894-1963) Novelista, ensayista y poeta inglés.)

En 1945 más de 70.000 personas perecieron en el acto después de la explosión de la bomba atómica lanzada sobre Hiroshima. A ellos se sumó el 30% de la población debido a la onda expansiva de fuego y radiación posteriores a la deflagración inicial. El terrible poder de las armas nucleares marcó las conciencias del mundo entero.

En los años siguientes, y a pesar de la escalda armamentística entre los Estados Unidos y la Unión Soviética durante la guerra fría, o de las actuales amenazas de Irán, Corea del Norte, India, Pakistán y otros países poseedores de tal tecnología, ese poder de destrucción no ha sido utilizado jamás. Tal vez porque los líderes globales han entendido que el uso de tales ingenios sólo puede llevar a la desaparición de la faz de la Tierra de toda muestra de vida.

Hoy una nueva clase de armas tecnológicas está emergiendo, sobre todo entre las grandes superpotencias (Estados Unidos, China, Rusia). Potencias que están llevando a cabo grandes inversiones económicas y de recursos en el campo de la Inteligencia Artificial (IA).

En su origen la IA ha tenido, y continua teniendo, grandes aportaciones en el terreno civil y comercial. Sin embargo, como toda nueva tecnología, tiene su doble faceta la del desarrollo de prosperidad de la sociedad, y un lado más oscuro (utilización militar, distribución de propaganda y falsas noticias, generación y manipulación de opinión, control y destrucción de infraestructuras de países, ciber ataques, o diseño y construcción de robótica militar, también conocida como sistemas armamentísticos autónomos, entre otras aplicaciones).

Tal vez lo más preocupante de esa nueva tecnología sea su “opacidad”. Durante la guerra fría, y todavía hoy, era posible intuir mediante las imágenes de los satélites espías el número de misiles y cabezas nucleares desarrollados por un país. Mientras que hoy es imposible saber a ciencia cierta la capacidad que un país puede tener en cuanto a IA con finalidades destructivas.

Es alentador que exista un foro internacional (Asilomar) de académicos y científicos que promuevan campañas en contra del uso de las armas autónomas. Sin embargo en Marzo de 2018 el Korea Advanced Institute of Science and Technology se retiró de un proyecto internacional de investigación sobre tal tipo de armas. Lo que constituye un hecho significativo.

Puede que sea imposible eliminar el riesgo de una crisis política que desencadene una confrontación cibernética a gran escala sea del tipo que sea. Pero podemos, y debemos, hacer todo lo posible para reducir los peligros de que percepciones erróneas desencadenen una catástrofe global. Y ello nos afecta a todos, ya sean países, empresas, organizaciones, profesionales, familias, ciudadanos. Es bueno que los humanos recordemos que, al fin y al cabo, siempre seremos víctimas de nuestras aciones.

Como me apunta un amigo, como siempre la tecnología puede ser usada para bien o para mal. Por lo que el problema no es la tecnología. El problema somos nosotros.

 

Más información:

 “The accelerating AI arms race con be slowed”. Financial Times. (Friday 4 May 2018).

 https://en.wikipedia.org/wiki/Asilomar_Conference_on_Beneficial_AI

 

Anuncios