MÁS ALLÁ DE LA GUERRA DE LAS GALAXIAS

29.07.2015 00:17

Que no cunda el pánico

--
La próxima guerra mundial no tendrá control humano, advierten a las potencias guerreristas (EE.UU-RUSIA, por ejemplo), centenares de científicos encabezados por Stephen Hawking y filósofos tan distinguidos como Noam Chomski.
La carta de estos pesos pesados de la inteligencia y la ciencia mundial fue difundida ayer 28 de julio como apertura del International Joint Conferences on Artificial Intelligence (IJCAI), en la que se pide la creación de un tratado internacional de no proliferación de dichas armas para evitar el comienzo de la tercera revolución bélica de la historia humana, siendo las dos anteriores la pólvora y la bomba atómica.
“Si los gobiernos y los investigadores no anteponemos la ética a la tecnología, sí que es cierto que el futuro nos deparará cosas muy feas”, advierte la carta que desde hace unas horas le da la vuelta al mundo, difundida por todos los medios físicos y virtuales.
El Satélite ha acogido el texto de la traducción hecha por José Luis Blanco en “Ciencia Explicada”, en los siguientes términos:
Las armas autónomas seleccionan y atacan objetivos sin intervención humana. Entre estas armas se incluyen, por ejemplo, multicópteros que puedan buscar y eliminar personas que cumplan ciertos criterios pre-establecidos, pero no se incluyen los misiles de crucero ni los drones operados remotamente, para los que hay humanos detrás tomando las decisiones.
La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego: se ha dicho que las armas autónomas serán la tercera revolución bélica, tras el invento de la pólvora y la bomba atómica.
Se han dado muchos argumentos a favor y en contra de las armas autónomas. Por ejemplo, que reemplazar a los soldados por máquinas es bueno para reducir las bajas humanas, pero malo porque rebajaría también el umbral de lo que cuesta ir a una batalla.
La pregunta clave para la Humanidad hoy es: si comenzamos una guerra armamentística de IA, o si prevenimos que tan siquiera comience.
Si alguna potencia militar sigue adelante con el desarrollo de armas de IA, una carrera mundial de armas es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvia: las armas autónomas se convertirán en los Kalashnikovs del mañana. A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener, por lo que se convertirá en ubicuas y baratas al ser producidas en masa para todos los poderes militares. Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores que deseen controlar mejor a su población; señores de la guerra que deseen perpetrar limpiezas étnicas, etc.
Las armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, sometimiento del pueblo y asesinatos selectivos para grupos étnicos en particular. Por ello, creemos que una carrera de armas de IA militar no sería beneficiosa para la humanidad. Hay muchas formas en que la IA puede hacer los campos de batalla más seguros para los seres humanos, especialmente los civiles, sin crear nuevas herramientas para matar a la gente (fin de la traducción).
-

Redacción El Satélite con información de diferentes medios