Agencias / MonitorSur, Ciudad de México.- Inteligencia Artificial (IA) es un sistema tecnológico capaz de, autónomamente entender su entorno, aprender de él y tomar acciones determinadas con el fin de maximizar su probabilidad de alcanzar sus objetivos. Aun cuando esta innovación tiene un largo camino por delante, expertos en el ámbito han comenzado a discutir sus posibles implicaciones, no solamente en el entorno digital y empresarial, sino también en el geopolítico. En ese sentido, la firma de análisis Rand Corporations se hizo la pregunta, ¿podría la IA provocar una guerra nuclear?
A través del estudio How Might Artificial Intelligence Affect the Risk of Nuclear War?, Rand publicó los resultados de tres talleres de trabajo con 50 participantes (especializados en IA, dispositivos de destrucción masiva y seguridad nacional), quienes analizaron marcos geopolíticos, sopesaron la posibilidad del uso de software en decisiones militares y examinaron cómo podrían usarse dichos sistemas para interferir o supervisar armas nucleares. Entre los resultados de la disertación, se construyeron 4 escenarios probables a futuro:
Superinteligencia
Uno de los escenarios preferidos en múltiples obras de ciencia ficción es, de acuerdo al análisis de los participantes, irrelevante. Una IA capaz de superar por mucho las capacidades intelectuales humanas ocasionaría uno de dos desenlaces: resolvería los problemas del mundo o lo destruiría (por malicia o incidente). Muy pocos participantes consideran la opción inevitable, pero como puede ocasionar tanto guerra nuclear o un paraíso, insisten en que debe analizarse a fondo aún si su probabilidad de ocurrencia es baja.
Evolución limitada
Aquí, la IA explotaría en capacidades y mantendría habilidades sub-humanas a raíz de ciertas limitaciones físicas (por ejemplo, los límites del hardware disponible). El riesgo de guerra nuclear es más real que en el caso anterior, pero su nivel dependería de la “relación” entre máquinas y humanos: en su calidad de seres falibles, probablemente se “explotarían” mutuamente con el fin de alcanzar sus objetivos. Así, se pondría mayor énfasis en estrategias de seguridad convencionales, como negociación y disuasión militar.
Progreso incremental continuo
Muy similar al escenario anterior, aquí la IA también tiene altos niveles de inteligencia y habilidades sub-humanas en algunos aspectos. Pero dicho estado se alcanzaría mediante mejoras constantes en el transcurso de décadas. Aun cuando la conclusión es la misma (énfasis en estrategias de seguridad convencionales con el fin de evitar guerra nuclear), se tendría un mayor control sobre el software y, por la tendencia de desarrollo tecnológico actual, tiene la mayor probabilidad de ocurrir.
Límite de IA
Otro escenario donde los expertos ven pocas probabilidades de ocurrir, aquí el mercado alcanza una “madurez”, el interés comercial y militar decae y, con él, la inversión. Así, las capacidades de las máquinas solo llegarían tan lejos como le sean útiles a organizaciones. Ya que hoy se ve gran énfasis en su evolución, aun si llegara a ocurrir, es probable un avance considerable en el campo, lo cual a su vez provocaría desafíos en el ámbito de guerra nuclear similares a los de la Evolución limitada y el Progreso incremental continuo.
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami