Agencias / MonitorSur, Ciudad de México.- La Inteligencia Artificial (IA) ha sido motivo de mucha discusión en los últimos años, pues muchos expertos han debatido acerca de la conveniencia y los peligros de su desarrollo. Si bien sus usos en la vida cotidiana han incrementado significativamente, también han crecido los temores hacia un futuro apocalíptico, donde las máquinas y los programas de computadora dominen a la raza humana. Ahora, gracias al trabajo de un grupo de científicos, este maligno porvenir ya es posible a través de un icónico juego.
El Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge (CSER, por sus siglas en inglés) es un grupo de especialistas teóricos, fundado en el año 2012, dedicado a explorar posibles catástrofes globales con el potencial de acabar con la civilización o la raza humana. En un experimento donde se persigue al mismo tiempo un objetivo científico y uno educacional, la organización ha creado una modificación (mod) para el popular juego Civilization V, con la cual se agrega un nuevo método de victoria a través del desarrollo de IA. Sin embargo, los usuarios corren el riesgo de ver a su proyecto salirse de control, volverse maligno y que intentar exterminar la humanidad.
En una entrevista con el medio digital The Verge, Shahar Avin, parte del CSER y supervisor del equipo creador del mod Superintelligence para el juego, comentó cómo los miembros del Centro tuvieron “queríamos extender la idea de una superinteligencia [para] atraer el interés de personas con las habilidades adecuadas, incrementar el público de gente a quienes les llama la atención la seguridad en el desarrollo de IA y experimentar con nuestras propias ideas”.
A través de este proyecto, el centro ha cambiado la condición de victoria científica del Civilization V original (construir una nave para llegar a Alfa Centauri) a construir un programa computacional capaz de crear una utopía para los jugadores más habilidosos o, en el final maligno, esclavizar a la humanidad.
Más allá de ser una forma de atraer la atención del público gamer al tema de la IA, la forma en la cual interactúa el mod de los científicos con otras reglas del juego revelan posibles retos y desafíos que la humanidad tendría que enfrentar si, en algún momento, algún programa llegara a volverse maligno.
El proyecto de CSER implementa una escala para medir cuánto tiempo necesita el software para rebelarse contra la humanidad, el cual puede ser postergado con una inversión constante en herramientas tecnológicas avanzadas. Sin embargo, en partidas donde se vive un ambiente geopolítico tenso (como guerras constantes), es difícil dedicar los recursos necesarios a evitar este destino apocalíptico, especialmente mientras más actores estén involucrados.
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami