Temen que la inteligencia artificial sea más poderosa que la humana en 10 años
Agencias, Ciudad de México.- Un equipo de investigación sobre superalineación de OpenAI se encuentra desarrollando herramientas para garantizar el control de una inteligencia artificial (IA) sobrehumana para que no pueda volverse contra nosotros. «Creemos que la superinteligencia, una IA mucho más inteligente que los humanos, podría desarrollarse en los próximos 10 años«, comentaron este jueves.
«Los modelos sobrehumanos en términos generales serían extraordinariamente poderosos y, si se usan mal o no se alinean con los valores humanos, podrían causar daños catastróficos», plantearon los investigadores de OpenAI en las conclusiones de su estudio, publicado recientemente.
El equipo considera un imperativo actual el alinear (dirigir y controlar) los futuros sistemas de IA sobrehumanos para que sean seguros y señalan que ahora es el momento adecuado para realizar «avances empíricos en este problema». Los investigadores exponen que las actuales técnicas de alineación de modelos de IA ampliamente utilizadas, como el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), serían incapaces de supervisar la seguridad de los modelos sobrehumanos más inteligentes que ellos.
In the future, humans will need to supervise AI systems much smarter than them.
We study an analogy: small models supervising large models.
Read the Superalignment team's first paper showing progress on a new approach, weak-to-strong generalization: https://t.co/BiBpGdqtKj pic.twitter.com/jmbbwcrmm8
— OpenAI (@OpenAI) December 14, 2023
Como ejemplo, señalan que los modelos sobrehumanos podrían «escribir millones de líneas de código informático novedoso (y potencialmente peligroso) que sería muy difícil de entender incluso para humanos expertos». En este sentido, los humanos serán «supervisores débiles». «¿Cómo pueden los supervisores débiles confiar y controlar modelos sustancialmente más fuertes?«, se preguntan desde OpenAI.
El equipo desarrolló un método denominado ‘generalización de débil a fuerte’. El prometedor método se basa en entrenar modelos grandes de IA con modelos de IA más pequeños que podrán transmitirle a estas superinteligencias nuestros valores con un nivel más alto de precisión en múltiples circunstancias, en comparación con el entrenamiento humano. Los investigadores consideran que los modelos de IA menos complicados los entrenarán en nuestro nombre.
Para el estudio realizaron una prueba de concepto que utilizó a GPT-2 como modelo débil para entrenar a GPT-4. Obtuvieron un rendimiento final al nivel de GPT-3,5 en tareas de procesamiento del lenguaje natural. Aunque desde OpenAI plantean que no están convencidos de que ya sea una «solución» definitiva para la superalineación, señalan que constituye un marco prometedor para entrenar a una IA superhumana. Con base en sus resultados sugieren que es posible realizar progresos empíricos hoy en día en el alineamiento de modelos suprahumanos.
Several hours after I emphasize "elicit" in this tweet thread, "weak-to-strong generalization" paper (https://t.co/unRxr3ppSA) came out . It was really a pleasure reading the paper in detail today. Everything is build upon the belief that base model has all the capabilities, even… https://t.co/ZMjUUtTGCN
— Jingfeng Yang (@JingfengY) December 22, 2023
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami