Agencia/NuevaEra / Ciudad de México – Investigadores del Instituto Tecnológico de Massachusetts piensan que los robots del futuro pueden aprender una o dos cosas de Steve Carell y de otros comediantes de televisión.
El MIT dice que una computadora que observó durante mucho tiempo videos de YouTube y programas de televisión como The Office, Big Bang Theory y Desperate Housewives aprendió cómo predecir si los actores estaban a punto de abrazarse, besarse o saludarse de manos, avances que podrían ayudar a que la siguiente generación de inteligencia artificial funcione menos torpemente.
«Podría ayudar a un robot a moverse más fluidamente por una vivienda», dijo el investigador líder Carl Vondrick en una entrevista. «El robot no va a comenzar a verter leche si piensa que uno está a punto de retirar el vaso».
Vondrick ve además potenciales aplicaciones en atención médica. «Si se puede predecir que alguien está a punto de caer o de iniciar un incendio o de herirse a sí mismo, podría proporcionar una ventaja de unos segundos para intervenir».
Los hallazgos -tras dos años de investigación en el Laboratorio de Informática e Inteligencia Artificial del MIT- serán presentados la próxima semana en la Conferencia Internacional sobre Visión Artificial y Reconocimiento de Modelos, en Las Vegas.
Vondrick, un candidato a doctorado enfocado en visión artificial y aprendizaje de máquinas, y quien tiene subvenciones de Google y de la Fundación Nacional para la Ciencia, trabajó con el profesor del MIT Antonio Torralba y con Hamed Pirsiavash, quien ahora está en la Universidad de Maryland. El trío quería ver si podía crear un algoritmo que pudiera imitar la intuición de un ser humano y prever qué sucederá después que dos personas se encuentran.
Para refinar lo que existe ahora en estudios de inteligencia artificial como «visión de predicción», expusieron su sistema de aprendizaje para máquinas a videos que mostraban a humanos saludándose, y videos al azar de YouTube; «600 horas de ellos, para ser precisos», dijo Vondrick.
Los investigadores descargaron los videos y los convirtieron en representaciones visuales, una especie de interpretación numérica de pixeles sobre una pantalla que el algoritmo pudiera leer y buscar modelos complejos.
Luego mostraron a la computadora fragmentos de programas de comedia de televisión que nunca había visto -interacciones entre los protagonistas de la serie Big Bang Theory Jim Parsons (Sheldon Cooper) y Kaley Cuoco (Penny), por ejemplo-, y pedían al algoritmo que predijera un segundo después si los dos se iban a abrazar, besar, saludar de mano o golpear las palmas de sus manos con el brazo levantado.
La computadora acertó más de 43 por ciento de las veces. La cifra podría no sonar alta, pero es mejor que algoritmos existentes con una tasa de éxito de 36 por ciento. Los humanos aciertan un 71 por ciento de las veces
Con información de Reforma.
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami