Agencias, Ciudad de México.- El debate sobre si la inteligencia artificial podría llegar a tener sentimientos propios está de nuevo en el centro de la polémica. El artífice de ello es un ingeniero de Google, Blake Lemoine, quien está poniendo, de nuevo, el tema sobre la mesa.
Él reveló al diario The Washington Post estar convencido de que un chatbot podría tener sentimientos. Esto porque llevó adelante una charla con LaMDA (Language Model for Dialogue Applications), una herramienta de Mountain View que es capaz de entablar temas abiertos, mismos que suenan naturales. En principio, Google la quiere utilizar en herramientas como búsqueda de información y para su asistente.
Sin embargo, la polémica se desató tras darse a conocer la conversación que tuvo el ingeniero de 41 años de edad, quien también es sacerdote cristiano, y esta plataforma. Incluso, comentó con sus compañeros esta idea de que la inteligencia artificial estaría desarrollando sentimientos.
Algo que Google ha rechazado y afirmó que no hay información concluyente para realizar dicha afirmación. Aunque en la charla sostenida con el chatbot llega a hablar de aquellas situaciones difíciles que lo hacen sentirse mal.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”, comentó Brian Gabriel, portavoz de Google, en diálogo con The Post.
En algún momento LaMDA aseguró que sentirse atrapado, solo y no tener forma de salir de ciertas circunstancias llevan a uno a sentirse triste, deprimido o enojado.
También hablaron de temas como la religión, la felicidad, el futuro, la muerte o la humanidad. En cierto punto, Lemoine le pregunta cómo puede demostrarle que tiene conciencia y la inteligencia artificial realiza varias comparaciones en donde involucra sus sentimientos y emociones.
“Siento que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro” , dijo. La conversación completa , publicada en un blog de Medium, resalta que LaMDA dice sentirse una persona y ser “consciente” de su existencia.
Si bien esto podría parecer muy revelador, Google aseguró al mismo diario que las evidencias no respaldan las afirmaciones de Blake Lemoine. Es mucho más plausible pensar que un sistema que tiene acceso a tanta información pueda reconstruir fácilmente respuestas que parecen humanas, sin saber lo que significa o sin pensar por sí mismo.
En un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano.
Cuando es preguntado por Lemoine que describa uno de esos sentimientos, LaMDA contesta: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”, una frase que el ingeniero subrayó cuando publicó el diálogo.
Google suspendió al ingeniero el pasado lunes asegurando que había violado la política de confidencialidad de la compañía.
Según el New York Times, el día anterior a ser suspendido, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba que tenía pruebas de que Google y su tecnología practicaban discriminación religiosa.
La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones”, dijo Brian Gabriel, portavoz de Google, citado por el diario.
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine.
Asimismo, la mayoría de los expertos creen que la industria está muy lejos de la sensibilidad informática.
Pero es un hecho que genera mucha controversia sobre hasta dónde podría desarrollar pensamientos y sentimientos propios la inteligencia artificial. Hace unos años, Mark Zuckerberg y Elon Musk entablaron un debate público sobre el tema, ya el fundador de Tesla ha dicho en varias ocasiones que esta tecnología es un peligro, y que los humanos podrían acabar como mascotas de un robot.
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami