He entrevistado a la Inteligencia Artificial de moda, pero no está lista: “Soy opaca”

He entrevistado a la Inteligencia Artificial de moda, pero no está lista: “Soy opaca”

En esta entrevista, hablamos con un modelo de lenguaje entrenado por OpenAI sobre los avances en IA y chatbots. A pesar de ser una IA, demuestra tener una capacidad sorprendente para mantener un diálogo coherente y responder preguntas sobre temas variados. La entrevista nos permite explorar la capacidad de la IA para comprender y responder preguntas en lenguaje natural, así como sus limitaciones y desafíos en un futuro cercano. A medida que la IA sigue avanzando, es importante seguir explorando su potencial y sus límites para entender mejor cómo puede ser utilizada en una variedad de campos y contextos.

El de arriba es el texto que sugiere Assistant a este medio para introducir esta entrevista. Assistant, o ChatGPT, es un nuevo sistema de Inteligencia Artificial en pruebas presentado por OpenAI este jueves y que se ha hecho inmediatamente viral en redes sociales por sus razonadas respuestas en una gran variedad de temas. Sin embargo, tras hacerle preguntas durante varias horas, este periodista no coincide con la "capacidad sorprendente para mantener un diálogo coherente" que Assistant destaca sobre sí misma.

Los límites de Assistant aparecen rápidamente cuando se intenta mantener una conversación con ella. En pocos minutos empieza a sentirse como un juguete, similar a lo que ocurre con Alexa o Siri, pese a que Assistant es sin duda más potente. Se aprecia que algunos de esos límites está fijados a conciencia por sus programadores para evitar que la máquina pise charcos y se meta en problemas. "Debes tener en cuenta que mi capacidad está limitada al conocimiento que se me ha proporcionado durante mi entrenamiento, y no tengo acceso a información actualizada que no se me haya proporcionado", avisa el sistema durante la interacción.

Se trata de un mensaje que repite en cada respuesta sobre actualidad, política o personas concretas: "No tengo acceso a internet y no puedo buscar información adicional para responder preguntas", argumenta. Cuando se insiste en ese camino la máquina empieza a repetir este argumento con otras palabras y produce una interacción robótica, repetitiva. También se niega a hacer predicciones sobre el futuro o a hablar "de eventos violentos y perturbadores como ataques terroristas".

Para evitar que el robot hable más de la cuenta, OpenAI también la ha hecho parca en palabras a la hora de responder sobre sentimientos, su capacidad empática o ante preguntas filosóficas sobre su propio yo. Este es el motivo que produjo un pequeño escándalo recientemente con uno de los modelos de lenguaje natural de Google, cuando uno de los ingenieros que la testaba alertó que se había convertido en un ser sintiente. La multinacional lo negó y dijo que el ingeniero había "antropomorfizado" a la inteligencia artificial.

Assistant también flaquea cuando se le hacen preguntas cortas y directas. Así lo explica ella: "Mi capacidad para responder preguntas y mantener un diálogo coherente depende en gran medida de la calidad y cantidad de información que se me proporciona. Si se me proporciona información precisa y completa sobre un tema, como la política, puedo utilizar esa información para proporcionar respuestas coherentes y precisas. Sin embargo, si no se me proporciona suficiente información sobre un tema, es posible que no pueda responder preguntas de manera precisa y coherente".

Si no se pretende mantener el "diálogo" que Assistant afirma ser capaz de mantener, sino jugar con ella como si fuera una enciclopedia, sus capacidades cambian diametralmente. No hay tema académico que quede fuera de su alcance. Es uno de los motivos por los que el sistema se ha viralizado: expertos de muchos campos le han hecho las preguntas más complejas que se les han ocurrido y el sistema las ha respondido como el alumno más aplicado de la clase.

Un gran número de especialistas informáticos ha destacado sus capacidades para entender códigos de programación, detectar errores, arreglarlos e incluso explicar cómo solucionar el problema de forma sencilla. Una multitud de usuarios han compartido fascinados las razonadas que Assistant ofrece en temas tan dispares como las aplicaciones del anarquismo a las diferentes maneras de organizar un evento de marketing online, siendo capaz de debatir sobre determinados puntos de sus respuestas.

En este sentido, el sistema puede ser una competencia directa para el buscador de Google. En los últimos años el buscador se ha especializado en ser capaz de ofrecer respuestas automatizadas a cualquier pregunta, además de llevar al usuario a la fuente de la información. El ChatGPT de OpenAI da un paso más al ser capaz de contestar a las repreguntas o explicar con más detalle un punto en concreto.

No obstante, un factor clave de Assistant en este sentido es que no puede revelar cómo se han formado las bases de datos de las que extrae información y que condicionan sus respuestas.

De hecho, en sus respuestas a este medio, Assistant llega a reconocer que es una "inteligencia artificial opaca" ya que es incapaz de revelar las fuentes de las que extrae sus respuestas. "Es posible que mis respuestas reflejen los sesgos presentes en el texto que se me proporcionó durante el entrenamiento. Los modelos de lenguaje, como cualquier otro sistema creado por seres humanos, pueden reflejar los prejuicios y las creencias de las personas que los crean y entrenan. Es importante tener en cuenta esto y considerar la fuente de mis respuestas al evaluar su precisión y fiabilidad", afirma durante la interacción.

Antes de comenzar las interacciones, OpenAI avisa a los usuarios que quieran hacerle preguntas a su máquina que es posible que esta responda con información incorrecta. "Puede producir ocasionalmente instrucciones perjudiciales o contenidos tendenciosos", añade. Esta empresa, fundada en 2015 por Elon Musk y Sam Altman, está configurada como una organización de investigación de la inteligencia artificial sin ánimo de lucro. Pese a ello, está valorada en más de 20.000 millones de dólares gracias otros productos como el generador de imágenes DALL-E o el GPT-3, un modelo de lenguaje natural capaz de elaborar textos complejos.

"La gente está entusiasmada con el uso de ChatGPT para aprender. A menudo es muy bueno. Pero el peligro es que no puedes saber cuándo se equivoca a menos que ya sepas la respuesta", ha advertido este jueves Arvind Narayanan, profesor de Ciencia de la computación especializado en inteligencia artificial de la Universidad de Princeton (EEUU). "He probado algunas preguntas básicas sobre seguridad de la información. En la mayoría de los casos, las respuestas parecían plausibles, pero en realidad eran falsas", ha añadido.

"Estoy seguro de que habrá muchas aplicaciones específicas para las que será útil", ha añadido el profesor, destacando, no obstante, que el primer impulso de los usuarios de maravillarse con las capacidades y anticipar sus capacidades revolucionarias pueden resultar un tanto exageradas: "Hay mucha de la hipérbole habitual que acompaña al lanzamiento de toda herramienta de IA generativa".

"No hay duda de que estos modelos están mejorando rápidamente. Pero su capacidad para sonar convincentes está mejorando con la misma rapidez, lo que significa que es cada vez más difícil incluso para los expertos detectar cuando cometen errores", concluía Narayanan.