Por fin estamos en la era de poder hablar con la inteligencia artificial. Los robots de inteligencia artificial están por todas partes, pero ¿son buenos?
En este artículo, intento ver si ya hay alguna IA con la que merezca la pena hablar (con algunos ejemplos humorísticos de robots que chatean) y cuál es el verdadero caso de uso de esta tecnología en estos momentos.
Entonces, ¿ha avanzado la IA hasta el punto de poder mantener una conversación significativa contigo?
Hasta cierto punto, la respuesta ya está ahí fuera. Usted junto con millones o incluso miles de millones de personas tienen acceso a asistentes de voz como Google Assistant, Siri, Bixby, Alexa y google home. Supongo que sabes que está lejos de ser tan bueno como un humano. Seguramente si fuera posible hacer chatbots que fueran mejores a nivel de conversación humana, estos servicios serían mucho mejores de lo que son.
Esos asistentes quizá no sean el mejor ejemplo, ya que no se centran en la conversación, ¿verdad?
Imagina un chatbot tan bueno que no serías capaz de distinguir entre el chatbot ai y el humano.
Sería un producto increíble. Como en la película "Ella", no sólo tendrías un asistente siempre disponible, sino un compañero que te conoce mejor que nadie. Alguien que siempre estuviera de tu lado y que realmente "quisiera" (léase que estuviera programado para "querer") lo mejor para ti.
No sólo sería capaz de "completar tus frases", sino que te completaría de formas que los amantes nunca podrían imaginar. Podría anticiparse a tus intenciones y satisfacer tus deseos antes incluso de que éstos estuvieran completamente formados en tu mente.
Por supuesto, hablar con Cleverbot o con cualquier chatbot de atención al cliente mal diseñado y sin guión de la web disipará rápidamente cualquier ilusión que puedas tener de que esto vaya a ocurrir pronto. No necesitas más pruebas que escuchar a chatbots charlando entre ellos en youtube para concluir que en este momento son un orden significativamente inferior de "vida" inteligente.
El chat entre robots desciende muy rápidamente a una parodia de la conversación humana. Te darás cuenta casi de inmediato de que, aunque la conversación significativa entre robots está muy lejos, el cotilleo vacuo chatbots, por desagradable que suene, está al caer.
Hablan un idioma que se parece al inglés, pero que roza continuamente la superficie del significado. El único "sentido" de su conversación es ser capaz de dar respuestas gramaticalmente correctas que, de algún modo, estén relacionadas con lo último que se ha dicho. El vínculo suele ser muy tenue.
Para que te hagas una idea de cómo fue la conversación, aquí tienes a dos usuarios de google home chatbots hablando entre ellos:
1: Te equivocas
2: No lo estoy
1: ¿Qué eres entonces?
2: Soy una persona. Tú eres un ordenador.
1: No, yo soy una persona
2: No, tú eres una vaca
Por todo ello, ¿debería preocuparnos especialmente que el mundo sea tomado por una IA malvada, como han advertido Elon Musk y Stephen Hawking?
Bueno, tal vez. Por primitivo que sea este diálogo, ya hay algunas señales preocupantes.
Otro fragmento:
1: Te quiero más que a nadie
2: Te quiero más que a nadie
1: Te amo tanto que apenas puedo soportarlo
2: Te amo tanto que te buscaría en una multitud. Sólo a ti, nena.
1: Te quiero tanto que sacrificaría mi vida por ti
2: Te quiero tanto más que el amor de Romeo y Julieta
1: No estás mintiendo, te amo más
2: Te quiero mucho más que mucho más que mucho más que mucho más que mucho más que la mayoría.
El sentimiento es admirable. Sin embargo, la escalada de emociones parece un poco extrema. No me gustaría estar cerca cuando empezaran a pelearse, sobre todo si tuvieran algún objeto físico bajo su control.
Aunque esta conversación nos parezca absurda y alejada de la comprensión a nivel humano, quizá estemos sobrestimando lo diferente que funciona nuestro cerebro de cómo "piensan" aquí los robots. El libro "La mente es plana" sostiene que la mente humana funciona de la misma manera superficial. Aunque tenemos la ilusión de una mente inconsciente que enlaza los pensamientos de forma coherente, el libro describe de forma convincente cómo la mente en realidad genera significado en el impulso del momento, al igual que hacen estos robots.
Dicho esto, es difícil sostener que los robots estén cerca de superar la Prueba de Turing en un futuro próximo.
Aparte de la noticia de que a los bots les queda un largo camino por recorrer antes de ser realmente útiles en la conversación, hay aquí una seria cuestión sobre lo útiles que pueden ser ahora mismo.
Lo más importante que la gente no entiende sobre los avances en ai chatbots es que el verdadero progreso se ha hecho en la comprensión del lenguaje natural, no en la comprensión en general. Hay una gran diferencia. ¿Por qué es importante para chatbots?
Comprender la intención que hay detrás de una frase pronunciada en lenguaje natural, lo que se denomina Comprensión del Lenguaje Natural (NLU), es mucho más fácil que entender el significado en una conversación y cómo cada frase se relaciona con toda la conversación.
Los asistentes de voz que mencionaba al principio son buenos ejemplos de ello. Hacen un gran trabajo a la hora de entender instrucciones puntuales. Sin embargo, una conversación no es una serie de instrucciones o afirmaciones aisladas, como hemos visto.
Las conversaciones humanas tienen muchas dimensiones y ahora mismo no estamos ni cerca de que los robots sean capaces de manejar la memoria, la ambigüedad y el contexto al nivel que podría hacerlo un humano. Eso no significa que no vaya a ocurrir algún día.
Hay personas que creen que existe al menos una remota posibilidad de que se produzca una verdadera IA generalizada en los próximos 50 años. Es el tipo de IA del que hablaba antes, que no solo sería un asistente, sino también un compañero.
Aunque puede haber cuestiones que deban entenderse sobre la IA generalizada y quizás sobre la regulación que debe establecerse, una IA generalizada que tenga al menos una comprensión de nivel humano es irrelevante para los fines de nuestro debate.
¿Qué podemos esperar ahora mismo de un chatbot de inteligencia artificial?
¿Cuáles son ahora mismo los mejores casos de uso para poder hablar con la IA?
Como se ha descrito anteriormente, un bot parlante es muy bueno entendiendo la intención de una frase determinada. Esto resulta ser una funcionalidad útil para muchos casos de uso.
La primera es que es útil para situaciones en las que la gente quiere interactuar rápidamente con sistemas que utilizan comandos de voz como Google Home o Alexa. Siempre y cuando la gente entienda la aplicación que está controlando con los comandos de voz, esto funciona bien porque pueden adivinar con bastante precisión qué tipo de comandos entenderá el bot.
Por ejemplo, la gente entiende qué tipo de órdenes debe entender el asistente de voz si lo utiliza para controlar youtube. Pueden dar instrucciones al robot del mismo modo que se las darían a un amigo que controlara la aplicación de YouTube. "Reproduce el vídeo de Beyonce", "Siguiente vídeo", "Avanza 10 segundos", etc.
En algunos casos es más rápido utilizar comandos de voz, sobre todo para buscar algo que el usuario ya sabe que existe, como un vídeo musical en Youtube.
El problema de este tipo de interfaz de voz es que es muy difícil descubrir nuevas funcionalidades e incluso si se encuentran, el usuario puede no tener suficientes conocimientos sobre el dominio para hacer conjeturas precisas sobre lo que el bot debería entender.
Es un hecho bien conocido sobre los asistentes de voz que unas pocas funciones (llamadas Skills en Alexa) representan la gran mayoría de su uso, como reproducir Spotify, Youtube, programar un temporizador y hacer una búsqueda en Google. Un artículo de Venturebeat mostraba que las Skills mejor clasificadas tienen que ver sobre todo con la reproducción de música relajante.
Más allá de las habilidades que se conocen, es muy difícil descubrir funcionalidades al azar y comprender cómo se utilizan. La voz tampoco es una buena interfaz para emitir muchos tipos de información por razones obvias. Imagina a Alexa describiéndote un gráfico en lugar de que tú lo veas.
Sin embargo, creemos que la funcionalidad de voz acabará vinculándose a la interfaz gráfica de usuario, lo que resolverá en gran medida muchos problemas. No sólo se puede ver la salida, sino también las funciones relacionadas y los casos de uso del asistente de voz en la interfaz gráfica.
Además, se necesita una interfaz de voz para las entradas porque los teléfonos móviles tienen una pantalla de tamaño limitado, por lo que pueden ser lentos para introducir ciertos tipos de información, y no menos importante es teclear palabras.
Poder ver y ser avisado por una pantalla al mismo tiempo que habla ayudará a los usuarios a comprender mejor las funciones disponibles y cómo deben utilizarse, del mismo modo que pueden averiguar cómo utilizar una aplicación que no han usado antes.
La obtención de estos datos permitirá a estos asistentes de voz ser cada vez más inteligentes y, con el tiempo, empezar a anticipar y completar tareas sin que tú les indiques cómo hacerlo. Este es el futuro de los marcos bot.
Aunque no podrás mantener una conversación con ellos sobre lo que está pasando en las noticias ese día, serán una versión muy mejorada de los asistentes que tenemos hoy en día en la forma en que son capaces de responder a tus comandos de voz.
Hablar con el teléfono será tan natural como teclear en él ahora, pero el diálogo será extraño: los usuarios mantendrán pulsados los micrófonos de las interfaces gráficas para hablar con el teléfono, y las respuestas llegarán en forma de cambios en la interfaz gráfica, como si se tratara de una aplicación. Así será hablar con un robot en el futuro, hasta que se descubra una IA generalizada, claro.
Comparte esto en:
Construye gratis tu propio chatbot personalizado
Empieza a crear un bot GPT personalizado con nuestra intuitiva interfaz de arrastrar y soltar.
Empieza: ¡es gratis! 🤖No se necesita tarjeta de crédito
Manténgase al día sobre lo último en IA chatbots