En el mundo de chatbots "human in the loop" se entiende la capacidad de los agentes humanos para supervisar y hacerse cargo manualmente de un chatbot.
Si un chatbot no entiende lo que se le dice, la interrupción de la conversación puede convertirse rápidamente en una frustración para el cliente. Para evitar esta frustración, un ser humano debe intervenir y hacerse cargo de la conversación en cuanto se produce la interrupción.
Hay que tener en cuenta muchos aspectos a la hora de implantar el bucle humano. Aquí exploramos algunas de ellas.
El caso de uso más obvio para los humanos en el bucle es el servicio de atención al cliente. Todas las empresas necesitan personal de primera línea o agentes humanos para responder a las preguntas. Muchas de las preguntas son sencillas y repetitivas, por lo que podrían ser respondidas fácilmente por bots, reduciendo así la necesidad de costosos agentes humanos.
Lo primero que hay que mencionar es que los motores de procesamiento de lenguaje natural en los que se basan los bots pueden devolver el nivel de confianza que tienen en que pueden responder a la pregunta en cuestión. Un nivel de confianza muy alto significa que están casi seguros de poder responder correctamente a la pregunta. Un nivel de confianza bajo significa que hay pocas probabilidades de que respondan correctamente a la pregunta.
Son estos niveles de confianza los que se utilizan para determinar si una conversación pasa a un humano o no.
Hay varias formas de manejar los bots en la conversación.
La empresa puede hacer que el cliente conecte con un agente humano. El cliente puede entonces dirigir su consulta a un agente humano, pero si la pregunta es sencilla, el bot puede responder directamente. Si el bot tiene una confianza razonablemente alta en responder correctamente a la pregunta, pero no una confianza extremadamente alta, puede indicar al agente humano las respuestas predefinidas que puede utilizar. Al utilizar estas respuestas enlatadas, el agente humano no sólo es capaz de responder mucho más rápido que tecleando las respuestas, sino que también entrena al bot para futuras conversaciones.
En el caso anterior, probablemente sea mejor que el humano y el bot aparezcan como participantes separados en la conversación, ya que este es el escenario menos confuso para el cliente.
En general, se acepta que no es una buena práctica que el bot responda en nombre del agente humano, ya que suele ser bastante fácil para el cliente final detectar cuándo está hablando con un bot y esto minará su confianza en el agente humano y en el proceso.
También se puede conectar al cliente con un bot al principio. En este caso, el cliente es consciente de que está hablando con un bot y, por lo tanto, debe esperar capacidades más limitadas. De nuevo, el humano puede añadirse a la conversación si es necesario como un usuario separado en el chat.
Es menos perjudicial para la experiencia del cliente que el humano se haga cargo del bot (sin revelarse como una persona separada) porque esto hará que el bot funcione mejor de lo esperado para el cliente final (desde el punto de vista de la comprensión). De hecho, hay muchos casos de bots que se presentan al público como impulsados por IA, pero que en realidad tienen una mano de obra humana como back-end. Sin embargo, esto plantea problemas para los humanos.
El primer problema es el tiempo. Los tiempos de respuesta humanos son mucho más lentos que los tiempos de respuesta de los bots, por lo que si la conversación se escala a un humano, el tiempo de respuesta puede aumentar repentinamente de forma material y esto puede afectar a la experiencia del cliente.
También hay un sutil problema con la privacidad que surge en el caso de que la información sea sensible y un humano tome el relevo del bot, ya sea directamente o como participante independiente en el caso.
En algunos casos, un cliente puede sentirse más dispuesto a compartir información personal con un bot (que es una aplicación que no juzga) que con un humano. Si el humano aparece de repente en el chat y tiene acceso al historial de chat, esto puede verse como una violación de la privacidad.
Una forma muy fácil y clara de gestionar a un humano en el bucle es dar al cliente la opción explícita de elegir si quiere hablar con el humano o no. Esta opción de hablar con un humano podría estar disponible para el cliente en todo momento. Por ejemplo, podría teclear la palabra "ayuda" en cualquier momento para hablar inmediatamente con un agente humano.
En la misma línea, después de que el bot responda a cada pregunta, podría preguntar al cliente si desea hablar con un humano para obtener más aclaraciones.
Evidentemente, en ambos casos es importante que el humano tenga acceso al historial de chat anterior para que pueda retomarlo donde lo dejó el bot.
Lo que sería aún mejor es que el cliente pudiera iniciar una llamada desde el chat si fuera necesario, ya sea a través de VOIP o por teléfono con el agente humano.
Los bots en los procesos de asistencia están mejorando eficazmente las capacidades de los agentes humanos al responder a preguntas sencillas y proporcionarles respuestas enlatadas para preguntas más complejas.
Sin embargo, podemos ir más lejos.
Los robots podrían proporcionar información más relevante a los agentes humanos que participan en la conversación, así como herramientas adicionales a quienes supervisan las conversaciones.
Los robots pueden proporcionar contexto sobre el cliente y las interacciones anteriores, así como información sobre productos relacionados y oportunidades de venta cruzada a los agentes humanos.
También creemos que los bots pueden permitir transformar la comunicación entre los agentes humanos y los clientes más allá del texto y la voz.
Se pueden intercambiar elementos gráficos, incluidos widgets que permitan al cliente realizar una compra o probar distintas alternativas. Por ejemplo, un cliente de seguros puede estar preguntando por un presupuesto. El agente humano podría darle un widget de cálculo a través del chat que le ayudara a introducir distintos parámetros y probar diferentes opciones para su seguro.
También es posible que la conversación de chat tenga lugar simultáneamente con una conversación de voz para aumentar aún más el servicio que se está prestando.
También es posible que el chatbot no sólo ayude al agente humano en la parte comercial, sino que podría ayudar al cliente proporcionándole información relevante a medida que avanza en la conversación con el agente humano o el bot.
Aquí hemos tratado el caso de uso más obvio para Human in the loop, que es el caso de uso del servicio de atención al cliente basado en texto. Si el bucle humano se convierte en un caso de uso común en este ámbito, es posible que se generalice su uso para casos de uso más generales.
Por ejemplo, un cliente podría estar utilizando un chatbot para hoteles que proporciona una funcionalidad de reserva de hoteles. Es posible que, si tienen problemas, se dirijan directamente al agente humano como parte del chatbot y que éste les ayude en el chat (quizá para un micropago). El agente humano podría formar parte de la empresa o ser un tercero.
Esto es muy distinto de lo que ocurre ahora, cuando tienes un problema con una aplicación, tienes que llamar al servicio de atención al cliente y describir lo que ha ocurrido. Ellos no pueden ver ningún historial de tus operaciones, lo que dificulta que puedan ayudarte.
Hay muchos problemas interesantes con la implementación de humanos en el bucle en este momento. También hay muchas posibilidades sobre cómo podría evolucionar esta característica de los bots. Será interesante ver qué ocurre.
Comparte esto en:
Construye gratis tu propio chatbot personalizado
Empieza a crear un bot GPT personalizado con nuestra intuitiva interfaz de arrastrar y soltar.
Empieza: ¡es gratis! 🤖No se necesita tarjeta de crédito
Manténgase al día sobre lo último en IA chatbots