Chatbots en finanzas de consumo
HogarHogar > Blog > Chatbots en finanzas de consumo

Chatbots en finanzas de consumo

Jan 29, 2024

Trabajar con los clientes para resolver un problema o responder una pregunta es una función esencial para las instituciones financieras, y la base de la banca relacional.1 Los clientes recurren a sus instituciones financieras para obtener asistencia con productos y servicios financieros y esperan legítimamente recibir respuestas oportunas y directas. independientemente de los procesos o tecnologías utilizadas.

La siguiente investigación realizada por la Oficina de Protección Financiera del Consumidor (CFPB) explora cómo la introducción de tecnologías avanzadas, a menudo comercializadas como "inteligencia artificial", en los mercados financieros puede afectar la experiencia de servicio al cliente. El propósito de este informe es explicar cómo las instituciones financieras están utilizando las tecnologías de chatbot y los desafíos asociados que enfrentan sus clientes. El análisis de la CFPB sugiere que:

Las instituciones financieras han utilizado durante mucho tiempo una variedad de canales para interactuar con clientes potenciales y existentes. Las sucursales bancarias se crearon para brindar a los clientes un lugar cerca de sus hogares para realizar negocios bancarios y recibir atención y soporte al cliente.4 La capacidad de hacer preguntas e interactuar cara a cara con una institución financiera ha sido durante mucho tiempo un principio fundamental de la banca relacional.

Con el tiempo, las instituciones financieras han agregado centros de contacto (anteriormente llamados centros de llamadas), para que los clientes puedan interactuar más fácilmente con su institución financiera. A medida que estas instituciones crecieron, muchas funciones de los centros de contacto cambiaron a la tecnología de respuesta de voz interactiva para enrutar las llamadas al personal adecuado y reducir los costos. A medida que la nueva tecnología estuvo disponible, las instituciones financieras implementaron interfaces en línea para la atención al cliente, como aplicaciones móviles5 y la capacidad de enviar y recibir mensajes oa través de "chat en vivo". La introducción del chat en las finanzas del consumidor permitió a los clientes tener interacciones de ida y vuelta en tiempo real a través de una plataforma de chat con agentes de servicio al cliente.

Los chatbots, que simulan respuestas similares a las humanas mediante la programación de computadoras, se introdujeron en gran parte para reducir los costos de los agentes humanos de servicio al cliente. Recientemente, las instituciones financieras han comenzado a experimentar con el aprendizaje automático generativo y otras tecnologías subyacentes, como las redes neuronales y el procesamiento del lenguaje natural, para crear automáticamente respuestas de chat utilizando texto y voces.6 A continuación, describimos el uso de chatbots con fines de atención al cliente.

Los chatbots son programas informáticos que imitan elementos de la conversación humana. Aunque pueden variar sustancialmente en términos de sofisticación, automatización y características, todos incorporan la entrada de un usuario y utilizan la programación para producir una salida.7

Los chatbots basados ​​en reglas utilizan la lógica del árbol de decisiones o una base de datos de palabras clave para desencadenar respuestas preestablecidas y limitadas. Estos chatbots pueden presentar al usuario un menú fijo de opciones para seleccionar o navegar por el usuario entre opciones basadas en un conjunto de palabras clave y generar respuestas usando reglas predeterminadas. Por lo general, el usuario está limitado a posibles entradas predefinidas.8 Por ejemplo, un chatbot bancario puede enumerar una cantidad determinada de opciones para que el consumidor elija, como verificar el saldo de su cuenta o realizar un pago.

Los chatbots más complejos utilizan tecnologías adicionales para generar respuestas. Específicamente, estos chatbots pueden estar diseñados para usar aprendizaje automático o tecnología que a menudo se comercializa como "inteligencia artificial" para simular un diálogo natural.9 Otros chatbots complejos usan LLM para analizar los patrones entre palabras en grandes conjuntos de datos y predecir qué texto debe seguir en respuesta a un pregunta de la persona.10

Los chatbots específicos de dominio están destinados a ayudar a los usuarios a realizar tareas específicas y su funcionalidad se limita a un área temática como la atención médica, la educación o la banca.11 Nuestro análisis se centra en los chatbots de la industria financiera.

Los chatbots ocupan un lugar destacado en la industria financiera, incluidos los sitios web, las aplicaciones móviles y las cuentas de redes sociales de bancos, administradores hipotecarios, cobradores de deudas y otras compañías financieras. En 2022, más de 98 millones de usuarios (aproximadamente el 37 % de la población de EE. UU.) interactuaron con el chatbot de un banco. Se prevé que este número aumente a 110,9 millones de usuarios para 2026.12

En particular, entre los 10 principales bancos comerciales del país, todos usan chatbots de diversa complejidad para interactuar con los clientes. Estos chatbots a veces tienen nombres humanos, usan funciones emergentes para fomentar la participación e incluso pueden intercambiar mensajes directos en cuentas de redes sociales. La adopción de chatbots por parte de las instituciones financieras para brindar servicio al cliente puede explicarse por ciertas características, como su disponibilidad las 24 horas del día, los 7 días de la semana y las respuestas inmediatas.13 La adopción también puede estar impulsada por el ahorro de costos para estas instituciones. Por ejemplo, los informes muestran que, en comparación con el uso de modelos de servicio al cliente de agentes humanos, los bots conversacionales generan $8 mil millones por año en ahorros de costos, aproximadamente $0,70 ahorrados por interacción con el cliente.14

Los chatbots han sido parte del mercado financiero durante casi una década y su popularidad ha crecido constantemente a lo largo de los años.15 Hoy en día, gran parte de la industria al menos usa chatbots simples basados ​​en reglas con lógica de árbol de decisiones o bases de datos de palabras clave o emojis que activan respuestas preestablecidas y limitadas. A menudo, estos chatbots están impulsados ​​por empresas de tecnología de terceros patentadas. Por ejemplo, Kasisto proporciona chatbots conversacionales centrados en las finanzas para JPMorgan Chase y TD Bank,16 mientras que Interactions respalda a Citibank.17

A medida que ha crecido la adopción de chatbots, algunas instituciones, como Capital One, han creado sus propias tecnologías de chatbots entrenando algoritmos en conversaciones reales de clientes y registros de chat.18 Capital One lanzó Eno, un SMS o mensajería de texto, chatbot, en marzo de 2017.19 Al igual que otros chatbots bancarios, Capitol One afirma que Eno puede verificar los saldos de las cuentas, revisar las transacciones recientes y el crédito disponible, saber cuándo vencen los pagos, pagar una factura, activar una tarjeta, bloquear o reemplazar una tarjeta, actualizar información personal, encontrar números de cuenta y agregue usuarios autorizados.20 De manera similar, Bank of America anunció su propio chatbot, Erica, en 2018. Para octubre de 2022, Erica había sido utilizado por casi 32 millones de clientes en más de mil millones de interacciones.21

Más recientemente, la industria bancaria ha comenzado a adoptar tecnología avanzada, como chatbots generativos y otros comercializados como "inteligencia artificial". Por ejemplo, en abril de 2023, el director de información de Goldman Sachs sugirió que el personal de ingeniería del banco comenzara a crear su propio "ChatGS" o chatbot LLM para ayudar a los empleados del banco a almacenar conocimientos y responder preguntas clave de los clientes a pedido.22

A medida que ha avanzado el uso de la tecnología de chatbot en la industria, en algunos casos lo ha hecho confiando en las empresas de tecnología más grandes para conjuntos de datos o plataformas. Por ejemplo, en septiembre de 2022, Truist anunció su asistente digital construido sobre Amazon Lex, un producto de Amazon Web Services (AWS).23 Wells Fargo anunció en octubre de 2022 el lanzamiento de Fargo, un nuevo asistente virtual de chatbot que utiliza la plataforma Google Cloud de Alphabet. para utilizar LLM para procesar la entrada de los clientes y proporcionar respuestas personalizadas.24 Además, Morgan Stanley anunció que está probando un nuevo chatbot, impulsado por las tecnologías GPT 4 de OpenAI respaldadas por Microsoft para enviar guiones a los asesores financieros.25

La funcionalidad de chatbot no se limita solo a intercambios de texto. Por ejemplo, US Bank lanzó Smart Assistant a través de una aplicación móvil en junio de 2020. Smart Assistant responde principalmente a indicaciones de voz y permite consultas de texto como una alternativa secundaria.26 Al igual que otros chatbots bancarios, Smart Assistant sigue una funcionalidad simple basada en reglas diseñada para hacer tareas bancarias cotidianas, incluida la búsqueda del puntaje crediticio de los usuarios, la transferencia de dinero entre cuentas, la disputa de transacciones y la facilitación de pagos a otros usuarios a través de Zelle.27

Muchas empresas financieras también han ampliado el uso de chatbots basados ​​en reglas a los que funcionan con plataformas de redes sociales. Entre los 10 principales bancos del país, la mayoría habilita mensajes directos y chat de negocios en Twitter o en Facebook e Instagram de Meta. Business Chat de Facebook e Instagram produce respuestas automáticas, entre otras funciones.28

De la misma manera que la atención al cliente pasó de ser en persona a centros de llamadas remotos hace décadas, los sectores de toda la economía ahora están pasando del soporte humano al soporte algorítmico.

El CFPB recopila quejas del público sobre productos y servicios financieros de consumo. Con el uso creciente de chatbots por parte de las instituciones financieras, las quejas del público describen cada vez más los problemas que experimentan las personas al interactuar con los chatbots. En algunos casos, estos problemas plantean dudas sobre el cumplimiento de la ley existente. A continuación, describimos algunos de los desafíos experimentados por los clientes, como se detalla en las quejas presentadas ante el CFPB. También examinamos los problemas que plantea el uso de chatbots en toda la industria.

El término inteligencia artificial, o "IA", se usa para sugerir que un cliente está interactuando con un sistema que es altamente sofisticado y que las respuestas que proporciona son realmente inteligentes y precisas. Pero la "IA" y las tecnologías automatizadas vienen en una variedad de formas. De hecho, las personas pueden estar lidiando con un sistema muy rudimentario con poca capacidad para ayudar más allá de recuperar información básica y repetirla como un loro o dirigir a los clientes a políticas o preguntas frecuentes. En circunstancias en las que la "IA" no comprende la solicitud de la persona o el mensaje de la persona contradice la programación del sistema, no es adecuado que los chatbots sean el principal vehículo de atención al cliente.

Las personas confían en las instituciones financieras para reconocer, investigar y resolver disputas de manera precisa y oportuna. Incrustado en estas expectativas del cliente y requisitos legales está que las entidades identifiquen con precisión cuándo un cliente plantea una inquietud o disputa. Los chatbots y los representantes con guiones muy estrictos pueden introducir un nivel de inflexibilidad, en el que solo palabras o sintaxis específicas pueden desencadenar el reconocimiento de una disputa y comenzar el proceso de resolución de disputas. Como resultado, la capacidad de los chatbots y scripts para reconocer una disputa puede ser limitada.

Incluso cuando los chatbots pueden identificar que el cliente está presentando una disputa, puede haber limitaciones técnicas en su capacidad para investigar y resolver esa disputa. En algunos casos, los clientes disputan transacciones o información incorrecta. Los chatbots que se limitan a simplemente regurgitar la misma información del sistema que el cliente intenta disputarles son insuficientes. Tal respuesta de loro no maneja disputas o consultas de manera significativa.

Una persona señaló, por ejemplo:29

Además, los chatbots basados ​​en reglas tienden a ser calles de un solo sentido, ya que están diseñados para aceptar o procesar información de cuentas de los usuarios y no pueden responder a solicitudes fuera del alcance de sus entradas de datos. Un chatbot con una sintaxis limitada puede sentirse como una interfaz de línea de comandos donde los clientes necesitan saber la frase correcta para recuperar la información que buscan.30 Esta limitación puede ser particularmente problemática para las personas con dominio limitado del inglés, donde la tecnología entrenada en un El número limitado de dialectos dificulta que los consumidores con diversas necesidades de dialectos usen chatbots para recibir ayuda de su institución financiera. Aunque se anuncia como más conveniente, seguir los movimientos de una conversación simulada puede ser tedioso y opaco en comparación con la búsqueda de información con una navegación clara y lógica. Por ejemplo, una persona se quejó recientemente:31

Como se detalla más adelante, los chatbots a veces dan una respuesta incorrecta.32 Cuando la vida financiera de una persona está en riesgo, las consecuencias de equivocarse pueden ser graves. En los casos en que las instituciones financieras confían en los chatbots para proporcionar a las personas cierta información que legalmente se requiere que sea precisa, estar equivocado puede violar esas obligaciones legales.

Específicamente, los chatbots complejos que usan LLM a veces tienen problemas para proporcionar información precisa y confiable. Para los chatbots conversacionales y generativos entrenados en LLM, los métodos estadísticos subyacentes no están bien posicionados para distinguir entre datos correctos e incorrectos. Como resultado, estos chatbots pueden basarse en conjuntos de datos que incluyen instancias de información errónea o desinformación que luego se repiten en el contenido que generan.

Estudios recientes han sugerido que los chatbots pueden proporcionar información inexacta. Por ejemplo, un estudio comparativo de ChatGPT de OpenAI respaldado por Microsoft, BlenderBot de Meta y LaMDA de Alphabet mostró que estos chatbots a menudo generan salidas incorrectas que algunos usuarios no pueden detectar.33 Pruebas recientes del chatbot Bard de Alphabet encontraron que también genera salidas ficticias.34 Además, un estudio reciente demostró que ChatGPT de OpenAI respaldado por Microsoft puede exacerbar los sesgos además de generar resultados incorrectos.35 Los educadores han descrito a los chatbots como "no adecuados para tareas que requieren lógica, conocimiento especializado o información actualizada". 36 haciendo que el uso de chatbots conversacionales capacitados en LLM en banca sea una fuente poco confiable para responder a los clientes.

A pesar de que los chatbots pueden estar equivocados, los usuarios solicitan asesoramiento financiero de los chatbots generativos.37 Por ejemplo, una encuesta informó que las personas usaban los chatbots LLM para solicitar recomendaciones y asesoramiento sobre tarjetas de crédito, tarjetas de débito, cuentas corrientes y de ahorro, prestamistas hipotecarios. y préstamos personales.38

El uso de chatbots en la banca tiene como objetivo brindar a los clientes ayuda inmediata y oportuna con sus problemas. Cuando un chatbot está respaldado por tecnología poco confiable, datos inexactos o es poco más que una puerta de entrada a las políticas públicas o preguntas frecuentes de la empresa, los clientes pueden quedarse sin recurso. Brindar respuestas confiables y precisas a las personas con respecto a su vida financiera es una función crítica para las instituciones financieras.

Las respuestas automáticas de un chatbot pueden fallar en resolver el problema de un cliente y, en cambio, conducirlo a bucles continuos de jerga o jerga legal repetitiva e inútil sin una derivación a un representante de servicio al cliente humano. Estos "bucles fatales" a menudo se producen cuando el problema de un cliente queda fuera de las capacidades limitadas del chatbot, lo que hace imposible que los clientes participen en una conversación sólida, y tal vez necesaria, con su institución financiera. Como se señaló anteriormente, algunos chatbots se basan en LLM para generar respuestas a las consultas comunes de los clientes. Si bien algunas personas pueden obtener una respuesta a una consulta específica utilizando un chatbot, la capacidad de obtener una respuesta clara y confiable puede complicarse con la misma tecnología.

Las instituciones financieras pueden afirmar que los sistemas automatizados son más efectivos o eficientes, por ejemplo, porque una persona puede obtener una respuesta de inmediato. Pero las respuestas automáticas pueden tener muchos guiones y simplemente dirigir a los clientes a extensas declaraciones de política o preguntas frecuentes, que pueden contener muy poca información útil, si es que hay alguna. Es posible que estos sistemas simplemente estén descargando la carga de que un ser humano tenga que explicar dichas políticas o la responsabilidad de los agentes de servicio al cliente informados a un proceso automatizado más económico. Como resultado, varios clientes han presentado quejas ante la CFPB por quedarse atrapados en "bucles fatales" con chatbots. Por ejemplo: 39

Y otro cliente se quejó: 40

Los chatbots están programados para resolver tareas específicas o recuperar información y, a veces, no pueden adaptar de manera significativa los servicios para un cliente angustiado. Cuando los clientes buscan ayuda con asuntos financieros, pueden sentirse ansiosos, estresados, confundidos o frustrados. Las investigaciones han demostrado que cuando las personas experimentan ansiedad, sus perspectivas sobre el riesgo y las decisiones cambian.41 Las limitaciones de un chatbot pueden impedir que el cliente acceda a su información financiera básica y aumentar su frustración. Por ejemplo, una encuesta encontró que el 80 % de los consumidores que interactuaron con un chatbot se sintieron más frustrados y el 78 % necesitaba conectarse con un ser humano después de que el chatbot no satisfizo sus necesidades.42 Por ejemplo, un consumidor señaló:43

Los consumidores también pueden encontrar que las salidas al servicio de atención al cliente humano se bloquean aún más debido a esperas irrazonables. Estos obstáculos no solo dejan a los consumidores atascados y sin ayuda, sino que afectan seriamente su capacidad para administrar sus finanzas. Los consumidores se han quejado ante la CFPB sobre estos temas:44

Además, la naturaleza limitada de estos chatbots y la falta de acceso a un representante de servicio al cliente humano pueden no ser evidentes para los clientes cuando inician una relación con una institución financiera específica. No es evidente hasta que los clientes experimentan un problema y deben invertir tiempo y esfuerzo para resolverlo, desperdiciando su tiempo, reduciendo las opciones del consumidor y socavando las instituciones financieras que intentan competir invirtiendo en una atención al cliente significativa y efectiva.

La implementación de tecnologías avanzadas en lugar de humanos también puede ser una opción intencional de las entidades que buscan aumentar los ingresos o minimizar las cancelaciones. De hecho, es menos probable que las tecnologías avanzadas renuncien a las tarifas o estén abiertas a la negociación del precio.45

En un alto nivel, la confiabilidad de los sistemas automatizados depende parcialmente de cómo una entidad ha decidido priorizar las características y asignar los recursos de desarrollo. Por ejemplo, para aumentar los ingresos, puede ser una mayor prioridad mejorar la capacidad de los sistemas automatizados para promocionar productos financieros relevantes para un cliente específico en función de sus datos. Esta inversión puede ocurrir a expensas de funciones que no conducen al crecimiento de los ingresos. Por lo tanto, incluso si un sistema automatizado puede manejar bien ciertas funciones del cliente, puede ser pobre en el manejo de otras. En pocas palabras, las decisiones de inversión pueden conducir a una inversión insuficiente en la confiabilidad de un chatbot. Una persona se quejó de que:46

Además, los chatbots pueden fallar, como cualquier otra tecnología. Si un chatbot roto es la única opción de un cliente para recibir ayuda urgente de su institución financiera, puede dejar a las personas atrapadas con poco o ningún servicio al cliente. Las quejas de los consumidores nos muestran algunas de las limitaciones técnicas de los chatbots, por ejemplo:47

Ya sea por un problema de programación o de software, un cliente frustrado solo ve un chatbot que no funciona.

Debido a su naturaleza automatizada, los malhechores suelen utilizar los chatbots para crear chatbots de suplantación de identidad falsos para realizar ataques de phishing a gran escala. Los agentes conversacionales a menudo se presentan como "humanos", lo que posiblemente lleve a los usuarios a sobrestimar sus capacidades y compartir más información de la que compartirían en un simple formulario web. Entonces es bastante peligroso cuando los usuarios comparten información personal con estos chatbots de suplantación. En los últimos años, ha habido un aumento en las estafas dirigidas a usuarios de plataformas de mensajería comunes para obtener su información personal o de pago y luego engañarlos para que paguen tarifas falsas a través de aplicaciones de transferencia de dinero.48

Además de usar chatbots de suplantación de identidad para dañar a los consumidores, los chatbots también se pueden programar para suplantar información de otro chatbot. En estas situaciones, los chatbots pueden estar programados para seguir ciertos protocolos de privacidad y seguridad, pero no están necesariamente programados para detectar patrones de comportamiento sospechosos o intentos de suplantación de identidad y es posible que no puedan reconocer y responder a los intentos de los estafadores de phishing para obtener información personal o robar. identidades de los pueblos.

Por ejemplo, en mayo de 2022, los estafadores se hicieron pasar por DHL, una empresa de servicios de entrega de paquetes y correo urgente, a través de un correo electrónico que dirigía a las víctimas a un chatbot para solicitar costos de envío adicionales para recibir paquetes. La conversación del chatbot parecía confiable porque incluía un formulario captcha, mensajes de correo electrónico y contraseña, e incluso una foto de un paquete dañado.49

Las instituciones financieras tienen la obligación de mantener segura la información de identificación personal, independientemente de la tecnología utilizada.50 Los investigadores de seguridad han resaltado una variedad de vulnerabilidades potenciales en los chatbots, desde entidades que usan protocolos de transferencia web inseguros y obsoletos hasta consumidores desesperados y frustrados que ingresan información personal en el chat. plataformas porque necesitan ayuda.51

Por ejemplo, para validarse a sí mismos como propietarios de una cuenta específica, los clientes generalmente deben proporcionar información personal. Cuando los clientes brindan información personal y financiera a una empresa, esperan que se maneje con cuidado y se mantenga confidencial. Por lo tanto, cuando los clientes ingresan información personal en los registros de chat, esos registros deben considerarse información confidencial del consumidor y deben mantenerse seguros contra una violación o intrusión. Los registros de chat introducen otro lugar para los ataques a la privacidad, lo que dificulta la protección total de la privacidad y la seguridad de la información personal y financiera de los consumidores. En 2018, Ticketmaster UK empleó Inbenta Technologies para varios servicios, incluida una "IA conversacional" en su página de pagos. Los piratas informáticos se dirigieron a los servidores de Inbenta e insertaron un código malicioso que registraba la información ingresada en el chatbot para procesar los pagos de los usuarios de la plataforma, lo que resultó en un ataque cibernético que afectó a 9,4 millones de interesados, incluidos 60 000 detalles de tarjetas de pago individuales.52

Además, los chatbots capacitados por LLM se basan en conjuntos de datos de capacitación que contienen información sobre personas que pueden haberse obtenido ilegalmente.53 Pueden ocurrir violaciones de la privacidad cuando los datos de capacitación incluyen información personal que luego el modelo divulga directamente sin que sea culpa de la persona afectada. 54 Algunos de estos riesgos parecen ser reconocidos por las instituciones financieras, al menos en lo que respecta a su información interna, ya que varios bancos grandes han restringido el uso de ChatGPT de OpenAI respaldado por Microsoft por parte de sus empleados.55

El alcance de las pruebas de seguridad necesarias para los sistemas de IA como los chatbots es extenso y requiere pruebas rigurosas y auditorías exhaustivas de cualquier proveedor de servicios externo involucrado en las operaciones. Simplemente hay demasiadas vulnerabilidades para que a estos sistemas se les confíen datos confidenciales de los clientes sin las medidas de protección adecuadas.

Las quejas de los consumidores que la CFPB ha recibido sobre los chatbots plantean preocupaciones sobre si el uso de los chatbots obstaculiza la capacidad de las instituciones para proteger la seguridad de los datos de los consumidores.56

A medida que las instituciones financieras continúan invirtiendo en tecnologías como los chatbots para manejar la atención al cliente y, al mismo tiempo, reducir los costos, deben considerar las limitaciones de la tecnología, como las que se detallan en este informe. El uso de la tecnología de chatbot como modo principal de interacción con las personas puede presentar varios riesgos para las instituciones financieras individuales, incluidos los siguientes:

El Congreso aprobó leyes financieras federales para el consumidor que imponen una variedad de obligaciones relevantes a las instituciones financieras. Estas obligaciones ayudan a garantizar que las instituciones financieras traten de manera justa a los clientes, entre otras cosas, brindándoles respuestas directas.

Las instituciones financieras corren el riesgo de que cuando los chatbots ingieren las comunicaciones de los clientes y brindan respuestas, es posible que la información que brindan los chatbots no sea precisa, que la tecnología no reconozca que un consumidor está invocando sus derechos federales o que no proteja su privacidad y sus datos.

Cuando los consumidores necesitan ayuda de su institución financiera, las circunstancias pueden ser graves y urgentes. Si se quedan atrapados en bucles de jerga repetitiva e inútil, no pueden activar las reglas correctas para obtener la respuesta que necesitan y no tienen acceso a un representante de servicio al cliente humano, su confianza en su institución financiera disminuirá.

Dada la estructura de los mercados para muchos productos y servicios financieros de consumo, las personas pueden tener un poder de negociación limitado para presionar por un mejor servicio cuando se selecciona un proveedor para ellos. Por ejemplo, hay poca o ninguna opción para el consumidor en el caso de seleccionar un administrador hipotecario o una compañía de informes crediticios. Además, incluso en los mercados donde los consumidores tienen más opciones, es posible que las instituciones financieras no compitan vigorosamente en ciertas características, como el servicio al cliente, ya que los clientes solo están expuestos a esas características después de haber seleccionado el proveedor y, por lo tanto, están algo bloqueados en ellas. En tales contextos, la oportunidad de ahorros sustanciales en los costos podría incentivar fuertemente a las instituciones a enrutar la atención al cliente a través de chatbots u otros sistemas automatizados, incluso si eso disminuye la experiencia del cliente hasta cierto punto. Es importante señalar que en los mercados en los que falta o se debilita la competencia, se reduce el alcance de los ahorros de costos que se transfieren a los consumidores en forma de mejores productos y servicios.

Las instituciones financieras pueden ir más allá y reducir o eliminar el acceso al apoyo humano personalizado. Sin embargo, es probable que esta reducción se produzca a expensas de la calidad y la confianza del servicio. Esta compensación es especialmente cierta para los segmentos de clientes donde las interacciones de chatbot tienen tasas más altas de resolución fallida, como grupos con disponibilidad técnica limitada o dominio limitado del inglés.

Cuando los chatbots fallan en los mercados de productos y servicios financieros de consumo, no solo rompen la confianza del cliente, sino que también tienen el potencial de causar un daño generalizado. Hay mucho en juego por equivocarse cuando la estabilidad financiera de una persona está en riesgo. Ser capaz de reconocer y manejar las disputas de los clientes es una función esencial; El manejo de disputas a veces es la única forma significativa de corregir rápidamente un error antes de que empeore los resultados. Proporcionar información inexacta sobre un producto o servicio financiero de consumo, por ejemplo, podría ser catastrófico. Podría conducir a la evaluación de tarifas inapropiadas, lo que a su vez podría conducir a peores resultados, como el incumplimiento, lo que daría lugar a que el cliente seleccione una opción inferior o un producto financiero de consumo, u otros daños.

Por lo tanto, no reconocer o resolver una disputa puede ser desastroso para una persona. Puede erosionar su confianza en la institución y disuadirlos de buscar ayuda con problemas en el futuro, causar frustración y pérdida de tiempo, y dejar sin resolver problemas que pueden resolverse, lo que empeora los resultados negativos.

El despliegue de chatbots deficientes por parte de las instituciones financieras corre el riesgo de molestar a sus clientes y causarles daños sustanciales, por los cuales pueden ser considerados responsables.

Este informe destaca algunos de los desafíos asociados con la implementación de chatbots en los servicios financieros de consumo. A medida que los sectores de la economía continúen integrando soluciones de "inteligencia artificial" en las operaciones de servicio al cliente, es probable que haya una serie de fuertes incentivos financieros para sustituir el soporte ofrecido en persona, por teléfono y por chat en vivo.

Los chatbots deficientes que impiden el acceso al soporte humano en vivo pueden conducir a violaciones de la ley, disminución del servicio y otros daños. El alejamiento de la banca relacional hacia la banca algorítmica tendrá una serie de implicaciones a largo plazo que el CFPB continuará monitoreando de cerca.

El CFPB está monitoreando activamente el mercado y espera que las instituciones que usan chatbots lo hagan de manera consistente con el cliente y las obligaciones legales. El CFPB también alienta a las personas que tienen problemas para obtener respuestas a sus preguntas debido a la falta de interacción humana, a presentar una queja del consumidor ante el CFPB.

Los consumidores pueden presentar quejas sobre productos y servicios financieros visitando el sitio web de CFPB o llamando al (855) 411-CFPB (2372).

Se alienta a los empleados de empresas que creen que su empresa ha violado las leyes financieras federales del consumidor a enviar información sobre lo que saben a [email protected].

El CFPB está monitoreando el uso de tecnología que a menudo se comercializa como "Inteligencia artificial" para garantizar que no viole los derechos de los consumidores.

09 DIC 2022

18 DE NOVIEMBRE DE 2022

31 DE OCTUBRE DE 2022

06 JUN 2023

01 JUN 2023

01 JUN 2023

17 DE JULIO DE 2020

10 DE MARZO DE 2020

06 DIC 2018