Una empresa de seguros se jactó de utilizar inteligencia artificial para detectar fraudes. No salió bien
Una compañía de seguros impulsada por la inteligencia artificial que afirmó que puede detectar el fraude mediante el análisis de "señales no verbales" en videos de una persona que habla ha eliminado sus afirmaciones después de que los expertos en inteligencia artificial la llamaran en Twitter, lo que plantea preguntas no solo sobre los objetivos distópicos empresa, sino también sobre las capacidades reales de su IA y para qué se utiliza esa IA.
Lemonade es una empresa de seguros que permite a las personas presentar reclamaciones a través de videos enviados en una aplicación. En un hilo de Twitter el lunes que la compañía luego eliminó y llamó "horrible", Lemonade anunció que los chatbots de inteligencia artificial de servicio al cliente que utiliza recopilan hasta 1,600 puntos de datos de un solo video de un cliente que responde 13 preguntas. “Nuestra IA analiza cuidadosamente estos videos en busca de signos de fraude. Puede captar señales no verbales que las aseguradoras tradicionales no pueden, ya que no utilizan un proceso de reclamos digital ", dijo la compañía en un tuit ahora eliminado. El hilo implicaba que Lemonade pudo detectar si una persona estaba mintiendo en su video y, por lo tanto, podría rechazar las reclamaciones de seguros si su IA creía que una persona estaba mintiendo.
Los expertos en inteligencia artificial en Twitter inmediatamente se burlaron y refutaron la afirmación, señalando que toda la premisa de los llamados sistemas de "reconocimiento de emociones", que pretenden detectar el estado de ánimo o mental de una persona, es altamente sospechosa. También plantearon el punto bien establecido de que estos sistemas están intrínsecamente sesgados.
“Este tipo de sistemas fisionómicos no funcionan. Es cada vez más vergonzoso [para las empresas] hablar de ellos ... y, sin embargo, de alguna manera siguen burbujeando ", dijo a Motherboard Luke Stark, profesor de la Western University que estudia la IA fisionómica. "Siempre parece existir la tentación de presumir de que estás haciendo algo nuevo y elegante, como lo hizo esta empresa en sus tweets".
Una captura de pantalla de uno de los tweets eliminados de Lemonade, que dice: "Por ejemplo, cuando un usuario presenta un reclamo, graba un video en su teléfono y explica lo que sucedió. Nuestra IA analiza cuidadosamente estos videos en busca de signos de fraude. Puede detectar no -indicaciones verbales que las aseguradoras tradicionales no pueden, ya que no utilizan un proceso de reclamaciones digital ".
El miércoles, Lemonade eliminó el hilo de Twitter, diciendo que "causó más confusión que cualquier otra cosa". También afirmó que la compañía no aprueba ni rechaza las reclamaciones de seguros basándose únicamente en el análisis de IA: "No utilizamos, y no estamos tratando de construir IA que utilice características físicas o personales para denegar reclamaciones (frenología / fisonomía). "
"El término señales no verbales fue una mala elección de palabras para describir la tecnología de reconocimiento facial que estamos usando para marcar los reclamos presentados por la misma persona con diferentes identidades. Estos reclamos marcados luego son revisados por nuestros investigadores humanos", escribió la compañía. en una publicación de blog después de eliminar sus tweets. "La IA no es determinista y se ha demostrado que tiene sesgos en diferentes comunidades. Es por eso que nunca permitimos que la IA realice acciones deterministas como rechazar reclamos o cancelar políticas".
Al intentar aclarar la situación, Lemonade todavía ha dejado una confusión generalizada sobre cómo funciona la tecnología en la base de su negocio. La publicación dice que la compañía usa tecnología de reconocimiento facial, por ejemplo, pero en su política de privacidad afirma que nunca recopilará información biométrica de los clientes. Y tampoco está claro cómo logra 1.600 puntos de datos a partir de un video de una persona que responde 13 preguntas sin información biométrica.
Lemonade no respondió de inmediato a las preguntas de Motherboard sobre su proceso. Vale la pena señalar que muchas de las llamadas nuevas empresas de "inteligencia artificial" en realidad dependen del trabajo humano entre bastidores. Muchos esperan que los trabajadores humanos puedan entrenar sistemas de inteligencia artificial que finalmente los reemplacen. No está claro hasta qué punto la IA real está involucrada en el proceso de Lemonade; la publicación del blog dice que AI "señala" ciertas afirmaciones que luego son revisadas por un "investigador humano".
Cuando Lemonade salió a bolsa en 2020, lo hizo con la promesa de ser un disruptor clásico de la industria respaldado por inteligencia artificial, pero con un giro: sería una corporación de beneficio público, o B Corp, con la doble misión de generar ganancias y beneficios sociales. bien.
Pero los expertos en inteligencia artificial se preguntan cómo un compromiso con el bien social puede incluir el uso de sistemas de aprendizaje automático que la propia empresa admite que son propensos al sesgo y la discriminación.
En su formulario S-1 presentado ante la Comisión de Bolsa y Valores de EE. UU. Antes de que la empresa salga a bolsa, y en formularios posteriores, la empresa afirma que sus algoritmos de inteligencia artificial patentados son el núcleo de su negocio y que no podría funcionar sin ellos. pero que también podrían conducir a la pérdida de beneficios si los reguladores alguna vez tomaran medidas enérgicas contra sus debilidades.
“Es posible que nuestros algoritmos de inteligencia artificial patentados no funcionen correctamente o como esperamos que lo hagan, lo que podría hacer que redactemos políticas que no deberíamos redactar, valoremos esas políticas de manera inapropiada o paguemos en exceso.
Comentarios
Publicar un comentario