La IA se está explicando a los humanos. Y está dando sus frutos

https://www.google.com/url?q=https://www.reuters.com/technology/ai-is-explaining-itself-humans-its-paying-off-2022-04-06/&source=gmail&ust=1649857231063000&usg=AOvVaw15T4_KsJBsFzMfvxMl1rJH

LinkedIn, de Microsoft Corp (MSFT.O), aumentó los ingresos por suscripciones en un 8% después de armar a su equipo de ventas con un software de inteligencia artificial que no sólo predice los clientes en riesgo de cancelación, sino que también explica cómo llegó a su conclusión.


El sistema, presentado el pasado mes de julio y descrito el miércoles en un blog de LinkedIn, supone un gran avance para conseguir que la IA "muestre su trabajo" de forma útil.


Aunque los científicos de la IA no tienen problemas para diseñar sistemas que hagan predicciones precisas sobre todo tipo de resultados empresariales, están descubriendo que para que esas herramientas sean más eficaces para los operadores humanos, la IA puede necesitar explicarse a través de otro algoritmo.


El campo emergente de la "IA explicable", o XAI, ha estimulado una gran inversión en Silicon Valley, ya que las empresas emergentes y los gigantes de la nube compiten para hacer más comprensible el software opaco, y ha avivado el debate en Washington y Bruselas, donde los reguladores quieren garantizar que la toma de decisiones automatizada se haga de forma justa y transparente.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social