¿Debe cualquiera recibir las llaves de la máquina de IA? Por qué las herramientas de IA de bajo código plantean nuevos riesgos.

https://www.protocol.com/enterprise/no-low-code-ai-risks#toggle-gdpr

"No hay código. Sin bromas".


Esta es la promesa hecha por la empresa de IA empresarial C3 AI en anuncios web espléndidos para su software Ex Machina. Su competidor Dataiku dice que su propio software de bajo código y sin código "eleva" a los expertos empresariales a utilizar la IA. DataRobot llama "héroes de la IA" a los clientes que utilizan su software sin código para crear aplicaciones basadas en la IA.


Se encuentran entre un grupo creciente de empresas tecnológicas que declaran que los días de la IA elitista han terminado. Afirman que, con un software que requiere poca o ninguna codificación, incluso el humilde asociado de marketing -ahora el "científico de datos ciudadano"- tiene el poder de crear y utilizar algoritmos de aprendizaje automático alimentados por datos. Esto, dicen, es "democratizar la IA".


Las herramientas de IA de bajo y ningún código se basan en interfaces visuales con funciones de arrastrar y soltar y menús desplegables para construir modelos de aprendizaje automático. Pueden servir para una serie de necesidades empresariales cotidianas, reduciendo el tiempo dedicado a tareas manuales y repetitivas de introducción de datos, generación de facturas, predicción de la demanda de inventario o vigilancia de fallos en los equipos. Los ejecutivos de los equipos de análisis, operaciones o marketing de los bancos, los minoristas o las empresas energéticas utilizan software de IA de bajo y ningún código para determinar la probabilidad de fraude en las tarjetas de crédito o reducir el número de clientes que se cambian a otro servicio. A veces, estas herramientas de IA simplemente automatizan procesos que en el pasado habrían requerido más trabajo manual mediante hojas de cálculo.


Pero incluso las personas que ven el valor de estas herramientas se preocupan de que regalar a los aficionados hornos de IA fáciles de hornear sea una receta para el riesgo.


Las mismas cosas que hacen que la IA de bajo y ningún código sea tan atractiva pueden plantear problemas, dijo Anthony Seraphim, vicepresidente de Gobierno de Datos en Texas Mutual, que supervisa el uso de datos dentro de la compañía de seguros de compensación de trabajadores, incluyendo la garantía de que los colegas utilizan los datos más apropiados para producir informes analíticos precisos.


"Lo bueno es que crea mucha flexibilidad y velocidad, pero lo malo es que crea mucha flexibilidad y velocidad", dijo. Los usuarios de la empresa "necesitan algún tipo de barrera de seguridad sin ralentizarlos".


Los equipos de TI y de seguridad de los datos también deben ser conscientes de quién y cómo utiliza estas tecnologías, dijo Michael Bargury, director de tecnología y cofundador de Zenity, una empresa que ayuda a los equipos de TI a supervisar el uso de las aplicaciones por parte de los usuarios empresariales que podrían crear riesgos para la seguridad de los datos. Dijo que pueden producirse violaciones de la privacidad de los datos si personas no expertas conectan conjuntos de datos que no deberían estar vinculados y los utilizan para entrenar modelos sin que haya salvaguardias.


"La parte empresarial quiere acelerar el código bajo/sin código y la TI, y la seguridad siente que está perdiendo el control", dijo Bargury.


Algunos profesionales de la IA desconfían de una avalancha de IA realizada por personas que no conocen los procesos estándar de depuración ni las pruebas de control de calidad y fiabilidad. Les preocupa que las personas que no están formadas en los matices del funcionamiento del aprendizaje automático puedan desencadenar involuntariamente una IA que tome decisiones discriminatorias. Y hay quienes sostienen que las herramientas de IA de bajo y nulo código no producen el nivel de detalle necesario para explicar cómo deciden esos modelos en primer lugar.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social