Cuando las corporaciones usan la inteligencia artificial para violar la ley

 Los algoritmos pronto pueden reemplazar a los empleados como la principal causa de daño corporativo. Durante siglos, la ley ha definido la mala conducta empresarial, desde la discriminación civil hasta el tráfico de información privilegiada, en términos de mala conducta de los empleados. Hoy, sin embargo, los avances en inteligencia artificial y big data permiten que los sistemas automatizados tomen muchas decisiones corporativas, por ejemplo, quién obtiene un préstamo o qué acciones comprar. Estas tecnologías introducen valiosas eficiencias, pero no eliminan (o incluso reducen siempre) la incidencia de daños corporativos. A menos que la ley se adapte, las corporaciones serán cada vez más inmunes a la responsabilidad civil y penal a medida que transfieran la responsabilidad de los empleados a los algoritmos.

Este artículo es el primero en abordar toda la extensión de la creciente brecha doctrinal que deja la mala conducta corporativa algorítmica. Para responsabilizar a las empresas, la ley a veces debe tratarlas como si "conocieran" la información almacenada en sus servidores y "pretendieran" las decisiones tomadas por sus sistemas automatizados. La ciencia cognitiva y la filosofía de la mente ofrecen un camino a seguir. La “tesis de la mente extendida” complica los puntos de vista tradicionales sobre los límites físicos de la mente. La tesis establece que la mente abarca cualquier sistema que ayude suficientemente al pensamiento, p. Ej. facilitando el recuerdo o mejorando la toma de decisiones. Para las personas naturales, la tesis implica que las mentes pueden extenderse más allá del cerebro para incluir ayudas cognitivas externas, como agendas y calculadoras. Este artículo adapta la tesis al derecho corporativo. Motiva y propone un marco doctrinal para extender la mente corporativa a los algoritmos que son cada vez más integrales al pensamiento corporativo. La ley necesita tal innovación si quiere que las corporaciones futuras rindan cuentas por sus daños más graves.

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3422429

Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).

Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social