Entradas

Mostrando las entradas etiquetadas como IA Responsable

Responsabilidad moral artificial: cómo podemos y no podemos responsabilizar a las máquinas

https://www.researchgate.net/publication/352294394_Artificial_Moral_Responsibility_How_We_Can_and_Cannot_Hold_Machines_Responsible A menudo se piensa que nuestra capacidad para localizar la responsabilidad moral es una condición necesaria para llevar a cabo una práctica médica moralmente permisible, participar en una guerra justa y en otras tareas de alto riesgo. Sin embargo, con la creciente dependencia de los sistemas artificialmente inteligentes, podemos estar enfrentándonos a una brecha de responsabilidad cada vez mayor, que, según algunos, no puede ser superada por los conceptos tradicionales de responsabilidad. ¿Cómo podemos entonces, si es que podemos, hacer uso de las tecnologías emergentes cruciales? Según Colin Allen y Wendell Wallach, la llegada de los llamados "agentes morales artificiales" (AMA) es inevitable. Sin embargo, esta noción puede parecer que retrasa el problema, dejando a los que tienen interés en desarrollar tecnología autónoma con un dilema. Es posib...

Investigción en IA Responsable: retos y oportunidades

https://youtu.be/7Ss6J3UBhz0 Excelente intervención de Margaret Mitchell y de Gabrielle Samuel

El conflicto entre el afán de castigo de las personas y los sistemas jurídicos

https://www.frontiersin.org/articles/10.3389/frobt.2021.756242/full La regulación de la inteligencia artificial (IA) se ha hecho necesaria a la luz de su despliegue en escenarios de alto riesgo. Este artículo explora la propuesta de extender la personalidad jurídica a la IA y a los robots, que aún no había sido examinada desde el punto de vista del público en general. Presentamos dos estudios (N = 3.559) para obtener la opinión de la gente sobre la personalidad jurídica electrónica frente a los modelos de responsabilidad existentes. Nuestro estudio revela el deseo de la gente de castigar a los agentes automatizados aunque a estas entidades no se les reconozca ningún estado mental. Además, la gente no cree que el castigo de los agentes automatizados cumpla con la disuasión ni con la retribución y no está dispuesta a concederles condiciones previas de castigo legal, a saber, independencia física y bienes. En conjunto, estos resultados sugieren un conflicto entre el deseo de castigar a lo...

de lo que tenemos que hablar cuando tratamos de IA

https://www.linkedin.com/pulse/what-we-need-talk-when-ai-regulatory-purposes-virginia-dignum/ Más recientemente, la conciencia de que la "IA" tiene el potencial de impactar nuestras vidas y que nuestro mundo no ha tenido ninguna otra tecnología antes, está planteando legítimamente muchas preguntas sobre sus efectos éticos, legales, sociales y económicos. Tanto el gobierno como las empresas y las organizaciones sociales están presentando propuestas y declaraciones de su compromiso con un enfoque responsable, responsable y transparente de la IA, donde los valores humanos y los principios éticos son los líderes. Este es un desarrollo muy necesario, al que he dedicado mis esfuerzos e investigación en los últimos años. Pero, el desarrollo y uso responsable de la IA comienza con una narrativa de IA adecuada, una que desmitifica las posibilidades y los procesos de las tecnologías de IA, y que permite a todos participar en la discusión sobre el papel de la IA en la sociedad.