Tres cuestiones (o más) a Stuart Russell
Entrevista a Stuart Russell.
¿Cómo debería un sistema de IA tomar decisiones en un escenario donde se requieren elecciones inmediatas?
En cierto sentido, siempre se requieren elecciones inmediatas. Un robot (o un humano) siempre está haciendo algo, incluso si ese algo es no hacer nada. Supongo que la pregunta es abordar el problema de un robot que actúa sin la oportunidad de pedir permiso u obtener más información sobre las preferencias humanas. En tales casos, existe una compensación entre el costo potencial de la inacción y el costo potencial de hacer lo incorrecto.
Supongamos que el robot está solo en casa, la casa está a punto de verse envuelta en llamas por un incendio forestal y el robot puede salvar los álbumes de fotos familiares o el jerbo de la mascota, pero no ambos. No tiene idea de cuál tiene mayor valor para la familia. Bueno, ¿qué haría alguien?
¿Cómo podemos garantizar que las preferencias se actualicen a medida que la sociedad cambia con el tiempo? ¿La IA cambiará las preferencias de las personas si, p. ¿La solución de IA se considera la norma y la gente tiene miedo de expresar sus propias preferencias?
Los robots siempre aprenderán de los humanos y siempre tendrán como objetivo predecir cómo las personas quieren que sea el futuro, e incluso cómo querrán que sea el futuro, hasta que suceda. No existe una única "solución de IA" en cuanto a cuáles son las preferencias humanas; debería haber ocho mil millones de modelos predictivos.
Creo que se alentará positivamente a las personas a expresar sus preferencias, ya que eso permite que los sistemas de IA sean más útiles y eviten infracciones accidentales. Se supone que la democracia funciona de esta manera, pero solo podemos expresar aproximadamente 0.05 bits de información cada pocos años.
¿Cómo cree que se puede controlar la IA para minimizar el riesgo de sesgo?
Recientemente se ha trabajado mucho en este problema, dentro del subcampo de IA relacionado con la imparcialidad, la responsabilidad y la transparencia. Se discute en Human Compatible (pp.128-130). Creo que tenemos un buen manejo de las posibles definiciones de equidad y de los algoritmos que se ajustan a esas definiciones. Las organizaciones están comenzando a desarrollar prácticas internas para usar estas ideas y es muy probable que surja un consenso sobre los estándares de la industria y posiblemente la legislación.
Hemos progresado menos en la comprensión del contexto más amplio: cómo todo el sistema sociotécnico, del cual el sistema de inteligencia artificial es solo una parte, puede producir resultados sesgados. El próximo libro de Brian Christian, The Alignment Problem: Machine Learning and Human Values, tiene varios buenos ejemplos de esto. Otro buen ejemplo es el trabajo de Obermeyer et al., "Disección de prejuicios raciales en un algoritmo utilizado para administrar la salud de las poblaciones".
Editado por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial y Editor de Actualidad Deep Learning (@forodeeplearn).
Los artículos publicados son incluidos por su estimada relevancia y no expresan necesariamente los puntos de vista del Editor este Blog.
Comentarios
Publicar un comentario