Hacer medible: lo que Galileo no dijo sobre la subjetividad de los algoritmos
El aforismo de Galileo "Mide lo que puede ser medido, y haz medible lo que no puede serlo" resuena en casi todos los sistemas algorítmicos actuales. Pero en estos ecos resuena la realidad de que el acto de "hacer" algo medible nunca es puramente objetivo: es el resultado de decisiones subjetivas. Reconocer esto es clave para prevenir los daños que pueden crear los algoritmos.
Es aparentemente intuitivo pensar que los "datos" sobre una cosa son una representación real de la misma. Por ejemplo, mi altura es de 1,70 metros y Londres es la capital del Reino Unido, dos datos que reflejan la realidad. Pero el reputado estadístico David Spiegelhalter nos recuerda que los datos "son casi siempre una medida imperfecta de lo que nos interesa". Para contar todos los árboles del planeta, señala, hay que definir primero lo que cuenta como árbol. Hay más de una forma de hacerlo, y no todo el mundo estará de acuerdo en cuál es la correcta. Es un buen recordatorio: algunos dirían que yo mido más bien 1,70 m, según cómo se sujete la cinta métrica, y ¿qué pasa con Edimburgo, Gales y Belfast? También son capitales del Reino Unido.
En otras palabras, el proceso de hacer que las cosas sean medibles es un proceso de elección de cómo medirlas. ¿Qué aspectos de un fenómeno deben contarse? ¿Cómo se clasificarán y cuantificarán esos aspectos? ¿Qué métrica se utilizará? ¿Qué cualidades captan y reflejan esas métricas o no? Estas decisiones suelen conducir a un proceso de reducción: la reducción de fenómenos complejos, a menudo cualitativos, a datos numéricos sencillos: un proceso llamado de "dataficación".
El hecho de que los datos no sean un reflejo perfecto del mundo se entiende bien en la ciencia de los datos (todos los modelos son erróneos, pero algunos son útiles). Sin embargo, los datos son la base de muchos de los algoritmos que impregnan y permiten cada vez más nuestra sociedad digital. Los algoritmos toman los productos reductores de la digitalización -productos de decisiones subjetivas sobre cómo hacer algo medible- y los codifican mediante procesos fijos en resultados supuestamente objetivos. No tener en cuenta esta naturaleza reductora de la digitalización es la causa fundamental de muchos daños y fallos de los algoritmos.
Podemos ver cómo esto se manifiesta en dos ejemplos: el rastreo digital de contactos y el llamado reconocimiento de emociones.
Reconocimiento de contactos y rastreo de emociones
En primer lugar, el rastreo digital de contactos. En respuesta a la pandemia de Covid-19, los expertos en salud pública reconocieron rápidamente que el rastreo de contactos sería clave para hacer frente a la propagación del virus. Sin embargo, el rastreo manual de contactos es laborioso y requiere mucho tiempo y recursos humanos. Los gobiernos y las instituciones de salud pública querían un modelo de rastreo de contactos que pudiera ampliarse para hacer frente al reto de Covid. Para conseguirlo, muchos países recurrieron a soluciones digitales.
Comentarios
Publicar un comentario