Entradas

Mostrando las entradas etiquetadas como Predicción

¿Cuándo se convierten las predicciones en políticas?

https://www.approximatelycorrect.com/2019/02/13/when-are-predictions-policies/ Ya sea que hable con gerentes de empresas, con los niños de los guiones de Silicon Valley o con académicos experimentados que presentan las aplicaciones comerciales de sus investigaciones, es probable que escuche muchas afirmaciones sobre lo que va a hacer la IA. Las discusiones histéricas sobre la aplicabilidad del aprendizaje automático de la IA comienzan con un recuento sin aliento de los avances en el modelado predictivo (¡un 9X,XX% de precisión en ImageNet!, ¡un 5,XX% de tasa de error de palabras en el reconocimiento del habla!) y luego saltan bruscamente a las profecías de las tecnologías milagrosas que la IA impulsará en un futuro próximo: cirujanos automatizados, asistentes virtuales de nivel humano, desarrollo de robo-software, servicios legales basados en la IA. Este juego de manos elude una cuestión clave: ¿cuándo son suficientes las predicciones precisas para guiar las acciones? A riesgo de pinta...

Si la IA predice tu futuro, ¿sigues siendo libre?

https://www.wired.com/story/algorithmic-prophecies-undermine-free-will/   Carissa Véliz MIENTRAS LEES estas palabras, es probable que haya docenas de algoritmos haciendo predicciones sobre ti. Probablemente fue un algoritmo el que determinó que estarías expuesto a este artículo porque predijo que lo leerías. Las predicciones algorítmicas pueden determinar si consigues un préstamo o un trabajo o un apartamento o un seguro, y mucho más. Estos análisis predictivos están conquistando cada vez más esferas de la vida. Y, sin embargo, nadie te ha pedido permiso para hacer esas predicciones. Ningún organismo gubernamental las supervisa. Nadie le informa sobre las profecías que determinan su destino. Peor aún, una búsqueda en la literatura académica sobre la ética de la predicción muestra que es un campo de conocimiento poco explorado. Como sociedad, no hemos reflexionado sobre las implicaciones éticas de hacer predicciones sobre personas-seres que se supone están dotadas de agencia y libre...

Los algoritmos de vigilancia predictivos son racistas. Necesitan ser desmantelados

La falta de transparencia y los datos de capacitación sesgados significan que estas herramientas no son adecuadas para su propósito. Si no podemos solucionarlos, debemos deshacernos de ellos. La desigualdad y el mal uso del poder policial no solo se desarrollan en las calles o durante los disturbios escolares. Para Milner y otros activistas, la atención se centra ahora en dónde existe el mayor potencial de daños duraderos: herramientas policiales predictivas y el abuso de datos por parte de las fuerzas policiales. Varios estudios han demostrado que estas herramientas perpetúan el racismo sistémico y, sin embargo, todavía sabemos muy poco acerca de cómo funcionan, quién las usa y con qué propósito. Todo esto debe cambiar antes de que pueda llevarse a cabo un ajuste de cuentas adecuado. Afortunadamente, la marea puede estar cambiando. Hay dos tipos generales de herramienta de vigilancia predictiva. Los algoritmos basados ​​en la ubicación se basan en enlaces entre lugares, eventos y tasa...