Cómo las imperfecciones sociales impulsan el sesgo en la inteligencia artificial

https://tribune.com.pk/story/2289098/how-societal-imperfections-drive-bias-in-artificial-intelligence

A medida que la inteligencia artificial (IA) gana más sofisticación, se vuelve cada vez más difícil detectar y abordar sus sesgos inherentes. Esto se debe principalmente a la naturaleza autónoma de los sistemas emergentes de aprendizaje automático. La próxima generación de programas inteligentes está diseñada para desarrollar sus conocimientos sin depender de la experiencia humana o de un conjunto de conjuntos de datos seleccionados. De hecho, la próxima ola de software impulsado por IA es capaz de adaptarse a medida que interactúa con sus entornos y se apresura a anular lo que se aprendió inicialmente. De esa manera, la principal desviación del pasado es que su conocimiento se mejora constantemente para adaptarse a su entorno.


En términos específicos, los algoritmos inteligentes, como el aprendizaje por refuerzo, permiten que una computadora modifique continuamente su comportamiento en función de interacciones externas. Su competencia clave radica en monitorear su propio desempeño y aplicar correcciones cuando comete errores. De esa manera, y con el tiempo, se desvincula completamente de sus aprendizajes originales que generalmente se basan en entrenamientos en instancias equilibradas. Por lo tanto, incluso si la entrada inicial fue perfecta y los desarrolladores habían codificado las mejores prácticas éticas, estas reglas podrían anularse con el tiempo si no se cumplen. Por lo tanto, para una máquina que interactúa dinámicamente con su entorno, existe el riesgo de que las fallas en nuestro entorno, como nuestros sesgos inconscientes, puedan infiltrarse en ella y, en última instancia, influir en sus procesos lógicos.


La presencia de sesgo tiene importantes desventajas, sin embargo, también se considera parte integral del desarrollo de la inteligencia humana y de la máquina. Su función principal es abordar los conflictos en presencia de creencias y narrativas en competencia y, a menudo, opuestas. Dentro de las personas, la tendencia a poseer simultáneamente opiniones contradictorias se conoce como disonancia cognitiva y su presencia continua podría ser inquietante. Por lo tanto, a menudo confiamos en lo que se conoce como nuestros sesgos cognitivos para resolver cualquier estancamiento y lograr cierto grado de consonancia. En general, nuestras predisposiciones inconscientes ayudan a priorizar aquellas elecciones que se alinean cómodamente con nuestro conjunto de principios existente. Del mismo modo, los algoritmos inteligentes encuentran con frecuencia una gran cantidad de explicaciones plausibles al evaluar la información. Por lo tanto, estos sistemas utilizan un conjunto de preferencias para superar cualquier punto muerto y proceder con la mejor conclusión disponible. Por lo tanto, la existencia de prejuicios es obligatoria para la inteligencia, ya que ayuda a resolver el estancamiento intelectual.


Aunque el sesgo es un requisito previo vital para la inteligencia, es fundamental asegurarse de que su uso dentro de los programas no viole las condicionalidades legales. Esto es particularmente importante para las empresas, ya que podrían ser consideradas responsables de decisiones incorrectas tomadas por procesos automatizados dentro de su configuración. En general, un enfoque común para minimizar el sesgo del sistema es asegurarse de que la máquina implementada esté entrenada en un conjunto de datos bien representado. Sin embargo, el principal desafío de confiar únicamente en este enfoque es que a medida que el entorno externo cambia inevitablemente, las generalizaciones almacenadas comienzan a volverse obsoletas. Como resultado, los algoritmos de aprendizaje sobrescribirán rápidamente los conocimientos originales con los últimos descubrimientos. En entornos tan dinámicos, por tanto, las organizaciones tendrán que ir más allá de la mera fijación de instancias de formación inicial para minimizar los defectos racionales.

Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje