3 PRINCIPIOS QUE LOS LÍDERES DEBEN CONOCER SOBRE LA INTELIGENCIA ARTIFICIAL ÉTICA

https://www.bbntimes.com/companies/3-tenets-leaders-should-know-about-ethical-artificial-intelligence

Es importante una hoja de ruta para confiar en la inteligencia artificial (IA). La falta de confianza es la razón por la que muchas empresas no han adoptado la IA en sus marcos empresariales. El miedo a lo desconocido es profundo -tal como lo sentí en Vatnajökull- y lo desconocido detrás de la tecnología es a menudo inmenso, repleto de posibilidades aterradoras. Sin embargo, cuando nos enfrentamos al cambio, nuestros puntos de vista tienen el potencial de ampliarse, inspirándonos a ser más compasivos y con visión de futuro. Esto, para mí, ha marcado el avance de la humanidad a lo largo de la historia.


Las posibilidades de que la IA mejore nuestras vidas son infinitas, especialmente si estamos abiertos a crear un impacto. Podemos confiar en la IA tanto como en nosotros mismos. Tenemos el privilegio de hacer una tecnología que refleje lo mejor de nuestra humanidad. El próximo siglo verá avances tecnológicos aún más acelerados, algunos que aún no hemos descubierto y otros que ya están en marcha, como una mayor conectividad y el impacto expansivo de los grandes datos.


En pocas palabras: La IA es el futuro, y el futuro no va a esperar. Por eso, crear una IA sólida, justa y ética es una prioridad para los líderes tecnológicos. Veo el camino hacia la IA ética construido sobre tres principios básicos.


1. Saber cuándo confiar en los datos

Trust_in_Data.jpg


Fuente: IBM



La confiabilidad y la gobernabilidad de la IA se encuentran entre las cuestiones más críticas para garantizar que la IA sea sostenible y se centre en ser humana. Esta última (IA humana) parece probablemente más difícil de definir. ¿Cómo consigue una máquina ser humana? Aunque la IA no puede competir con el funcionamiento de la mente humana (incluso si puede superar la inteligencia humana) ni con nuestro mundo emocional, su capacidad de recurrir a una gran cantidad de información para formar conexiones es inigualable. Su objetivo no es competir con la inteligencia humana, sino simplemente aumentarla. Pero, como en todo, los sesgos son posibles. Los datos inexactos, la creación deficiente y la ejecución de los procesos de IA dan lugar a resultados no deseados. Y con esos resultados no deseados, hay una cuestión de ética.

*** Translated with www.DeepL.com/Translator (free version) ***


Comentarios

Popular

Es hora de que la IA se explique

Ann Cavoukian explica por qué la vigilancia invasiva no debería ser la norma en los entornos urbanos modernos y sostenibles

Gemelos digitales, cerebros virtuales y los peligros del lenguaje