Los expertos creen que la confianza del público en la tecnología está al filo de la navaja

https://en.brinkwire.com/finance/public-trust-regulation-and-killer-robots-why-2021-is-going-to-be-an-important-year-for-the-ai-debate/

FOMENTAR LA CONFIANZA DEL PÚBLICO en la inteligencia artificial es algo que preocupa enormemente a sus defensores, y con razón.


En la memoria reciente, pocas tecnologías han despertado tanta sospecha pública. Los debates en torno a la inteligencia artificial con frecuencia plantean cuestiones de privacidad, seguridad y, principalmente, si los robots vienen a robarle el trabajo o a cortarlo en un automóvil automatizado.


"No voy a decir que no debas preocuparte por la IA", dice Patricia Scanlon, directora ejecutiva de SoapBox Labs, con sede en Dublín. "Creo que es cierto que hay cuestiones de las que preocuparse".


La empresa de Scanlon forma parte de una pequeña pero creciente cohorte de empresas irlandesas en la primera línea del fenómeno de la IA.


En pocas palabras, SoapBox utiliza IA para desarrollar productos de reconocimiento de voz para niños, que otorga licencias a empresas de tecnología educativa (EdTech), empresas de juguetes y el sector del entretenimiento.


Entonces, para Scanlon, gran parte de la preocupación por la inteligencia artificial proviene de la confusión sobre qué es exactamente la tecnología y cómo se usa. Ella cree que los riesgos asociados con la tecnología relativamente nueva deben calcularse y evaluarse dentro de las industrias individuales.


Podemos esperar algunos avances en esta dirección en 2021, que se perfila como un año importante para el debate sobre la IA.


Tres años después de su adopción, la Unión Europea llevará a cabo su primera revisión de su Plan Coordinado sobre Inteligencia Artificial; un programa destinado a aumentar la inversión y fomentar el desarrollo de la tecnología en todo el bloque.


También en 2021, la UE publicará la tan esperada legislación sobre la regulación de la IA, que los expertos de la industria serán la clave para aumentar la confianza pública en la tecnología.


“Creo que de eso se trata parte del marco de la UE: clasificar la IA y qué [usos] son ​​más riesgosos. La conducción autónoma es la clásica en la que todos podemos comprender los problemas de seguridad que la rodean.


"Pero eso no significa que no deba hacerse", dice. "Debería estar regulado".


Mistificación


Saber de qué estamos hablando cuando hablamos de IA es a veces difícil. Esto no ha ayudado a la sensación de confusión en torno a la tecnología, dice Cormac O’Neill, director ejecutivo de Webio.


Él cree que ha habido demasiado entusiasmo en torno a la IA, "como cualquier forma de nueva tecnología", dice, "en términos de lo que puede y no puede lograr" en la actualidad.


O'Neill es el director ejecutivo de Webio, una empresa de Dublín que utiliza el aprendizaje automático para desarrollar herramientas que utilizan las empresas para hablar con sus clientes.


"Estamos completamente enfocados en las conversaciones sobre el área de cobros de pagos de crédito", explica.


Los sistemas de Webio analizan los datos de las conversaciones entre la empresa y sus clientes “para tratar de ayudar a que esas conversaciones funcionen de manera más eficaz y eficiente no solo para la empresa, quién es nuestro cliente, el que servimos, sino también para sus clientes; una persona que puede tener dificultades económicas ".


Entonces, para O'Neill, la inteligencia artificial no es solo chatbots y procedimientos comerciales automatizados.


“Creo que hay algunas personas que confunden las cosas cotidianas y ordinarias con IA. De hecho, en realidad no lo es. Cosas como simples chatbots automatizados, en mi opinión, no son IA. Creo que la IA va mucho más allá ”, dice.


Scanlon dice que en realidad hay tres tipos de IA.


Lo que O'Neill se refiere a "cosas ordinarias y cotidianas", describe Scanlon son sistemas basados ​​en reglas: "algo que está bastante codificado y a lo que la gente simplemente está aplicando reglas", como el chatbot de servicio al cliente promedio.


"Y luego tienes otra forma de IA, que yo llamaría 'IA aplicada", explica. "Ahí es donde puede tomar datos disponibles públicamente y tal vez pueda usar los servicios de inteligencia artificial de otra persona para generar su modelo o sus conocimientos y usarlos en su negocio y venderlos".


Y luego está el uso más fundamental de la IA, que es lo que están haciendo empresas como Soapbox y Webio.


Tuvimos que recopilar nuestros propios datos; tuvimos que construir nuestra propia tecnología. Todo es propietario. No usamos Microsoft; no usamos Google, la tecnología de nadie más ... Tuvimos que construir esa infraestructura nosotros mismos y nuestra IA se encuentra detrás de eso. Tenemos que enseñarle cómo hablan los niños y cómo responder.

“Se trata de construir desde cero”, explica Scanlon.

Comentarios

Popular

Herramientas de Evaluación de Sistemas Algorítmicos

Sistemas multiagentes: Desafíos técnicos y éticos del funcionamiento en un grupo mixto

Controversias éticas en torno a la privacidad, la confidencialidad y el anonimato en investigación social