Consideraciones éticas en todas las etapas del uso de la IA en el periodismo
Desde la información automatizada y el procesamiento de datos hasta la verificación de la información, la presencia de la IA en el mundo del periodismo, y en otros sectores, es cada vez mayor. Sin embargo, la dependencia de la industria de los medios de comunicación de la confianza y la verdad supone una complejidad añadida a la hora de utilizar esta tecnología.
Varios programas integran con éxito la IA en el proceso de elaboración de noticias, desglosando y normalizando los datos de COVID-19. Sin embargo, siguen preocupando las implicaciones éticas del uso de este tipo de software en un sector que maneja información sensible y tiene un alcance social potencialmente amplio.
A pesar de ello, los medios de comunicación no están incluidos como área de aplicación de alto riesgo en el proyecto de Ley de IA de la UE, que adopta un enfoque vertical basado en el riesgo para regular la aplicación de la tecnología, identificando los sectores que se consideran especialmente vulnerables a su mal uso o a sus consecuencias no deseadas.
La UE lanza un proyecto de IA para convertirse en líder mundial
La Comisión Europea ha presentado el miércoles (21 de abril) un "paquete de IA" largamente esperado. La propuesta es el primer intento de regular la IA y se ha elaborado como parte de una ambición más amplia de convertir a Europa en líder mundial en este campo al ser la primera en establecer directrices claras.
La IA en el periodismo tiene ya un amplio alcance en cuanto a las aplicaciones existentes y potenciales. En muchos casos, el trabajo se realiza entre bastidores, automatizando la recogida y el procesamiento de grandes volúmenes de datos, por ejemplo, o utilizando el análisis textual para verificar los hechos o etiquetar los artículos.
Sin embargo, cada vez más, también se está trabajando en componentes más externos del periodismo, incluida la formulación de los propios artículos. Varias redacciones han utilizado la automatización para publicar actualizaciones y redactar artículos sobre asuntos de actualidad, eventos deportivos y listas de propiedades, entre otros temas.
El software no sólo se basa en el texto y se está aplicando a otros medios de comunicación. La empresa Design AI, con sede en Múnich, trabaja con organizaciones de noticias como la Agencia Europea de Prensa y la agencia española de noticias EFE, y ha desarrollado una IA para anotar vídeos, principalmente para archivar secuencias, pero con aplicaciones potenciales en una amplia gama de prácticas tanto dentro como fuera del periodismo.
Cuando se trata de la ética del uso de la IA en los medios de comunicación y de cómo considerarla, hay que diferenciar entre los distintos niveles de desarrollo, dijo a EURACTIV Keesiu Wong, director general y cofundador de DesignAI.
Esto ocurre, en primer lugar, al determinar si la preocupación se aplica a la IA en su conjunto, por ejemplo, cuando se trata de sesgos en los datos, como se ha visto en la aplicación de la tecnología en otros sectores, o si se aplica al uso específico del software en los medios de comunicación. En segundo lugar, se produce cuando se calcula dónde pueden surgir estos problemas dentro del proceso de desarrollo a la aplicación.
"Hay diferentes niveles y lugares en los que pueden producirse comportamientos no éticos no deseados", dijo Wong. "Podría estar en cómo se programa el software -esto sería básicamente nuestra preocupación-, podría estar en cómo se construyeron los datos... y esto es básicamente lo más difícil porque es lo menos obvio. Y también podría estar en cómo se aplica la IA".
Lo que se necesita, por tanto, es un enfoque de "ética por diseño" para crear este tipo de tecnologías. "En realidad se necesitan consideraciones éticas en todas partes: se necesitan mientras se construye o diseña la IA, se necesitan al construir el conjunto de datos, durante el entrenamiento, y se necesitan cuando se aplica".
Cuando se trata del despliegue de este software por parte de las organizaciones de medios de comunicación, surge un nivel adicional de consideraciones, dadas las posibles implicaciones de publicar información que ha sido procesada por tecnologías automatizadas.
Las herramientas de IA pueden ser muy valiosas para los periodistas de investigación, por ejemplo, cuando se trata de cotejar y procesar grandes volúmenes de información, dijo Jonathan Stray, investigador de IA de la Universidad de Berkeley, en su intervención en el Festival de Periodismo e IA de la London School of Economics el jueves 2 de diciembre.
Sin embargo, añadió, antes de que se haga pública cualquier afirmación o acusación basada en esto, "garantizar la exactitud de un proceso, garantizar la supervisión humana de la calidad del producto es uno de los principales retos éticos relevantes para la IA y la producción de historias".
*** Translated with www.DeepL.com/Translator (free version) ***
Comentarios
Publicar un comentario