Entradas

Mostrando entradas de enero, 2021

Por qué cobrar por sus datos es un mal negocio

 Una mala idea de privacidad que no morirá es el llamado "dividendo de datos", que imagina un mundo en el que las empresas tienen que pagarle para usar sus datos. ¿Suena demasiado bueno para ser verdad? Es. Seamos claros: que te paguen por tus datos (probablemente no más de un puñado de dólares como máximo) no solucionará el problema actual de la privacidad. Sí, un dividendo de datos puede sonar a primera vista como una forma de obtener algo de dinero extra y destinarlo a las empresas de tecnología. Pero esa línea de pensamiento está equivocada y se desmorona rápidamente cuando se aplica a la realidad actual de la privacidad. En realidad, el esquema de dividendos de datos perjudica a los consumidores, beneficia a las empresas y enmarca la privacidad como una mercancía más que como un derecho. https://www.eff.org/it/deeplinks/2020/10/why-getting-paid-your-data-bad-deal

Escala de amenazas de la inteligencia artificial (TAI)

 En los últimos años, la Inteligencia Artificial (IA) ha ganado mucha popularidad, tanto entre la comunidad científica como entre el público. A menudo, a la IA se le atribuyen muchos impactos positivos para diferentes dominios sociales, como la medicina y la economía. Por otro lado, también existe una creciente preocupación por su precario impacto en la sociedad y las personas, respectivamente. Varias encuestas de opinión cuestionan con frecuencia el miedo del público a los robots autónomos y la inteligencia artificial, un fenómeno que también está siendo objeto de atención académica. Dado que las percepciones de amenazas potenciales posiblemente varían con respecto al alcance y las consecuencias de las funcionalidades de la inteligencia artificial y el dominio de aplicación, la investigación aún carece de la precisión necesaria de una medición respectiva que permita una aplicabilidad de investigación amplia. Proponemos una escala detallada para medir las percepciones de amenazas de la

El golpe del que no estamos hablando Podemos tener democracia o podemos tener una sociedad de vigilancia, pero no podemos tener ambas.

 Hace dos décadas, el gobierno estadounidense dejó abierta la puerta principal de la democracia a las incipientes empresas de Internet de California, con una acogedora chimenea encendida como bienvenida. En los años que siguieron, floreció una sociedad de vigilancia en esas habitaciones, una visión social nacida de las necesidades distintas pero recíprocas de las agencias de inteligencia pública y las empresas privadas de Internet, ambas hechizadas por un sueño de conciencia total de la información. Veinte años después, el fuego saltó la pantalla y el 6 de enero amenazó con incendiar la casa de la democracia. He pasado exactamente 42 años estudiando el auge de lo digital como fuerza económica que impulsa nuestra transformación en una civilización de la información. Durante las últimas dos décadas, he observado las consecuencias de esta sorprendente fraternidad político-económica a medida que esas empresas jóvenes se transformaron en imperios de vigilancia impulsados ​​por arquitecturas

Todo en uno Los derechos humanos, la salud, el estado de derecho: ¿por qué estos conceptos se inflan al estatus de religiones seculares totalizadoras?

 Como han enfatizado filósofos políticos como Jürgen Habermas y John Rawls, una democracia floreciente tiene una cultura sólida de razón pública, en la que todos los ciudadanos pueden participar como iguales en la deliberación colectiva y la toma de decisiones sobre el bien común de la sociedad. En los últimos años, hemos escuchado mucho sobre nuevas y terribles amenazas a la calidad de nuestra razón pública, como el auge del autoritarismo populista, la creación de 'burbujas de filtro' y 'cámaras de eco' en las redes sociales que agravan la polarización política, o la difusión en línea de opiniones extremistas y "noticias falsas" por parte de bots automatizados y otros agentes malignos. Pero otro tipo de amenaza a la calidad de la razón pública tiende a pasar desapercibida. Se trata de la degradación de las ideas centrales movilizadas en ejercicios de razón pública, sobre todo en las declaraciones de actores de élite, como burócratas, abogados, políticos y rep

La auditoría de algoritmos: puntuación de algoritmos que nos puntúan

 En los últimos años, el impacto ético de la IA se ha analizado cada vez más, y han surgido escándalos públicos por resultados sesgados, falta de transparencia y uso indebido de datos. Esto ha llevado a una creciente desconfianza en la IA y a un aumento de las llamadas a auditorías éticas de algoritmos. Las propuestas actuales para la evaluación ética de los algoritmos son de un nivel demasiado alto para ponerlas en práctica sin más orientación, o se centran en nociones muy específicas y técnicas de equidad o transparencia que no consideran a las múltiples partes interesadas ni al contexto social más amplio. En este artículo, presentamos un marco de auditoría para guiar la evaluación ética de un algoritmo. El instrumento de auditoría en sí se compone de tres elementos: una lista de posibles intereses de las partes interesadas afectadas por el algoritmo, una evaluación de métricas que describen características clave éticamente sobresalientes del algoritmo y una matriz de relevancia que

La transformación del trabajo

El futuro del trabajo es una preocupación constante para los trabajadores en una economía globalizada caracterizada por una financiación suelta, cadenas de suministro volubles y, sobre todo, mercados laborales "flexibles". Cada vez menos trabajadores disfrutan de contratos laborales regulares, con derechos sociales asociados, y el riesgo se desplaza cada vez más hacia el trabajo por el aumento del empleo a corto plazo y de cero horas y el autoempleo teórico a instancias de los contratistas de plataformas. Nuestro socio de proyecto Se ha propuesto que estos cambios tienen una lógica puramente económica: reemplazar la "mano muerta" del estado por la "mano invisible" del mercado. Sin embargo, lo que realmente ha estado en juego es un cambio de décadas en el equilibrio del poder social y político hacia el capital, que revierta las ganancias para el trabajo en Europa occidental y América del Norte derivadas del acuerdo de posguerra. Esta erosión constante de la

REPORTE sobre inteligencia artificial: cuestiones de interpretación y aplicación del derecho internacional en la medida en que la UE se ve afectada en los ámbitos de los usos civiles y militares y de la autoridad estatal fuera del ámbito de la justicia penal

https://www.europarl.europa.eu/doceo/document/A-9-2021-0001_EN.pdf

Privacidad y ética digital después de la pandemia

 La pandemia de coronavirus ha cambiado permanentemente nuestra relación con la tecnología, acelerando el impulso hacia la digitalización. Si bien este cambio ha traído ventajas, como mayores oportunidades de trabajar desde casa e innovaciones en el comercio electrónico, también ha ido acompañado de importantes inconvenientes, que incluyen un aumento de la desigualdad y dinámicas de poder indeseables. Crédito: YAY Media AS / Alamy Vector de stock Las asimetrías de poder en la era digital han sido una preocupación desde que la gran tecnología se hizo grande. Los tecnófilos a menudo han argumentado que si los usuarios no están contentos con los servicios en línea, siempre pueden optar por no participar. Pero optar por no participar no se ha sentido como una alternativa significativa durante años por al menos dos razones. Primero, el costo de no usar ciertos servicios puede representar una desventaja competitiva, desde no ver un anuncio de trabajo hasta no tener acceso a herramientas útil

No permita que la policía use la insurrección para justificar la vigilancia

 En medio de una creciente alarma sobre el poder de la gran tecnología, un número sin precedentes de personas está haciendo la transición a plataformas encriptadas como Signal, Telegram y ProtonMail. Pero en el mismo momento en que las plataformas cifradas ocupan un lugar central en nuestras vidas digitales, se enfrentan a una amenaza existencial. Organizaciones como el Centro para la Democracia y la Tecnología advierten que "hay una presión ... creciente" para que las empresas proporcionen a las fuerzas del orden acceso a información cifrada. La policía nunca deja que una buena crisis se desperdicie, incluso cuando contribuyen a que se forme. Con los estadounidenses indignados de que los insurrectos pudieran apoderarse de nuestro Capitolio, las fuerzas del orden se han apresurado a cabildear, una vez más, para ampliar los poderes de vigilancia. Pero como aprendimos por las malas después del 11 de septiembre, el miedo es una mala guía para tomar decisiones políticas complejas

La aplicación Radar COVID no ha tenido éxito. Creo que se están buscando los motivos en el sitio equivocado

  Las apps de rastreo que se crearon para el COVID-19, como la  Radar Covid  del gobierno español, no han tenido la relevancia que se esperaba. Debo confesar que nunca fui muy optimista, especialmente si se trataba de sus posibilidades en España. Dudo también que, incluso funcionando, hubiera merecido la pena frente al coste que ha implicado. No me refiero al económico, sino al precedente que ha supuesto de vigilancia masiva de la población, pero esa es otra historia… En cualquier caso, no escribo esto para apuntarme el tanto a toro pasado al decir que ya lo sabía, sino para intentar explicar el motivo que creo que hay detrás de ello. https://inicios.es/2021/la-aplicacion-radar-covid-no-ha-tenido-exito-quizas-se-busque-el-motivo-en-el-lugar-equivocado/

Reglas de IA: lo que quiere el Parlamento Europeo

La inteligencia artificial (IA) es una parte importante de la transformación digital. De hecho, es difícil imaginar la vida sin el uso de IA en muchos bienes y servicios, y está destinado a traer más cambios en el lugar de trabajo, negocios, finanzas, salud, seguridad, agricultura y otros campos. La IA también será crucial para el acuerdo verde de la UE y la recuperación de Covid-19. La UE está preparando actualmente su primer conjunto de normas para gestionar las oportunidades y amenazas de la IA, centrándose en generar confianza en la IA, incluida la gestión de su impacto potencial en las personas, la sociedad y la economía. Las nuevas normas también tienen como objetivo proporcionar un entorno en el que los investigadores, desarrolladores y empresas europeos puedan prosperar. La Comisión Europea quiere impulsar la inversión pública y privada en tecnologías de IA a 20.000 millones de euros al año.   https://www.europarl.europa.eu/news/en/headlines/priorities/artificial-intelligence-i

Introducción a la ética en el uso de la IA en la guerra: Parte 1

 Los avances en la IA se han extendido al uso en aplicaciones de defensa y, con razón, hay muchas preocupaciones éticas que plantea. Si bien hay muchos documentos detallados disponibles que hablan sobre áreas específicas de preocupación en el uso de IA en aplicaciones de guerra, me gustaría brindar aquí una descripción general de esos problemas y hablar sobre algunas ideas básicas que lo ayudarán a discutir y abordar problemas en el espacio de una manera más informada. https://www.linkedin.com/pulse/introduction-ethics-use-ai-war-part-1-abhishek-gupta/

Gartner: el futuro de la IA no es tan optimista como algunos podrían pensar

 El informe aborda cinco predicciones diferentes para el mercado de la IA y ofrece recomendaciones sobre cómo las empresas pueden abordar esos desafíos y adaptarse al futuro: Para 2025, los modelos de IA previamente entrenados se concentrarán en gran medida entre el 1% de los proveedores, lo que hará que el uso responsable de la IA sea una preocupación social. En 2023, el 20% de los ataques de adquisición de cuentas exitosos utilizarán deepfakes como parte de los ataques de ingeniería social. Para 2024, el 60% de los proveedores de inteligencia artificial incluirán la mitigación de daños / uso indebido como parte de su software. Para 2025, el 10% de los gobiernos evitarán las preocupaciones por la privacidad y la seguridad mediante el uso de poblaciones sintéticas para capacitar a la IA Para el 2025, el 75% de las conversaciones en el lugar de trabajo se grabarán y analizarán para su uso en la adición de valor organizacional y la evaluación de riesgos. https://www.techrepublic.com/arti

Victoria histórica para la privacidad cuando la aplicación de citas recibe una multa gigantesca

 Hoy, la Autoridad Noruega de Protección de Datos emitió una notificación anticipada de una multa de 100 millones de NOK (9 600000 €) a la aplicación de citas Grindr, como resultado de una queja legal presentada por el Consejo de Consumidores de Noruega. https://www.forbrukerradet.no/news-in-english/historic-victory-for-privacy-as-dating-app-receives-gigantic-fine/

El riesgo de automatización de los aprendizajes

 El riesgo de automatización es una consideración importante para los jóvenes, ya que experimentarán muchos más años en el mercado laboral que los trabajadores mayores. Además, un estudio reciente de la Oficina de Estadísticas Nacionales encontró que es más probable que los jóvenes ocupen roles afectados por la automatización del trabajo. De las personas de 20 a 24 años que están empleadas, la ONS estimó que el 15,7% estaban en puestos de alto riesgo de automatización, en comparación con solo el 1,3% de los trabajadores de 35 a 39 años. https://www.nesta.org.uk/data-visualisation-and-interactive/automation-risk-apprenticeships/

Oculto a la vista: las infraestructuras que apoyan la inteligencia artificial

 La joya de la corona de la economía de los intangibles, la IA necesita infraestructuras electrónicas expansivas que tengan impactos y costes tangibles. Las estimaciones sugieren que "la huella de carbono de entrenar una sola IA es de hasta 284 toneladas de dióxido de carbono equivalente", cinco veces las emisiones de por vida de un automóvil promedio. Si optamos por explotar el “petróleo del siglo XXI”, tendremos que construir grandes centros computacionales poderosos y granjas de servidores considerables. La inteligencia artificial requiere redes y infraestructuras en la nube para capturar, analizar, compartir y archivar grandes cantidades de datos. Cuando se involucran técnicas de aprendizaje profundo, el entrenamiento es un paso clave que consiste en alimentar el algoritmo con conjuntos de datos grandes y en su mayoría no estructurados. El entrenamiento de una sola aplicación basada en IA puede dividirse en decenas de chips y puede requerir meses para completarse. Aunque

Examinando la caja negra: herramientas para evaluar sistemas algorítmicos

 Descripción general: el artículo aclara cómo puede ser la evaluación en sistemas algorítmicos, incluido cuándo se llevan a cabo las actividades de evaluación, quién debe participar, las piezas que se evalúan y la madurez de las técnicas. También explica los términos clave utilizados en el campo e identifica las lagunas en los métodos actuales en lo que respecta a los factores mencionados anteriormente. https://montrealethics.ai/examining-the-black-box-tools-for-assessing-algorithmic-systems-research-summary/

Center for Applied Data Ethics sugiere tratar la IA como una burocracia

 Un artículo reciente del Center for Applied Data Ethics (CADE) de la Universidad de San Francisco insta a los profesionales de la IA a adoptar términos de la antropología al revisar el rendimiento de grandes modelos de aprendizaje automático. La investigación sugiere usar esta terminología para interrogar y analizar la burocracia, los estados y las estructuras de poder con el fin de evaluar críticamente el desempeño de los grandes modelos de aprendizaje automático con el potencial de dañar a las personas. “Este documento centra el poder como uno de los factores que los diseñadores deben identificar y con los que deben luchar, junto con las conversaciones en curso sobre sesgos en los datos y el código, para comprender por qué los sistemas algorítmicos tienden a volverse inexactos, absurdos, dañinos y opresivos. Este documento enmarca los sistemas algorítmicos masivos que dañan a los grupos marginados como funcionalmente similares a estados administrativos masivos y en expansión que Jam

Prematuro Elogio de la Privacodad

 Reseña del libro Elogio de la Privacidad. MUY A MENUDO, un pensador crítico sólido y un escritor excelente hace las preguntas equivocadas sobre un tema tan complicado como la privacidad y luego saca las conclusiones equivocadas. Este es el caso de Firmin DeBrabander en Life After Privacy: Reclaiming Democracy in a Surveillance Society. Profesor de Filosofía en el Maryland Institute College of Art, DeBrabander tiene el don de expresar claramente ideas complejas y explicar por qué los momentos subestimados en la historia de las ideas tienen relevancia contemporánea. En este libro, su objetivo es "comprender las perspectivas y el futuro de la democracia sin privacidad, o muy poca de ella". Ese intento lo lleva necesariamente a menospreciar la privacidad y a defender una democracia severamente debilitada. Sin duda, DeBrabander no descarta la privacidad con ningún tipo de entusiasmo. Por el contrario, ama su privacidad, presentándose a sí mismo como alguien que tiene que bloquear

¿Reducción de la investigación de la IA?

 La inteligencia artificial (IA) está siendo aclamada como el último ejemplo de una tecnología de uso general que podría transformar la productividad y ayudar a abordar importantes desafíos sociales. Sin embargo, este resultado no está garantizado: un enfoque miope en los beneficios a corto plazo podría encerrar a la IA en tecnologías que resulten ser subóptimas a largo plazo. Por esta razón, puede ser valioso preservar la diversidad en las trayectorias de la IA que se exploran hasta que haya más información sobre sus méritos y peligros relativos. Las controversias recientes sobre el dominio de los métodos de aprendizaje profundo y los laboratorios privados en la investigación de inteligencia artificial sugieren que el campo puede ser cada vez más limitado, pero falta la base de evidencia. Buscamos abordar esta brecha con un análisis de la diversidad temática de la investigación de IA en arXiv, un sitio de preimpresiones ampliamente utilizado. Habiendo identificado 110,000 artículos de

"Es una realidad": Google amenaza con detener la búsqueda en Australia debido al código de los medios

 La amenaza de Google de cortar la búsqueda a los usuarios australianos y alejarse de los $ 4 mil millones en ingresos ha provocado advertencias de que los gigantes digitales no están engañando las leyes diseñadas para obligarlos a pagar por las noticias. La directora general local del gigante de las búsquedas de 1,8 billones de dólares, Melanie Silva, dijo en una audiencia del comité del Senado el viernes que Google cerraría la búsqueda en Australia si el código de negociación de medios propuesto por el gobierno se convierte en ley. Los expertos dijeron que la amenaza no es inactiva, y que Google probablemente teme que el código pueda sentar un precedente global. El primer ministro Scott Morrison dijo que Australia no respondería a las amenazas, ya que las empresas de medios de comunicación respondieron a las sugerencias de que su contenido no agregaba valor a las plataformas. “Australia establece nuestras reglas para las cosas que puede hacer en Australia. Eso se hace en nuestro Parl

'Inteligencia' artificial: sistema de desempleo negó reclamos legítimos de COVID-19

 La avalancha de solicitudes de beneficios por desempleo relacionadas con el coronavirus provocó que el 50% de los sitios web de las agencias estatales de desempleo del país colapsaran. Los millones de reclamaciones legítimas y fraudulentas abrumaron los sistemas informáticos utilizados por la mayoría de los estados para administrar las prestaciones por desempleo. Michigan no fue una excepción, ya que la Agencia de Seguro de Desempleo (UIA) del estado informó que un gran volumen de reclamos presentados bloqueó temporalmente su sitio web y provocó líneas telefónicas atascadas que impidieron que algunos reclamantes pudieran comunicarse durante semanas. La tasa de desempleo ajustada estacionalmente de Michigan avanzó en ocho décimas de punto porcentual hasta el 6,9% en noviembre El controvertido sistema informático MiDAS (Michigan Integrated Data Automated System) de la UIA marcó más de 540.000 (de 1,7 millones) reclamaciones como posiblemente fraudulentas, y dio el paso de congelar las c

La ética de la tecnología de reconocimiento facial

 Esta es una presentación completa de los principales problemas éticos en los debates sobre la tecnología de reconocimiento facial. Después de definir los términos básicos (detección facial, caracterización facial, verificación facial e identificación facial), se discuten los siguientes temas: estándares, medidas y daños distribuidos desproporcionadamente; erosión de la confianza; daños éticos asociados con una perfecta vigilancia facial; alienación, deshumanización y pérdida de control; y el debate de la pendiente resbaladiza. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3762185

Cómo la inteligencia artificial explicable puede ayudar a los humanos a innovar

 El campo de la inteligencia artificial (IA) ha creado computadoras que pueden conducir automóviles, sintetizar compuestos químicos, doblar proteínas y detectar partículas de alta energía a un nivel sobrehumano. Sin embargo, estos algoritmos de IA no pueden explicar los procesos de pensamiento detrás de sus decisiones. Una computadora que domina el plegado de proteínas y también les dice a los investigadores más sobre las reglas de la biología es mucho más útil que una computadora que dobla las proteínas sin explicación. Por lo tanto, los investigadores de IA como yo ahora estamos enfocando nuestros esfuerzos en desarrollar algoritmos de IA que puedan explicarse de una manera que los humanos puedan entender. Si podemos hacer esto, creo que la IA podrá descubrir y enseñar a las personas nuevos hechos sobre el mundo que aún no se han descubierto, lo que conducirá a nuevas innovaciones. Un robot humanoide leyendo un libro. Cuando se deja que las máquinas aprendan y resuelvan problemas a t

La inteligencia artificial es una casa dividida

 El sol brilla en la informática en este momento, especialmente en el subcampo de la inteligencia artificial. No pasa un día sin que la prensa aclame sin aliento algún nuevo milagro de las máquinas inteligentes. Los líderes del campo están galardonados con honores y parecen disfrutar de un estatus que pocos académicos han alcanzado. Cantidades deslumbrantes de dinero se vierten en la IA, y se están forjando nuevos imperios tecnológicos ante nuestros ojos. En 2014, DeepMind, una empresa del Reino Unido aparentemente sin productos, sin clientes, sin tecnología obvia y con solo 50 empleados, fue adquirida por Google por la suma reportada de $ 600 millones; hoy, DeepMind emplea a más de 1,000 personas. Dado todo esto, junto con los tiempos difíciles financieros que han afectado a tantos otros campos, la IA, desde el exterior, debe parecer un barco feliz. De hecho, es difícil imaginar cómo las cosas podrían ser más optimistas. Pero mire un poco más de cerca y verá que no todo está bien en e

La equidad de la IA es un imperativo económico y social. He aquí cómo abordarlo

 Los seres humanos tenemos muchos tipos de prejuicios; confirmación, anclaje y género entre ellos. Tales sesgos pueden llevar a las personas a comportarse de manera injusta y, como tal, como sociedad tratamos de mitigarlos. Esto es especialmente importante cuando los humanos están en la posición de tomar decisiones de alto riesgo que impactan a otros. Lo hacemos a través de una combinación de educación, pautas de conducta y regulaciones. Ahora que la inteligencia artificial (IA) está proporcionando un número creciente de recomendaciones a los tomadores de decisiones humanos, es importante asegurarse de que, como tecnología, no esté sesgada y, por lo tanto, respete el valor de la justicia. De hecho, aquellas iniciativas que tienen como objetivo hacer que la IA sea lo más beneficiosa posible (relacionadas con la ética de la IA) incluyen la equidad de la IA como uno de los principales temas de discusión y trabajo concreto. Es hora de identificar y sugerir una visión más completa de la equ

Actores públicos sin valores públicos: legitimidad, dominación y regulación del sector tecnológico

 La escala y la asimetría del poder de las empresas de tecnología comercial sobre las personas a través de los datos, combinada con la creciente participación del sector privado en la gobernanza pública, significa que cada vez más, las personas no tienen la capacidad de optar por no participar en las empresas de tecnología. Al mismo tiempo, esas empresas están interviniendo cada vez más a nivel de la población de formas que tienen implicaciones para la vida social y política. Esto crea el potencial para las relaciones de poder de dominación y exige que decidamos qué constituye la legitimidad para actuar sobre el público. La ética empresarial y el derecho privado no están diseñados para responder a estas preguntas, que son principalmente políticas. Si las personas han perdido el derecho a desvincularse de las tecnologías comerciales, es posible que debamos hacer que las empresas que las ofrecen cumplan con los mismos estándares que exigimos al sector público. Este artículo primero defin

El DA de Staten Island adquirió discretamente un controvertido software de reconocimiento facial

En 2019, la Oficina del Fiscal de Distrito de Staten Island compró discretamente software de Clearview AI, una controvertida empresa de reconocimiento facial. A diferencia de las herramientas tradicionales de reconocimiento facial, que se basan en bases de datos gubernamentales de fotografías policiales o licencias de conducir, el programa expansivo de Clearview permite a los usuarios buscar posibles coincidencias faciales de más de tres mil millones de fotos extraídas de sitios como Facebook, LinkedIn, Venmo y YouTube. Los usuarios cargan la imagen de una persona de interés y el programa devuelve fotos que se consideran similares con enlaces a los sitios web correspondientes. Según los documentos de la Ley de Libertad de Información obtenidos por Legal Aid Society, los fiscales de Staten Island acordaron un contrato de $ 10,000 por un año para el software de reconocimiento facial Clearview AI en mayo de 2019.Los registros también muestran que la oficina del fiscal del distrito creó pr

¿Quién supervisa los sistemas de inteligencia artificial?

 Después de que el gobierno holandés se derrumbara por el escándalo de las prestaciones para niños la semana pasada, la cuestión del control humano significativo sobre los sistemas de inteligencia artificial es ahora más urgente que nunca. El informático y Master en Ética y Tecnología Scott Robbins (1984) escribió su tesis doctoral sobre aprendizaje automático y contraterrorismo. Concluye que las decisiones que requieren una explicación (por qué dispararon a este hombre, por qué almacenan mis datos, por qué me acusan de fraude) no deben delegarse en máquinas impulsadas por IA. Esta idea fundamental sobre el "control humano significativo" va más allá de la guerra contra el terrorismo. ¿Por qué eligió el contraterrorismo como tema de estudio? “Quería un contexto donde el gol sea bueno. La lucha contra el terrorismo es un objetivo indudablemente bueno. No queremos que los terroristas hagan daño a personas inocentes. Entonces, a partir de este buen objetivo, quería intentar compr

Algoritmos: cómo pueden reducir la competencia y dañar a los consumidores

 El documento identifica los daños potenciales para la competencia y los consumidores derivados del uso de algoritmos, centrándose en aquellos que la Autoridad de Competencia y Mercados (CMA) u otras autoridades nacionales de competencia o de consumo pueden estar en mejores condiciones para abordar. Comunicado de prensa: CMA levanta la tapa sobre el impacto de los algoritmos Estos incluyen daños directos a los consumidores, como la personalización de precios y otros aspectos de la arquitectura de elección en línea. También incluyen daños a la competencia, como el uso de algoritmos para excluir a los competidores (por ejemplo, para facilitar la autopreferencia) y la posibilidad de que los algoritmos faciliten la colusión. El documento también resume las técnicas que podrían usarse para analizar los sistemas algorítmicos y el papel de los reguladores para abordar estos daños. https://www.gov.uk/government/publications/algorithms-how-they-can-reduce-competition-and-harm-consumers

La tecnología de reconocimiento facial no es buena solo porque se usa para arrestar a los neonazis

 En un artículo reciente del New Yorker sobre el asedio al Capitolio, Ronan Farrow describió cómo los investigadores utilizaron una gran cantidad de datos en línea y tecnología de reconocimiento facial para confirmar la identidad de Larry Rendall Brock Jr., un graduado de la Academia de la Fuerza Aérea y veterano de combate de Texas. Brock fue fotografiado dentro del Capitolio portando bridas, presumiblemente para ser utilizadas para sujetar a alguien. (Le dijo a Farrow que simplemente los recogió del piso y se olvidó de ellos. Brock fue arrestado el domingo y acusado de dos cargos). Incluso cuando irrumpieron en el Capitolio, muchos alborotadores se detuvieron para posar para fotos y dar entrevistas emocionadas en vivo. Cada foto subida, mensaje publicado y transmisión compartida creó un torrente de datos para que la policía, los investigadores, los activistas y los periodistas los archivaran y analizaran. Conocido como investigación de código abierto, o OSINT para abreviar, este es u

AUTOMATIZAR LA ÉTICA

La filosofía y la ética de la tecnología tiene una larga tradición. Al rastrear esta historia, podríamos remontarnos hasta los filósofos griegos antiguos y el concepto technê. Alternativamente, podríamos explorar la explicación de Martin Heidegger de la relación entre tecnología y existencia humana (Dasein) como un punto de partida para los enfoques fenomenológicos modernos de las tecnologías de la información y la comunicación. O podríamos comenzar con discusiones y debates contemporáneos en estudios de ciencia y tecnología que cierren la brecha entre filosofía, ética, política, derecho, sociología y, por supuesto, ciencia.1 Independientemente de nuestro punto de partida, tener algún conocimiento de esta rica historia multidisciplinaria es útil para identificar dónde los debates actuales en la ética de la tecnología hacen eco (o “riman” 2) debates anteriores. Por ejemplo, la investigación actual sobre FairML está lidiando con debates de larga data en filosofía política3 y se basa en e

DECLARACIÓN DEL PROF. LUCIANO FLORIDI EN APOYO DEL DERECHO A SABER

 Si piensa que el Derecho a Saber puede ser ejercido por cualquier persona en cualquier momento, considere también que ese derecho a saber viene acompañado de un juicio moral sobre lo que debe saberse. Tenemos la necesidad del derecho a saber porque lo que se debe saber a veces no se sabe. Los políticos, tal vez las empresas, tal vez un grupo de pueblos de todo tipo, deciden que es mejor mantener algo opaco, oculto, desconocido. Por eso está el derecho a saber, para asegurarse de que no suceda. Sin embargo, también hay rincones del mundo que están protegidos por la privacidad o por el interés público. A veces, es necesario dejar algunas cosas sin saber. Lo que hice ayer por la mañana probablemente sea asunto mío, y nadie debería tener derecho a saberlo a menos que la policía o un juez decida que es de interés público. Entonces, el derecho a saber está contrarrestado por un buen sentido de lo que debe ser conocido en una democracia decente, privacidad e interés público. El segundo punto

LLAMADO DE LA SOCIEDAD CIVIL A LA COMISIÓN EUROPEA PARA UNA PROHIBICIÓN DE LA VIGILANCIA DE MASAS BIOMÉTRICA Y LA INTRODUCCIÓN DE LAS LÍNEAS ROJAS SOBRE IA

 El 7 de diciembre de 2020, la Comisión Europea (CE) registró y aprobó una solicitud de Iniciativa Ciudadana Europea (ICE) titulada Reclama tu rostro: Prohibición de la vigilancia masiva biométrica. El 15 de octubre de 2020, los organizadores de Reclaim Your Face, una campaña paneuropea apoyada por 44 organizaciones de la sociedad civil como Access Now, European Digital Rights (EDRi) y Privacy International, enviaron una solicitud de ICE a la Comisión. Esta iniciativa de la sociedad civil pidió a la Comisión Europea que "regule estrictamente el uso de tecnologías biométricas para evitar interferencias indebidas con los derechos fundamentales" y pidió "a la Comisión que prohíba, en la ley y en la práctica, los usos indiscriminados o arbitrarios de la biometría". que puede conducir a una vigilancia masiva ilegal ”. Tras la aprobación del registro de la ECI, el 12 de enero de 2020, EDRi, una de las organizaciones que coordina la campaña con otras 61 organizaciones de l

¿Qué se siente al ser un bot?

 Este capítulo busca desarrollar, definir y diferenciar las relaciones de alteridad técnico-humano dentro de la filosofía posfenomenológica de la tecnología. Un estudio de caso central del asistente digital Alexa establece que los asistentes digitales requieren la adopción de la postura intencional e ilustra que este requisito estructural es diferente de la proyección antropomórfica de la mentalidad en los objetos técnicos. Las relaciones de alteridad humano-técnica basadas en la proyección se diferencian entonces de manera más general de las relaciones de alteridad humano-técnica basadas en contenidos pseudo-mentales codificados reales, donde hay cuestiones de hecho que corresponden directamente a conceptualizaciones del usuario de "intenciones" o sistemas u objetos. Finalmente, se exploran las funciones y los beneficios del usuario para las diferentes relaciones de alteridad, estableciendo que existe un conjunto significativo de casos donde la proyección de una mente en las

¿Escéptico sobre los datos utilizados para las recomendaciones derivadas de la IA?

 Como ejecutivo senior o CIO, ¿cómo puede asegurarse de que las recomendaciones derivadas de la inteligencia artificial o del aprendizaje automático son razonables y fluyen lógicamente del trabajo del proyecto que se ha realizado? Si bien desea brindar apoyo y alentar el trabajo de su equipo, no desea que lo engañen inadvertidamente y desea confirmar que el equipo de ciencia de datos no se ha engañado a sí mismo. “La calidad de datos superior y un volumen de datos suficientemente rico son esenciales para las recomendaciones de AI / ML de calidad en tiempo real”, dice el Dr. Jim Webber, Científico de Datos en Jefe de Neo4j, un proveedor líder de software de bases de datos de gráficos. Aquí hay algunas preguntas de alto nivel que puede hacerle al equipo sobre los datos. Están diseñados para que todos tengan la seguridad de que las recomendaciones de IA / ML son sólidas y se pueden implementar con confianza aunque usted y todos los demás sepan que no es un experto. Empiece por seleccionar

El nuevo modelo de lenguaje de inteligencia artificial de billones de parámetros de Google es casi 6 veces más grande que GPT-3

 Un trío de investigadores del equipo de Google Brain dio a conocer recientemente la próxima gran novedad en los modelos de lenguaje de IA: un enorme sistema transformador de un billón de parámetros. El siguiente modelo más grande que existe, hasta donde sabemos, es el GPT-3 de OpenAI, que utiliza unos miserables 175 mil millones de parámetros. https://thenextweb.com/neural/2021/01/13/googles-new-trillion-parameter-ai-language-model-is-almost-6-times-bigger-than-gpt-3/

¿Se puede automatizar la equidad con IA? Una mirada más profunda a un debate esencial

 Quiero comenzar con un ejemplo en el que la medición de la equidad descrita en la Parte 1 podría haber evitado resultados casi catastróficos. A menudo hablamos de A.I. Ética en términos de cómo afecta a subgrupos específicos, e incluso entonces, a una persona a la vez. A menudo descuidamos cuán errante y descuidado A.I. afecta a poblaciones enteras, comunidades o incluso la economía, el clima y el ecosistema. O incluso el colapso de la sociedad civil. (artículo siguiente) Ofqual: al igual que el College Board, en el Reino Unido, los exámenes de ingreso a la universidad A-level Level son administrados por Ofqual. Su A.I. la aventura los metió en problemas. Debido a COVID-19, los exámenes no se pudieron realizar en el lugar. En cambio, Ofqual descuidadamente, casi sin sentido, elaboró ​​un algoritmo que mezcló las puntuaciones basándose en parte en las puntuaciones anteriores de cada escuela. Sobre la base de que "el promedio está tan cerca de la parte inferior como de la parte sup