Entradas

Mostrando las entradas etiquetadas como Futuro de la Humanidad Tecnológica

Sí, estamos asustados": La IA empieza a tener un gran impacto en el mundo real, según un experto

https://www.theguardian.com/technology/2021/oct/29/yeah-were-spooked-ai-starting-to-have-big-real-world-impact-says-expert Un científico autor de un importante libro de texto sobre inteligencia artificial ha declarado que los expertos están "asustados" por su propio éxito en este campo, comparando el avance de la IA con el desarrollo de la bomba atómica. El profesor Stuart Russell, fundador del Centro de Inteligencia Artificial Compatible con el Ser Humano de la Universidad de California en Berkeley, dijo que la mayoría de los expertos creían que este siglo se desarrollarían máquinas más inteligentes que los humanos, y pidió tratados internacionales para regular el desarrollo de la tecnología. "La comunidad de la IA aún no se ha ajustado al hecho de que ahora estamos empezando a tener un impacto realmente grande en el mundo real", dijo a The Guardian. "Durante la mayor parte de la historia de este campo no ha sido así: sólo estábamos en el laboratorio, desarrol...

Más allá del individuo: gobernar el daño social de la IA

https://policyreview.info/articles/analysis/beyond-individual-governing-ais-societal-harm En este artículo, distingo tres tipos de daños que pueden surgir en el contexto de la inteligencia artificial (IA): daños individuales, daños colectivos y daños sociales. El daño social suele pasarse por alto, pero no es reducible a los dos primeros tipos de daño. Además, los mecanismos para hacer frente a los daños individuales y colectivos provocados por la IA no siempre son adecuados para contrarrestar los daños sociales. En consecuencia, el análisis de las lagunas del marco jurídico actual de la IA por parte de los responsables políticos no sólo corre el riesgo de ser incompleto, sino que las propuestas de nueva legislación para colmar estas lagunas también pueden proteger inadecuadamente los intereses de la sociedad que se ven perjudicados por la IA. Al conceptualizar el daño social de la IA, sostengo que es necesario un cambio de perspectiva más allá del individuo, hacia un enfoque regulador...

El futuro no es la solución

https://www.publicbooks.org/the-future-is-not-a-solution/ "El futuro es un tipo particular de orador", explica el académico de la comunicación James W. Carey, "que nos dice hacia dónde vamos antes de que lo sepamos nosotros mismos".1 Pero en los debates sobre la naturaleza del futuro, el futuro como experiencia nunca aparece. Esto se debe a que "el futuro está siempre fuera de escena y nunca hace su entrada en la historia; el futuro es un tiempo que nunca llega pero que siempre se espera". Tal vez por eso, en el contexto estadounidense, existe una tendencia generalizada a "descartar el presente por el futuro", y a ver el "futuro como disolvente" de los problemas sociales existentes. Las discusiones abstractas sobre "el futuro" no dan en el blanco. Esto se debe a que la experiencia nos cambia. Cualquiera que haya vivido los últimos 18 meses de la pandemia de COVID-19 estará seguramente de acuerdo. Aunque los expertos en salud s...

Todos tenemos el poder de dar forma al futuro de la tecnología

https://news.stanford.edu/2021/09/07/change-future-technology/ La tecnología es una parte tan omnipresente de la vida moderna que a menudo puede parecer una fuerza de la naturaleza, un poderoso maremoto en el que los usuarios y los consumidores pueden subirse pero tienen poco poder para guiar su dirección. No tiene por qué ser así. Kurt Hickman Los académicos de Stanford afirman que la innovación tecnológica no es una fuerza inevitable que ejerce su poder sobre nosotros. En cambio, en un nuevo libro, tratan de capacitarnos a todos para crear un futuro tecnológico que apoye el florecimiento humano y los valores democráticos. En lugar de aceptar simplemente la idea de que los efectos de la tecnología están fuera de nuestro control, debemos reconocer el poderoso papel que desempeña en nuestra vida cotidiana y decidir qué queremos hacer al respecto, afirman Rob Reich, Mehran Sahami y Jeremy Weinstein en su nuevo libro System Error: Where Big Tech Went Wrong and How We Can Reboot (Harper Co...

La inteligencia artificial y el derecho internacional de los refugiados

https://moderndiplomacy.eu/2021/09/05/artificial-intelligence-and-international-refugee-law/ Los derechos de los refugiados son cosmológicos, vinculantes, combinados, codependientes e interconectados y constituyen la estructura básica de la costumbre internacional [BASIC] que engloba las jurisdicciones nacionales de todo el mundo. BASIC se nutre de la dignidad; por lo tanto, la palabra "derechos de los refugiados" puede ser delineada y definida en una sola palabra -según mi entendimiento- llamada "dignidad", ya que es la cuestión de la dignidad humana la que abordamos en los derechos de los refugiados. Por lo tanto, los derechos de los refugiados significan dignidad, pero la misma se ha enrevesado aún más con el ascenso de la Inteligencia Artificial (IA) que ha presentado nuevos desafíos a la igualdad humana en todos los ámbitos de la vida. La IA ha reducido la humanidad a cálculos algorítmicos contrarios a las normas mundiales de derechos humanos. La IA no reconoce...

Los robots autónomos controlan el mal comportamiento en el corazón de Singapur

https://www.straitstimes.com/singapore/autonomous-robots-checking-on-bad-behaviour-in-the-heartland Mientras patrulla el centro de la ciudad, cerca de Toa Payoh HDB Hub, Xavier encuentra a un hombre dando una calada a un cigarrillo en una zona en la que está prohibido fumar. En cuestión de segundos, las imágenes de vídeo se envían a un centro de mando y control y se introducen en un sistema de análisis de vídeo programado para reconocer la postura del hombre, el contorno del cigarrillo en la boca y otros indicadores visuales. Con una voz sintética, se emite un mensaje pregrabado: "Por favor, no fume en las zonas prohibidas, como los pasillos cubiertos". Actuando como un incansable par de ojos, Xavier es un robot autónomo diseñado para eliminar "comportamientos sociales indeseables" que han sido identificados por los organismos públicos aquí. En el barrio de Toa Payoh Central, dos de estos robots patrullarán durante tres semanas a partir del domingo (5 de septiembre)...

Demasiados investigadores de IA piensan que los problemas del mundo real no son relevantes

https://www-technologyreview-com.cdn.ampproject.org/c/s/www.technologyreview.com/2020/08/18/1007196/ai-research-machine-learning-applications-problems-opinion/amp/ Cualquier investigador que se haya centrado en aplicar el aprendizaje automático a problemas del mundo real probablemente haya recibido una respuesta como ésta: "Los autores presentan una solución para un problema original y muy motivador, pero es una aplicación y la importancia parece limitada para la comunidad del aprendizaje automático". Estas palabras proceden directamente de una reseña que recibí por un artículo que presenté en la conferencia NeurIPS (Neural Information Processing Systems), un lugar destacado para la investigación sobre el aprendizaje automático. He visto este estribillo una y otra vez en las reseñas de los trabajos en los que mis coautores y yo presentamos un método motivado por una aplicación, y he escuchado historias similares de innumerables personas. Publicidad Esto me hace preguntarme: S...

La IA de la industria tecnológica se está homogeneizando peligrosamente, dicen los expertos de Stanford

https://www.fastcompany.com/90666920/ai-bias-stanford-percy-liang-fei-fei-li?partner=rss&utm_source=twitter.com&utm_medium=social&utm_campaign=rss+fastcompany&utm_content=rss Un grupo multidisciplinar de profesores y estudiantes de la Universidad de Stanford quiere iniciar un debate serio sobre el creciente uso de modelos de IA grandes y terriblemente inteligentes, como el modelo de lenguaje natural GPT-3 (Generative Pretraining Transformer 3) de OpenAI. PUBLICIDAD PUBLICIDAD El GPT-3 es fundacional porque se desarrolló utilizando enormes cantidades de datos de entrenamiento y potencia informática para alcanzar un rendimiento de propósito general de última generación. Los desarrolladores, que no quieren reinventar la rueda, lo utilizan como base de su software para abordar tareas específicas. Pero los modelos de base tienen algunos inconvenientes reales, explica el profesor de informática de Stanford Percy Liang. Crean "un único punto de fallo, por lo que cualquier...

La inteligencia artificial devuelve la "vida" a los muertos, pero ¿debería hacerlo?

https://news.ucr.edu/articles/2021/08/04/artificial-intelligence-bringing-dead-back-life-should-it ¿Y si pudiera hablar con un facsímil digital de un ser querido fallecido? ¿Hablarías realmente con ellos? ¿Querría hacerlo? En los últimos años, la tecnología se ha empleado para resucitar a los muertos, sobre todo en forma de celebridades fallecidas. Carrie Fisher fue digitalizada para poder retomar su papel de princesa Leia en la última película de "La guerra de las galaxias". Kanye West regaló a Kim Kardashian un holograma de su difunto padre por su cumpleaños el año pasado. Más recientemente -y de forma controvertida- se utilizó la inteligencia artificial para falsear la voz del chef Anthony Bourdain para narrar el documental "Roadrunner". En lo que parece un inquietante episodio de "Black Mirror", Microsoft anunció a principios de este año que había conseguido una patente para un software que podría reencarnar a las personas en forma de chatbot, abriendo...

¿Una historia de vigilancia? Pasado, presente, predicción

https://www.degruyter.com/document/doi/10.1515/sats-2020-0021/html En este ensayo, exploraré las interrelaciones y diferencias entre la tecnología humana y la digital a través de la lente de la vigilancia y el modelo de predicción: la construcción de perfiles. Aportaré algunas consideraciones filosóficas sobre la vigilancia y las prácticas de vigilancia, especialmente a la luz de la informatización y la digitalización, incluyendo algunas consideraciones epistemológicas con respecto a los supuestos subyacentes en la construcción algorítmica de perfiles e identidades humanas. El punto de partida son los encuentros accidentales con una misma persona en las calles de Copenhague.

Decisiones difíciles en inteligencia artificial

https://www.sciencedirect.com/science/article/pii/S0004370221001065?via%3Dihub A medida que los sistemas de IA se integran en ámbitos sociales de gran importancia, los investigadores examinan ahora cómo diseñarlos y operarlos de forma segura y ética. Sin embargo, los criterios para identificar y diagnosticar los riesgos de seguridad en contextos sociales complejos siguen siendo poco claros y controvertidos. En este artículo, examinamos la vaguedad de los debates sobre la seguridad y el comportamiento ético de los sistemas de IA. Mostramos cómo esta vaguedad no puede resolverse únicamente mediante un formalismo matemático, sino que requiere una deliberación sobre la política de desarrollo y el contexto de despliegue. A partir de un nuevo léxico sociotécnico, redefinimos la indefinición en términos de distintos retos de diseño en etapas clave del desarrollo de sistemas de IA. El marco resultante de Hard Choices in Artificial Intelligence (HCAI) capacita a los desarrolladores al 1) identi...

El dilema social en el desarrollo de la IA y por qué debemos tenemos que resolverlo

https://arxiv.org/pdf/2107.12977.pdf Mientras aumenta la demanda de sistemas éticos de inteligencia artificial (IA), se acelera el número de usos no éticos de la IA, aunque no hay de directrices éticas. Sostenemos que una de las principales causas subyacentes es que los desarrolladores de IA se enfrentan a un dilema social en la ética del desarrollo de la IA, lo que impide la la adaptación generalizada de las mejores prácticas éticas. Definimos el dilema social para definimos el dilema social del desarrollo de la IA y describimos por qué la crisis actual de la ética del desarrollo de la IA no puede resolverse sin liberar a los desarrolladores de la IA de su dilema social. Argumentamos que el desarrollo de la IA debe profesionalizarse para superar el dilema social, y discutimos cómo la medicina puede servir de modelo en este proceso.

Los robots y la posibilidad de una atención humanista

https://link.springer.com/article/10.1007/s12369-021-00804-7 Es probable que los robots asistenciales realicen actividades de cuidado cada vez más sofisticadas que algunos considerarán reconfortantes y valiosas. Serán cada vez más parecidos a los humanos y a la vida. Este artículo aborda la cuestión conceptual: Aunque los robots puedan asistir y aliviar el sufrimiento de las personas, ¿pueden estas máquinas proporcionar cuidados humanistas? Podría decirse que el cuidado humanista es la forma de cuidado más humana y profunda que existe. Como tal, se puede pensar que muestra con mayor crudeza el abismo entre los cuidados humanos y los robóticos. El artículo sostiene que el cuidado humanista es, en efecto, una forma distintiva de cuidado "afectivo" que depende de ciertas características o aspectos exclusivamente humanos de nuestra humanidad que pueden proporcionar un profundo tipo de consuelo a las personas que sufren. A continuación, argumenta que existe un importante sentido c...

Publicado El reconocimiento facial es un superpoder

Imagen
El reconocimiento facial es un superpoder. Cómo te afectará y por qué deberías conocerlo Análisis técnico, social, ético y regulatorio http://hdl.handle.net/10016/33010 Publicación en acceso abierto

El error humano de la inteligencia artificial

https://www.agendadigitale.eu/cultura-digitale/the-human-error-of-artificial-intelligence/ En enero de 2020, Robert Julian-Borchak, un hombre negro, fue arrestado en Detroit por un crimen que no cometió solo por un error en un sistema de inteligencia artificial de reconocimiento facial. Este, según el New York Times, fue el primer caso conocido de un ciudadano estadounidense arrestado por un error algorítmico. El caso de Robert Julian-Borchak cuenta la historia de nuestro tiempo. Hoy en día, las fuerzas del orden y los tribunales utilizan cada vez más los sistemas de inteligencia artificial para monitorear, rastrear y perfilarnos y determinar nuestra posible inocencia o culpabilidad. Estas transformaciones no solo afectan a Estados Unidos. También en Europa, las lógicas algorítmicas se están incorporando rápidamente en los entornos de justicia penal [1] y la vigilancia policial predictiva. [2]. Como demuestra el ejemplo de Robert Julian-Borchak, el uso de estas tecnologías por los trib...

Necesitamos diseñar la desconfianza en los sistemas de IA para hacerlos más seguros

https://www.technologyreview.com/2021/05/13/1024874/ai-ayanna-howard-trust-robots/ He notado que utiliza el término "inteligencia humanizada" para describir su investigación, en lugar de "inteligencia artificial". ¿Porqué es eso? Sí, comencé a usar eso en un artículo en 2004. Estaba pensando en por qué trabajamos en inteligencia para robótica y sistemas de inteligencia artificial. No es que queramos crear estas funciones inteligentes fuera de nuestras interacciones con las personas. Estamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La "inteligencia artificial" implica que es un tipo diferente de inteligencia, mientras que la "inteligencia humanizada" dice que es inteligente pero está motivada por la construcción humana. Y eso significa que cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales. ¿Cómo llegaste a este trabajo? Fue principalmente motivado por m...

Inteligencia artificial y ética: dieciséis desafíos y oportunidades

https://www.scu.edu/ethics/all-about-ethics/artificial-intelligence-and-ethics-sixteen-challenges-and-opportunities/ 1. Seguridad técnica La primera pregunta para cualquier tecnología es si funciona según lo previsto. 2. Transparencia y privacidad Una vez que hayamos determinado que la tecnología funciona de manera adecuada, ¿podemos realmente comprender cómo funciona y recopilar datos de manera adecuada sobre su funcionamiento? 3. Uso beneficioso y capacidad para el bien El objetivo principal de la IA es, como cualquier otra tecnología, ayudar a las personas a llevar vidas más largas, prósperas y satisfactorias. 4. Uso malicioso y capacidad para cometer el mal Una tecnología que funcione perfectamente, como un arma nuclear, puede, cuando se utiliza para el uso previsto, causar un mal inmenso. 5. Sesgo en datos, conjuntos de entrenamiento, etc. Una de las cosas interesantes de las redes neuronales, los caballos de batalla actuales de la inteligencia artificial, es que fusionan efectiva...

Inteligencia artificial y el futuro de los humanos

https://www.forbes.com/sites/forbestechcouncil/2021/05/06/artificial-intelligence-and-the-future-of-humans/ La inteligencia artificial ya está impactando prácticamente en todas las industrias y en todos los seres humanos. Esta increíble tecnología ha traído muchas cosas buenas y cuestionables a nuestras vidas y creará un impacto aún mayor en las próximas dos décadas. Según Ray Kurzweil, uno de los futuristas más conocidos, las computadoras tendrán el mismo nivel de inteligencia que los humanos para 2029. Kurzweil declaró a Futurism, "2029 es la fecha constante que he predicho para cuando una IA pasará una prueba de Turing válida. y por lo tanto alcanzar los niveles humanos de inteligencia. He fijado la fecha de 2045 para la 'Singularidad', que es cuando multiplicaremos nuestra inteligencia efectiva mil millones de veces al fusionarnos con la inteligencia que hemos creado ". Por muy notable que sea esta tecnología, no deja de tener grandes preocupaciones para la humani...

La revolución que se avecina en la economía de la complejidad

https://www.advisorperspectives.com/articles/2021/03/29/the-coming-revolution-in-complexity-economics La economía neoclásica estándar (EE) es un fracaso y está impulsando muchas de las crisis que enfrenta nuestro mundo. Se necesita un nuevo enfoque para estudiar la economía y desarrollar políticas para guiar a la sociedad hacia adelante en las formas en que organizamos las transacciones relacionadas con la producción, el consumo, las finanzas, la diversidad, el medio ambiente, los marcos de tiempo, las relaciones, el poder y más. Este es el punto de partida y la conclusión del muy atractivo Simposio de otoño de 2019 del Instituto Santa Fe (SFI) .1 La transcripción editada del simposio aparece en Complexity Economics: Dialogues of the Applied Complexity Network (SFI Press, 2020), editado por Brian Arthur, Eric Beinhocker y Allison Stanger. (La transcripción de una conferencia es una lectura mucho más entretenida que una colección de artículos.) Hubo 25 participantes en el simposio, en s...

¿Mentes sin cerebro?

https://www.commonwealmagazine.org/minds-without-brains En opinión de muchos científicos, la inteligencia artificial (IA) no está a la altura de las expectativas de sus defensores. Todavía no tenemos coches seguros sin conductor, y es probable que no los tengamos en un futuro próximo. Tampoco los robots están a punto de asumir todas nuestras tareas domésticas para que podamos dedicar más tiempo al ocio. En el lado positivo, los robots tampoco están dispuestos a apoderarse del mundo y convertir a los humanos en esclavos como lo hacen en las películas. Sin embargo, existe un motivo real de preocupación por el impacto que la IA ya está teniendo en nosotros. Como escriben Gary Marcus y Ernest Davis en su libro Rebooting AI: Building Artificial Intelligence We Can Trust, "simplemente no se puede confiar en la IA que tenemos ahora". En su opinión, cuanta más autoridad cedamos prematuramente a los sistemas de máquinas actuales, más preocupados deberíamos estar. “Algunas fallas son l...