.

Inteligencia Artificial

EE UU sigue los pasos de Europa para vigilar la IA

1

El país norteamericano avanza para regular el campo de la inteligencia artificial, aunque algunas voces expertas señalan la falta de detalles y mecanismos para su aplicación 

  • por Melissa Heikkilä | traducido por Ana Milutinovic
  • 10 Octubre, 2022

La Casa Blanca quiere que los estadounidenses sepan que se acerca una nueva era: la de asumir la responsabilidad en el ámbito de la inteligencia artificial (IA).

El presidente Joe Biden acaba de presentar una nueva Carta de Derechos sobre la IA, que destaca cinco barreras de defensa que los estadounidenses deben tener presentes en la era de la IA.

Biden ya había pedido anteriormente medidas de protección sobre la privacidad más sólidas y que las empresas tecnológicas dejaran de recopilar datos. Pero EE UU, hogar de algunas de las empresas de tecnología de IA más grandes del mundo, ha sido hasta ahora una de las únicas naciones occidentales sin una guía clara sobre cómo proteger a sus ciudadanos contra los peligros de la inteligencia artificial.

El anuncio de Biden es la visión de la Casa Blanca de cómo el Gobierno de EE UU, las empresas tecnológicas y los ciudadanos deberían trabajar juntos para regularizar la IA. Sin embargo, los críticos creen que el nuevo plan carece de fuerza y que EE UU necesita una regulación aún más estricta en torno a la IA.

En septiembre, la administración de Biden anunció unos principios básicos para la responsabilidad y la reforma tecnológica, como frenar la toma de decisiones algorítmicas discriminatoria, promover la competencia en el sector tecnológico y brindar protecciones federales para la privacidad.

La Carta de Derechos sobre la IA, cuya idea fue presentada por primera vez hace un año por la Oficina de Política Científica y Tecnológica (OSTP, por sus siglas en inglés), el departamento del Gobierno de EE UU que asesora al presidente sobre ciencia y tecnología, es un modelo sobre cómo lograr esos objetivos. Ofrece una orientación práctica a las agencias gubernamentales y un llamamiento a la acción para que las empresas de tecnología, los investigadores y la sociedad civil apoyen estas medidas de protección.

"Estas tecnologías causan verdaderos daños en la vida de los estadounidenses y van en contra de nuestros valores democráticos fundamentales, incluido el derecho básico a la privacidad, la no discriminación y nuestra dignidad", afirmó un alto funcionario de la administración de Biden a los periodistas en una rueda de prensa.

La IA es una tecnología poderosa que está transformando nuestras sociedades. También tiene el potencial de causar daños graves, que a menudo afectan de manera desproporcionada a las minorías. Las tecnologías de reconocimiento facial utilizadas en la vigilancia y los algoritmos que asignan beneficios no son tan precisos para las minorías étnicas, por ejemplo.

El nuevo plan tiene como objetivo restablecer ese equilibrio e indica que los estadounidenses deben estar protegidos de los sistemas inseguros o ineficaces. Al mismo tiempo señala que los algoritmos no pueden ser discriminatorios y que los sistemas se deben usar tal y como fueron diseñados de manera equitativa. Además, sostiene que los ciudadanos deben tener control sobre sus datos y que tienen que estar protegidos de las prácticas abusivas de uso de datos a través de unas defensas integradas. Los ciudadanos también deben saber cuándo se utiliza un sistema automatizado sobre sus datos y comprender cómo eso contribuye a los resultados. Finalmente, las personas siempre deberían poder optar por no utilizar los sistemas de IA en favor de una alternativa humana y tener acceso a los remedios cuando haya problemas.

"Queremos asegurarnos de que estamos protegiendo a las personas de los peores peligros de esta tecnología, independientemente del proceso tecnológico específico utilizado", aclaró otro alto funcionario de la administración de EE UU.

La Carta de Derechos sobre la IA de la OSTP es "impresionante", opina el director de la organización sin ánimo de lucro Center for AI and Digital Policy, Marc Rotenberg, que se especializa en la regulación de la inteligencia artificial.

"Esto es un gran punto de partida. Sin embargo, eso no pone fin a la discusión sobre cómo EE UU implementa una IA fiable y centrada en el ser humano", resalta Rotenberg. Se trata de un paso de partida para llevar a EE UU a un lugar donde pueda cumplir con ese compromiso".

La analista de políticas de EE UU del grupo de derechos digitales Access Now, Willmary Escoto, señala que las nuevas pautas destacan hábilmente la "importancia de la minimización de datos" al tiempo que "nombran y abordan los diversos daños que experimentan las personas de otras tecnologías de IA, como el reconocimiento de emociones".

"La Carta de Derechos sobre la IA podría tener un enorme impacto en las libertades civiles fundamentales de las personas negras y latinas en todo el país", según Escoto.

El sector tecnológico acogió con agrado el reconocimiento de la Casa Blanca de que la IA también se puede utilizar para el bien.

El presidente del grupo tecnológico CCIA, Matt Schruers, que entre sus miembros tiene a empresas como Google, Amazon y Uber, asegura que aprecia la "tendencia de la Administración de que las agencias gubernamentales deben predicar con el ejemplo en el desarrollo de los principios éticos relacionados con la IA, evitar la discriminación y desarrollar un marco de gestión de riesgos para los tecnólogos gubernamentales".

La directora de normativa de IA del grupo de lobby tecnológico BSA, Shaundra Watson, cuyos miembros incluyen a Microsoft e IBM, apoya el enfoque del documento en las evaluaciones de riesgos e impacto. "Será importante garantizar que estos principios se apliquen de manera que aumenten las protecciones y la fiabilidad en la práctica", indica Watson.

Mientras la UE presiona para tener las regulaciones con el objetivo de prevenir los daños de la IA y responsabilizar a las empresas por la tecnología de IA peligrosa, y cuenta con un régimen estricto de protección de datos, EE UU ha sido reacio a introducir nuevas normativas.

Las nuevas medidas de protección reproducen las introducidas en la UE, pero el documento no es vinculante y no constituye una norma del Gobierno de EE UU, porque la OSTP no puede promulgar leyes. Los legisladores son los que tendrán que proponer nuevos proyectos de ley.

El director de política del Instituto Stanford para la IA Centrada en el Ser Humano, Russell Wald, cree que el documento carece de detalles o mecanismos para su aplicación.

"Es desalentador ver la falta de una política federal coherente y muy necesaria para abordar los desafíos que plantea la IA, como el control, la auditoría y las acciones de revisión coordinadas por el Gobierno federal para mitigar los riesgos y peligros provocados por los modelos de código abierto", resaltó Wald.

Rotenberg es partidario de que EE UU implemente regulaciones como el Reglamento sobre la IA de la UE, la nueva normativa que tiene como objetivo incluir unos controles adicionales y dotar de equilibrio los usos de la inteligencia artificial, que tienen el mayor potencial para causar daño a la gente.

"Nos gustaría ver algunas prohibiciones claras sobre los usos de IA que han sido más controvertidos, que incluyen, por ejemplo, el uso de reconocimiento facial para la vigilancia masiva", señala Rotenberg.

La Carta de Derechos sobre la IA puede sentar las bases para una futura legislación, como la aprobación de la Ley de Responsabilidad Algorítmica o la creación de una agencia para regular la IA, resalta la directora de la organización Encode Justice, Sneha Revanur, que se centra en los jóvenes y la IA.

"Aunque tiene una capacidad limitada para abordar los peligros del sector privado, la Carta de Derechos sobre la IA puede cumplir su promesa si se aplica de manera significativa, y esperamos que una verdadera regulación haga lo propio", concluye Revanur.

Esta historia se ha actualizado para incluir la cita de Sneha Revanur.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Osos espaciales y artículos falsos: historia del último fracaso de Meta

    Tras el lanzamiento de Galactica, Meta aseguraba que los científicos contarían con una gran ayuda al resumir trabajos académicos o resolver problemas matemáticos. Sin embargo, el resultado eran datos irrelevantes o, directamente, falsos

  2. El último desafío de la IA: calcular su propia huella de carbono

    La 'start-up' de inteligencia artificial Hugging Face ha llevado a cabo el primer intento del sector tecnológico de estimar la huella de carbono total de un modelo de lenguaje basado en esta tecnología

  3. Comunitaria e igualitaria: la IA ética que impulsa la científica que dejó Google

    Después de salir de la empresa, se unió al Instituto de Investigación de IA Distribuida de la científica Timnit Gebru (también ex Google) y su trabajo ya va avanzando