.

Ms. Tech

Inteligencia Artificial

Los 10 principios para que la IA sea justa, transparente y segura

1

El Gobierno de EE. UU. ha presentado un decálogo que sus agencias deberán seguir cuando propongan nuevas regulaciones sobre inteligencia artificial para el sector privado. Tras los avances de China en este campo, el anuncio supone un cambio radical frente a su postura anterior de no interferir en la industria

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Enero, 2020

El Gobierno de EE. UU. ha publicado 10 principios que sus agencias gubernamentales deberán cumplir cuando propongan nuevas regulaciones sobre inteligencia artificial (IA) para el sector privado. Esta medida es el último paso de la "Iniciativa Estadounidense sobre la IA", lanzada por orden ejecutiva de su presidente, Donald Trump, a principios del año pasado con el fin de crear una estrategia nacional para la IA. También es parte del esfuerzo permanente de país para mantener el liderazgo en este campo.

Los principios, publicados por la Oficina de Política Científica y Tecnológica de EE. UU. (OSTP, por sus siglas en inglés), tienen tres objetivos principales: garantizar la participación pública, limitar el exceso regulatorio y, lo más importante, promover una IA fidedigna, justa, transparente y segura. Durante la rueda de prensa de presentación, la subdirectora de Tecnología de Estados Unidos, Lynne Parker, afirmo que los principios están definidos de manera amplia deliberadamente para permitir que cada agencia establezca regulaciones más específicas adaptadas a su sector.

En la práctica, ahora se requerirá que las agencias federales de EE. UU. presenten un memorando a la OSTP para explicar cómo cualquier regulación propuesta relacionada con IA cumple con estos principios. Aunque la oficina no está autorizada a reprobar las regulaciones, este procedimiento podría crear la presión y coordinación necesarias para mantener un determinado estándar.

"La OSTP está intentando crear un tamiz regulatorio. Un proceso como este parece un intento muy razonable de incorporar un control de calidad en la política sobre la IA", opina el director del Proyecto sobre la Tecnología, Economía y Seguridad Nacional del MIT, R. David Edelman.

Los principios (según mi interpretación) son los siguientes:

  1. Confianza pública en la IA. El Gobierno debe promover aplicaciones de IA fiables, sólidas y fidedignas.

  2. Participación pública. La sociedad debería tener la oportunidad de dar su opinión en todas las etapas del proceso de la elaboración de normas.

  3. Integridad científica y calidad de la información. Las decisiones políticas se deben basar en la ciencia. 

  4. Evaluación y gestión de riesgos. Las agencias deben decidir qué riesgos son aceptables y cuáles no.

  5. Beneficios y costes. Las agencias deben sopesar los impactos sociales de todas las regulaciones propuestas.

  6. Flexibilidad. Cualquier enfoque debe poder adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.

  7. Trato justo y sin discriminación. Las agencias deben asegurarse de que los sistemas de IA no discriminen.

  8. Divulgación y transparencia. La sociedad confiará en la inteligencia artificial solo cuando sepa cuándo y cómo se utiliza.

  9. Seguridad y protección. Las agencias deben mantener seguros y protegidos todos los datos utilizados por los sistemas de IA.

  10. Coordinación entre las agencias. Las agencias deben hablar entre ellas para ser coherentes y previsibles en las políticas relacionadas con la IA.

El nuevo plan representa un notable cambio de sentido frente a la postura de la Casa Blanca de hace menos de dos años, cuando las personas que trabajaban en la administración Trump aseguraron que no tenían ninguna intención de crear una estrategia nacional de inteligencia artificial. En cambio, la administración argumentó que minimizar la interferencia del Gobierno era la mejor manera de ayudar a que la tecnología prosperara.

Pero al ver que cada vez más gobiernos de todo el mundo, y especialmente China, invierten tanto en IA, Estados Unidos ha sentido una gran presión para seguir su ejemplo. Durante la rueda de prensa, los representantes ofrecieron una nueva lógica para este cambio de postura del Gobierno en el desarrollo de la IA. 

El director de Tecnología de EE. UU., Michael Kratsios, afirmó: "Los principios regulatorios de EE. UU. para la IA ofrecen orientación oficial y reducen la incertidumbre para los innovadores acerca de cómo su propio Gobierno aborda la regulación de las tecnologías de inteligencia artificial". Añadió que su decálogo estimulará aún más la innovación, lo que permitirá a Estados Unidos dar forma al futuro de la tecnología a nivel mundial y contrarrestar las influencias de los regímenes autoritarios.

Hay varias maneras en las que esto podría ocurrir. Si se hace bien, alentaría a las agencias a contratar más personal con conocimientos técnicos, a crear definiciones y estándares para una IA fidedigna y llevaría a una regulación más reflexiva en general. Si se hace mal, podría animar a las agencias a evitar los requisitos o poner obstáculos burocráticos a las regulaciones necesarias para garantizar una IA fiable.

Edelman es optimista y concluye: "El hecho de que la Casa Blanca destaque la IA fiable como un objetivo resulta muy importante. Envía un importante mensaje a las agencias".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué la IA nos ayudará a combatir la próxima pandemia pero no esta

    La inteligencia artificial tiene un gran potencial para predecir brotes, realizar diagnósticos tempranos y encontrar candidatos a vacunas. Pero para ello, necesita una serie de datos que, o no se han generado todavía o no resultan accesibles, y puede que las formas de obtenerlos no le gusten demasiado

  2. Por última vez, no, la IA no está ni cerca de destruir a la humanidad

    El experto Oren Etzioni repasa los avances de la inteligencia artificial en cuatro áreas y los compara con los canarios que se usaban como alerta en las minas. Su muerte supondría que estamos cerca de una superinteligencia, pero, de momento, todos ellos tienen una larga vida por delante

  3. Robots sociales: la nueva herramienta para ayudar a niños autistas

    Los pequeños que convivieron con estos autómatas durante un mes no solo mejoraron sus habilidades sociales fundamentales, también reforzaron sus relaciones con familiares y amigos, lo que podría convertirse en una una nueva y prometedora forma de atención más asequible y personalizada