.

Ms. Tech

Inteligencia Artificial

Los 10 principios para que la IA sea justa, transparente y segura

1

El Gobierno de EE. UU. ha presentado un decálogo que sus agencias deberán seguir cuando propongan nuevas regulaciones sobre inteligencia artificial para el sector privado. Tras los avances de China en este campo, el anuncio supone un cambio radical frente a su postura anterior de no interferir en la industria

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Enero, 2020

El Gobierno de EE. UU. ha publicado 10 principios que sus agencias gubernamentales deberán cumplir cuando propongan nuevas regulaciones sobre inteligencia artificial (IA) para el sector privado. Esta medida es el último paso de la "Iniciativa Estadounidense sobre la IA", lanzada por orden ejecutiva de su presidente, Donald Trump, a principios del año pasado con el fin de crear una estrategia nacional para la IA. También es parte del esfuerzo permanente de país para mantener el liderazgo en este campo.

Los principios, publicados por la Oficina de Política Científica y Tecnológica de EE. UU. (OSTP, por sus siglas en inglés), tienen tres objetivos principales: garantizar la participación pública, limitar el exceso regulatorio y, lo más importante, promover una IA fidedigna, justa, transparente y segura. Durante la rueda de prensa de presentación, la subdirectora de Tecnología de Estados Unidos, Lynne Parker, afirmo que los principios están definidos de manera amplia deliberadamente para permitir que cada agencia establezca regulaciones más específicas adaptadas a su sector.

En la práctica, ahora se requerirá que las agencias federales de EE. UU. presenten un memorando a la OSTP para explicar cómo cualquier regulación propuesta relacionada con IA cumple con estos principios. Aunque la oficina no está autorizada a reprobar las regulaciones, este procedimiento podría crear la presión y coordinación necesarias para mantener un determinado estándar.

"La OSTP está intentando crear un tamiz regulatorio. Un proceso como este parece un intento muy razonable de incorporar un control de calidad en la política sobre la IA", opina el director del Proyecto sobre la Tecnología, Economía y Seguridad Nacional del MIT, R. David Edelman.

Los principios (según mi interpretación) son los siguientes:

  1. Confianza pública en la IA. El Gobierno debe promover aplicaciones de IA fiables, sólidas y fidedignas.

  2. Participación pública. La sociedad debería tener la oportunidad de dar su opinión en todas las etapas del proceso de la elaboración de normas.

  3. Integridad científica y calidad de la información. Las decisiones políticas se deben basar en la ciencia. 

  4. Evaluación y gestión de riesgos. Las agencias deben decidir qué riesgos son aceptables y cuáles no.

  5. Beneficios y costes. Las agencias deben sopesar los impactos sociales de todas las regulaciones propuestas.

  6. Flexibilidad. Cualquier enfoque debe poder adaptarse a los rápidos cambios y actualizaciones de las aplicaciones de IA.

  7. Trato justo y sin discriminación. Las agencias deben asegurarse de que los sistemas de IA no discriminen.

  8. Divulgación y transparencia. La sociedad confiará en la inteligencia artificial solo cuando sepa cuándo y cómo se utiliza.

  9. Seguridad y protección. Las agencias deben mantener seguros y protegidos todos los datos utilizados por los sistemas de IA.

  10. Coordinación entre las agencias. Las agencias deben hablar entre ellas para ser coherentes y previsibles en las políticas relacionadas con la IA.

El nuevo plan representa un notable cambio de sentido frente a la postura de la Casa Blanca de hace menos de dos años, cuando las personas que trabajaban en la administración Trump aseguraron que no tenían ninguna intención de crear una estrategia nacional de inteligencia artificial. En cambio, la administración argumentó que minimizar la interferencia del Gobierno era la mejor manera de ayudar a que la tecnología prosperara.

Pero al ver que cada vez más gobiernos de todo el mundo, y especialmente China, invierten tanto en IA, Estados Unidos ha sentido una gran presión para seguir su ejemplo. Durante la rueda de prensa, los representantes ofrecieron una nueva lógica para este cambio de postura del Gobierno en el desarrollo de la IA. 

El director de Tecnología de EE. UU., Michael Kratsios, afirmó: "Los principios regulatorios de EE. UU. para la IA ofrecen orientación oficial y reducen la incertidumbre para los innovadores acerca de cómo su propio Gobierno aborda la regulación de las tecnologías de inteligencia artificial". Añadió que su decálogo estimulará aún más la innovación, lo que permitirá a Estados Unidos dar forma al futuro de la tecnología a nivel mundial y contrarrestar las influencias de los regímenes autoritarios.

Hay varias maneras en las que esto podría ocurrir. Si se hace bien, alentaría a las agencias a contratar más personal con conocimientos técnicos, a crear definiciones y estándares para una IA fidedigna y llevaría a una regulación más reflexiva en general. Si se hace mal, podría animar a las agencias a evitar los requisitos o poner obstáculos burocráticos a las regulaciones necesarias para garantizar una IA fiable.

Edelman es optimista y concluye: "El hecho de que la Casa Blanca destaque la IA fiable como un objetivo resulta muy importante. Envía un importante mensaje a las agencias".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Un bot crea 'deepfakes' de menores de edad desnudas en Telegram

    Por cerca de un euro, se puede enviar una foto de cualquiera y el sistema devolverá una versión sin ropa. El canal, con más de 45.000 miembros, ya se ha usado para "desnudar" a más de 100.000 mujeres sin su consentimiento. Es una de las aplicaciones más perversas de esta forma de inteligencia artificial

  2. Facebook lanza una IA capaz de traducir entre 100 idiomas diferentes

    La gran innovación del modelo es que una parte importante de las traducciones entre idiomas se hace de forma directa sin pasar por el inglés como lengua intermediaria. Aunque de momento M2M-100 solo está destinado a fines de investigación, en el futuro la compañía podría aplicarlo a sus propios productos

  3. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad