.

Simone Nironha

Negocios

EE. UU. responsabilizará a las tecnológicas de las 'fake news' y el sesgo algorítmico

1

Un nuevo proyecto de ley intenta obligar a los gigantes a que controlen sus productos de inteligencia artificial para evitar la discriminación y la desinformación. El mayor problema sigue siendo que solo unos pocos políticos entienden de verdad la tecnología y sus posibles consecuencias negativas

  • por Karen Hao | traducido por Ana Milutinovic
  • 26 Abril, 2019

Hace dos semanas, algunos legisladores estadounidenses presentaron un  nuevo proyecto de ley  que representa uno de los primeros grandes esfuerzos del país para regular la inteligencia artificial (IA). Y seguramente, no será el último.

La propuesta supone un gran cambio en la postura de Washington (EE.UU.) frente a una de las tecnologías más poderosas del siglo. Hace unos años, los legisladores no estaban tan dispuestos a regular la IA. Ahora, las consecuencias de no haberlo hecho son cada vez más tangibles. Así que, un pequeño grupo de congresistas ha decidido desarrollar una estrategia más amplia para controlar la tecnología.

Cada vez más países (como Reino Unido,  FranciaAustralia) están redactado o aprobado leyes que responsabilizan a las empresas tecnológicas de sus algoritmos. Pero dado que EE. UU. es el hogar de Silicon Valley, su estrategia regulatoria en el impacto global de la IA puede tener un gran impacto internacional. El exasesor de política tecnológica del Parlamento Europeo y actual investigador en la Universidad de Princeton (EE. UU.) Bendert Zevenbergen, afirma: "Un problema en Europa es que no somos líderes en el desarrollo de la IA. Somos una especie de destinatarios de la tecnología de inteligencia artificial. Definitivamente estamos en la segunda línea. En la primera línea están Estados Unidos y China".

El nuevo proyecto de ley, denominado Ley de Responsabilidad Algorítmica, obligaría a las grandes empresas de tecnología a controlar sus sistemas de aprendizaje automático para  detectar sesgos y discriminación y a tomar medidas correctivas cuando identifiquen dichos problemas. También las obligará a responsabilizarse de todos los procesos que implican el uso de información confidencial, como los datos personales, los biométricos y los genéticos para evitar riesgos de privacidad y seguridad. Si se aprueba, el proyecto de ley colocaría el poder regulatorio en manos de la Comisión Federal de Comercio de EE. UU., la agencia encargada de proteger al consumidor y la regulación antimonopolio.

El borrador de esta ley es el primer resultado de muchos meses de debate entre legisladores, investigadores y otros expertos para proteger a los consumidores de los impactos negativos de la IA, afirma la investigadora del Instituto de Investigación de Datos y Sociedad Mutale Nkonde, que participó en el proceso. Es la respuesta a varias revelaciones ocurridas en el último año, que han demostrado que el sesgo algorítmico puede causar daños de gran alcance en muchos contextos. Entre estas revelaciones destacan la herramienta de contratación interna de Amazon que perjudicaba a las mujeres; el descubrimiento de que plataformas comerciales de reconocimiento y análisis facial son mucho menos precisas para las mujeres de piel oscura que para los hombres de piel más clara; y, la más reciente, el hecho de que el algoritmo de recomendación de anuncios de Facebook discrimina en el terreno del empleo y de la vivienda, independientemente del público objetivo específico del anunciante.

El proyecto de ley ya ha sido elogiado por distintos miembros de la comunidad de la ética e investigación de la IA, que lo ven como un paso importante y sensato hacia la protección de las personas frente a esos distintos impactos no deseados. "Gran primer paso", escribió el experto en tecnología y leyes de Data & Society Andrew Selbst, en  Twitter. Y añadió: "Requeriría documentación, evaluación e intentos de abordar los impactos previstos. Es algo nuevo, interesante y muy necesario".

Pero este paso no será el único. La propuesta, según Nkonde, forma parte de una estrategia más amplia para introducir el control regulador en cualquier proceso y producto de IA. Es probable dentro de poco se presente otro proyecto de ley que aborde la propagación de la desinformación como una amenaza para la seguridad nacional, incluidos los deepfakes, afirma ella. Otro proyecto de ley  presentado este mes prohibiría las prácticas manipuladoras que los gigantes tecnológicos a veces usan para que los consumidores cedan sus datos. "Es un ataque múltiple", sostiene Nkonde.

Cada proyecto de ley es deliberadamente amplio y abarca diferentes productos de IA y tratamiento de datos en diversos campos. Uno de los desafíos que el Congreso intenta resolver es que una tecnología como el reconocimiento facial se puede usar para  propósitos muy diferentes en muchas industrias, como el orden público, la automoción e incluso la venta al por menor. Nkonde detalla: "Desde el punto de vista regulatorio, nuestros productos son de industrias específicas. Los reguladores responsables de los coches no son los mismos que los que se dedican a los contratos del sector público, ni tampoco son los mismos que trabajan con dispositivos".

El Congreso está tratando de encontrar la manera de adaptar el marco regulador tradicional a esta nueva realidad. Pero será difícil hacerlo sin imponer una solución única para todos los contextos. "Dado que el reconocimiento facial se usa para tantas cosas diferentes, será difícil decir: 'Estas son las reglas para el reconocimiento facial'", destaca Zevenbergen.

Nkonde prevé que este movimiento regulatorio acabará dando lugar a una nueva oficina o agencia centrada específicamente en las tecnologías avanzadas. Pero, habrá grandes obstáculos en el camino. Aunque la protección contra la desinformación y contra la recopilación de datos manipulados han sido apoyadas por los dos bloques políticos principales del país, el proyecto de ley de responsabilidad algorítmica está liderado por tres demócratas, por lo que tiene menos posibilidades de ser aprobado por un Senado controlado por los republicanos y firmado por el presidente Trump. Además, actualmente solo unos pocos miembros del Congreso tienen un conocimiento técnico suficientemente profundo sobre los datos y el aprendizaje automático para abordar la regulación de una manera adecuada y matizada. "Ahora mismo, estas ideas y propuestas son una especie de nicho. Solo hay tres o cuatro congresistas que lo entienden", opina Nkonde.

Pero ella sigue siendo optimista. Parte de la estrategia de avance incluye educar a más a los políticos sobre estos problemas y convencerles de que participen. La experta concluye: "A medida que los educamos sobre lo que incluyen estos proyectos de ley y cuando los proyectos de ley consiguen copatrocinadores, se irán acercando cada vez más al centro hasta que la regulación de la industria tecnológica no requiera ningún esfuerzo",.

Negocios

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. La polémica política, ética y comercial del reconocimiento facial

    El Gobierno de San Francisco tiene prohibido usar esta tecnología, pero la norma no afecta a las compañías privadas, cuyos fines pueden ser igual de discriminatorios que los públicos. El debate, tanto a nivel ciudadano como usuario, está servido

  2. Cinco preguntas para saber si una IA es útil, eficaz y ética

    A medida que la inteligencia artificial penetra en la industria es necesario confirmar que los productos que ofrecen las empresas son válidos y de calidad. Para averiguarlo, le ofrecemos una guía con cinco preguntas

  3. "Creo más en un equipo que se equivoca que en la jerarquía"

    La obsesión de la directora general de Banca para Particulares de ING España, Almudena Román, es mejorar la experiencia de los clientes. Para ello, apuesta por exprimir los datos, buscar inspiración en las 'fintech' y lograr que la entidad sea ágil y pruebe nuevas cosas continuamente