.

Inteligencia Artificial

Contra la IA peligrosa: la UE multará a responsables de algoritmos dañinos

1

Mientras que las empresas tecnológicas abogan que la medida será "paralizante" para la innovación, los defensores de los consumidores señalan que la propuesta no va lo suficientemente lejos. Según los expertos, la norma causará un efecto dominó en la forma en la que se regula la IA en todo el mundo 

  • por Melissa Heikkilä | traducido por Ana Milutinovic
  • 05 Octubre, 2022

La Unión Europea (UE) está creando nuevas normas para que sea más fácil demandar a las empresas de inteligencia artificial (IA) por daños. El reglamento presentado la semana pasada, que probablemente se convierta en ley en un par de años, es parte del impulso de Europa para evitar que los desarrolladores de IA lancen sistemas peligrosos. Sin embargo, mientras las empresas de tecnología se quejan de que eso podría ser un freno a la innovación, los activistas defensores de los usuarios creen que la medida no es suficientemente ambiciosa.

Las poderosas tecnologías de IA afectan cada vez más a nuestras vidas, relaciones y sociedades, y sus daños están bien documentados. Los algoritmos de las redes sociales aumentan la desinformación, los sistemas de reconocimiento facial suelen ser muy discriminatorios y los sistemas predictivos de IA que se utilizan para aprobar o rechazar préstamos pueden ser menos precisos para las minorías.

La nueva legislación propuesta, denominada Directiva sobre responsabilidad civil en materia de IA, refuerza el Reglamento sobre la IA de la UE, que se convertirá en normativa de la UE casi al mismo tiempo. El Reglamento sobre la IA requerirá controles adicionales para los usos de IA de "alto riesgo" que tienen el mayor potencial de perjudicar a las personas, incluidos los sistemas de vigilancia, reclutamiento o atención médica.

El nuevo reglamento sobre responsabilidad otorgaría a las personas y empresas el derecho a demandar por daños y perjuicios si se han visto perjudicados por un sistema de IA. El objetivo es responsabilizar a los desarrolladores, productores y usuarios de las tecnologías, y exigirles que expliquen cómo se construyeron y entrenaron sus sistemas de inteligencia artificial. Las empresas tecnológicas que no siguen las reglas corren el riesgo de enfrentarse a demandas colectivas en toda la UE.

Por ejemplo, los solicitantes de empleo que demuestren que un sistema de IA de revisión de currículos los discriminó pueden pedirle a un tribunal que obligue a la empresa de IA a concederles acceso a la información sobre el sistema para identificar a los responsables y descubrir qué salió mal. Con esta información bajo el brazo, pueden interponer la demanda.

La propuesta todavía tiene que abrirse camino a través del proceso legislativo de la UE, que se dilatará, al menos, un par de años. Será enmendada por miembros del Parlamento Europeo y los gobiernos de la UE y, probablemente, habrá mucha presión por parte de las empresas tecnológicas, que afirman que tales normativas podrían tener un efecto "paralizante" en la innovación.

Tenga éxito o no, esta nueva normativa de la UE tendrá un efecto dominó en la forma en la que se regula la IA en todo el mundo.

En particular, el reglamento podría tener un impacto adverso en el desarrollo de software, opina la responsable de políticas europeas del grupo tecnológico CCIA, Mathilde Adjutor, que representa a empresas como Google, Amazon y Uber.

Según las nuevas normas, "los desarrolladores no solo corren el peligro de ser responsables de los errores del software, sino también del posible impacto del software en la salud mental de los usuarios", resalta la experta.

La directora asociada de políticas del Instituto Ada Lovelace de investigación de IA, Imogen Parker, cree que el reglamento reducirá el poder de las empresas y lo devolverá a los usuarios. Supondría una corrección que Parker considera particularmente importante dado el potencial discriminatorio de la IA. La normativa garantizará que cuando un sistema de IA cause daño, haya una forma común de buscar una compensación en toda la UE, afirma el jefe de política europea del grupo de lobby tecnológico BSA, Thomas Boué, cuyos miembros incluyen a Microsoft e IBM.

Sin embargo, algunas organizaciones y activistas defensores de los derechos de los consumidores destacan que las propuestas no van lo suficientemente lejos y pondrán el listón demasiado alto para aquellos usuarios que quieran realizar reclamaciones.

La subdirectora general de la Organización Europea de Consumidores, Ursula Pachl, insiste que la propuesta es una "verdadera decepción", porque traslada la responsabilidad a los usuarios para demostrar que un sistema de IA los perjudicó o que un desarrollador de IA fue negligente.

"En un mundo de sistemas de IA de 'caja negra' tan complejos e inaccesibles, será prácticamente imposible para el consumidor hacer uso de las nuevas normas", asegura Pachl. Por ejemplo, será extremadamente difícil demostrar que la discriminación racial contra alguien se debió a la forma en la que se había creado un sistema de calificación crediticia.

El nuevo reglamento tampoco tiene en cuenta los daños indirectos causados por los sistemas de IA, señala la representante de la UE en la organización sin ánimo de lucro Future of Life Institute, Claudia Prettner, que se centra en el peligro existencial de la IA. Una mejor versión de la legislación propuesta responsabilizaría a las empresas cuando sus acciones causen daño sin necesariamente exigir la culpa, como las normativas que ya existen para los coches o animales, añade Prettner.

"Los sistemas de IA a menudo se construyen para un propósito determinado, pero luego provocan daños inesperados en otra área. Los algoritmos de las redes sociales, por ejemplo, se crearon para maximizar el tiempo dedicado a las plataformas, pero fomentaron de manera involuntaria el contenido polarizador", indica la especialista.

La UE quiere que su Reglamento sobre la IA se convierta en el estándar global en materia de regulación de la IA. Otros países, como EE UU, donde se están realizando algunos esfuerzos para regular la tecnología, se mantienen muy atentos. La Comisión Federal de Comercio de EE UU está considerando nuevas normas sobre cómo las empresas manejan los datos y crean algoritmos, y ha obligado a las compañías que han recopilado datos ilegalmente a eliminar sus algoritmos. A principios de este año, la agencia obligó a la empresa de dietas Weight Watchers a hacer esto tras haber recopilado datos sobre niños de forma ilegal.

Tenga éxito o no, esta nueva regulación de la UE tendrá un efecto dominó en la forma en la que se regula la IA en todo el mundo. "Es de interés para los ciudadanos, las empresas y reguladores que la UE regule correctamente el mundo de la IA. Sin eso, no conseguirá que la IA funcione bien para las personas y para la sociedad", concluye Parker.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Osos espaciales y artículos falsos: historia del último fracaso de Meta

    Tras el lanzamiento de Galactica, Meta aseguraba que los científicos contarían con una gran ayuda al resumir trabajos académicos o resolver problemas matemáticos. Sin embargo, el resultado eran datos irrelevantes o, directamente, falsos

  2. El último desafío de la IA: calcular su propia huella de carbono

    La 'start-up' de inteligencia artificial Hugging Face ha llevado a cabo el primer intento del sector tecnológico de estimar la huella de carbono total de un modelo de lenguaje basado en esta tecnología

  3. Comunitaria e igualitaria: la IA ética que impulsa la científica que dejó Google

    Después de salir de la empresa, se unió al Instituto de Investigación de IA Distribuida de la científica Timnit Gebru (también ex Google) y su trabajo ya va avanzando