.

Getty Images/Leon Neal

Ética

Polémica en Google por incluir a una negacionista en su comité de ética

1

Mas de un millar de empleados han firmado una carta para protestar por la composición de su nuevo consejo independiente de ética de IA. Destaca Kay Coles James, a la que acusan de tránsfoba, negacionista del cambio climático y con una posición dura contra la inmigración

  • por Will Knight | traducido por Ana Milutinovic
  • 03 Abril, 2019

Mas de un millar de empleados de Google, investigadores académicos y otros miembros de la industria tecnológica han firmado una carta para protestar por la composición del consejo independiente de ética que el gigante ha creado para supervisar sus proyectos de inteligencia artificial (IA).

La compañía anunció la creación d este grupo la semana pasada durante la conferencia EmTech Digital de MIT Technology Review en San Francisco (EE.UU.). El denominado Consejo Externo de Consulta de Tecnologías Avanzadas (ATEAC, por sus siglas en inglés), está compuesto por ocho miembros de distintos perfiles: economistas, filósofos, políticos y tecnólogos con experiencia en temas como el sesgo algorítmico. Su plan sería celebrar cuatro reuniones anuales y escribir informes para aportar observaciones sobre los proyectos de la empresa que utilizan la inteligencia artificial.

Pero dos de esos miembros han sembrado la polémica. Uno es el CEO de Trumbull, Dyan Gibbens, una compañía que desarrolla sistemas autónomos para Defensa, una opción polémica dado que miles de empleados de Google ya protestaron por la decisión de la compañía de suministrar IA para análisis de imágenes hechas por drones de las Fuerzas Aéreas de EE. UU. Pero la mayor indignación viene de la inclusión de la presidenta de la Fundación Heritage, Kay Coles James, cuyo laboratorio de ideas se opone a la regulación de las emisiones de carbono, tiene una posición dura contra la inmigración y está en contra de la protección de los derechos LGBTQ.

Otro miembro del Consejo, el profesor de la Universidad Carnegie Mellon especializado en los temas de la privacidad digital, Alessandro Acquisti, anunció el 30 de marzo que no asumirá el cargo. En un tuit afirmó: "Aunque me dedico a investigar y lidiar con los fundamentales problemas éticos sobre la imparcialidad, derechos e inclusión en la IA, no creo que este sea el foro adecuado para mi participación con este importante trabajo".

De hecho, la creación del ATEAC, y la inclusión de Gibbens y James, podría esconder la intención de apaciguar a los críticos de derechas de Google. Casi al mismo tiempo que se comunicó la creación del consejo, el CEO de Google, Sundar Pichai, se reunió con el presidente de EE. UU., Donald Trump. Más tarde, Trump tuiteó: "Afirmó firmemente que está totalmente comprometido con los militares de Estados Unidos, no con los militares chinos. [Nosotros] también hablamos de la equidad política y de varias cosas que Google puede hacer por nuestro país. ¡La reunión acabó muy bien!"

Pero un empleado de Google involucrado en la redacción de la carta de protesta, quien habló bajo condición de anonimato, afirma que James era algo más que una voz conservadora en el Consejo: "Es una reaccionaria que niega que existan personas transexuales, que respalda radicalmente las posturas antinmigrantes y que apoya las opiniones contra el cambio climático y contra la ciencia".

Algunos algoritmos de IA pueden reforzar los sesgos que ya existen en la sociedad (ver La IA que evalúa a delincuentes perpetúa la injusticia hacia las minorías). Se ha demostrado que algunos de ellos identifican erróneamente a las personas transexuales, por ejemplo. En ese contexto, el empleado anónimo afirma: "El hecho de que [James] haya sido incluida es bastante impactante. Estas tecnologías están configurando nuestras instituciones sociales, nuestras vidas y el acceso a los recursos. Cuando la IA falla, no perjudica a los ricos hombres blancos que trabajan en las compañías tecnológicas. Falla perjudicando exactamente a mismas comunidades a las que las políticas de la Fundación Heritage ya pretenden perjudicar".

Los mensajes publicados en una plataforma interna de comunicaciones de Google criticaron especialmente el nombramiento de James. Según un post, anteriormente publicado por Verge y confirmado por el empleado, James "no se merece una plataforma legitimada por Google, y por supuesto que no pertenece a ninguna conversación sobre cómo se debe aplicar al mundo la tecnología de Google".

En la tarde de ayer en España, la carta abierta, publicada en Medium, ya contaba con casi 1.300 firmas de empleados de Google y otras 143 personas, incluidos varios profesores eminentes. La carta afirma: "Las opiniones de James no solo son contrarias a los valores declarados de Google, sino que son directamente contrarias al proyecto de garantizar que el desarrollo y la aplicación de IA prioricen la justicia por encima de las ganancias. Un proyecto de este tipo debería, por eso, contar con los representantes de las comunidades vulnerables en el centro del proceso decisorio".

Ética

  1. Rehacer internet para que la gente vuelva a ser dueña de sus datos

    El nuevo estándar de Dfinity permitiría crear aplicaciones que se ejecutarían en la propia red en lugar de en servidores propiedad de Facebook, Google y Amazon. El Protocolo de Ordenadores de Internet (ICP) se suma a la lista de iniciativas que intentan que la web vuelva a ser un lugar democrático y libre

  2. Las redes sociales lanzan prohibiciones en masa contra Trump y la extrema derecha

    La decisión de Reddit de vetar el foro r / The_Donald y otros 2.000 más fue seguida por Twitch, que suspendió la propia cuenta de Donald Trump, y YouTube hizo lo mismo al censurar el contenido de varios creadores de extrema derecha y racistas, incluidos varios supremacistas blancos

  3. "No tenemos procedimientos éticos sólidos para usar IA de forma segura"

    La experta en ética Jess Whittlestone advierte que la inteligencia artificial ha avanzado más rápido que los mecanismos para garantizar que se aplique correctamente. Por eso, pide equipos multidisciplinares para que se integre en su diseño desde el principio y más transparencia sobre cómo se utiliza