.

pixinoo / Getty

Ética

Springer Nature, acusada de perpetuar los algoritmos racistas

1

Más de 600 expertos en ética e inteligencia artificial apoyan una carta que critica a la editorial por su intención de publicar un artículo sobre tecnología para predecir delitos. Los autores exigen la retirada de este tipo de investigaciones, tras haberse demostrado que la tecnología perpetúa el racismo

  • por Karen Hao | traducido por Ana Milutinovic
  • 26 Junio, 2020

La noticia: una carta abierta de una creciente agrupación de investigadores de inteligencia artificial (IA) critica a la editorial científica Springer Nature por su intención de incluir un documento de sesión en su próximo libro Transactions on Computational Science & Computational Intelligence. Según el comunicado de prensa original, el artículo en cuestión, titulado Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes, presenta un sistema de reconocimiento facial supuestamente capaz de predecir si alguien es un criminal. Fue desarrollado por los investigadores de la Universidad de Harrisburg (EE. UU.) e iba a presentarse en una próxima conferencia.

Las demandas: citando el trabajo de los principales expertos en IA que, además, son negros, la carta desacredita la base científica del estudio y asegura que las tecnologías de predicción de delitos son racistas. También enumera tres exigencias: 1) que Springer Nature retire su propuesta de publicar el mencionado trabajo; 2) que emita una declaración condenando el uso de las técnicas estadísticas como el aprendizaje automático para predecir la criminalidad y reconociendo su papel en fomentar dicha investigación; y 3) que todas las editoriales científicas se comprometan a no publicar artículos similares en el futuro. La carta, que se envió a Springer Nature el pasado lunes, fue escrita originalmente por cinco investigadores del MIT, del Instituto Politécnico Rensselaer y del Instituto AI Now (todos en EE. UU.), de la Universidad McGill (Canadá). En cuestión de días, obtuvo más de 600 firmas y el número no para de crecer, a través de las comunidades éticas y académicas de IA, incluidas las firmas de algunas personas destacadas como la cofundadora del Instituto AI Now Meredith Whittaker y el antiguo director del Centro de Medios Cívicos en el MIT Ethan Zuckerman.

Por qué es importante: aunque la carta se refiere a un artículo concreto, el objetivo de los autores es demostrar un problema sistemático sobre cómo las revistas científicas incentivan a los investigadores a perpetuar algunas normas poco éticas. La estudiante de doctorado en el MIT y coautora de la carta Chelsea Barabas afirma: "Es por eso que seguimos viendo que la ciencia relacionada con la raza emerge una y otra vez, porque las editoriales lo publican". La investigadora postdoctoral en AI Now y también coautora Theodora Dryer, coincide: "La verdadera importancia de este estudio de Springer consiste en que no es el único en absoluto. Es un ejemplo emblemático de un problema y de una crítica que lleva existiendo tanto tiempo". 

La respuesta de Springer: en respuesta a la carta, Springer afirmó que no publicaría el artículo: "El estudio al que se refieren fue enviado para una próxima conferencia de la cual Springer había planeado publicar las actas. Después de un exhaustivo proceso de revisión por pares, el trabajo fue rechazado". La Universidad de Harrisburg también retiró su comunicado de prensa, asegurando que "la facultad estaba actualizando el texto para abordar las preocupaciones planteadas". La Universidad de Harrisburg y un coautor del artículo rechazaron una solicitud de comentarios, así como la petición de recibir una copia del documento original. Los firmantes de la carta subrayan que seguirán presionando por el cumplimiento de su segunda y tercera exigencia.

El contexto más general: desde que la muerte de George Floyd provocó un movimiento internacional por la justicia racial, el campo de la IA y el sector tecnológico en general se han enfrentado al planteamiento sobre el papel que han desempeñado en el fomento del racismo estructural. Durante la semana del 8 de junio, por ejemplo, IBM, Microsoft y Amazon anunciaron el final o la suspensión parcial de sus productos de reconocimiento facial. Esa medida fue la culminación de dos años de presión por parte de los investigadores y activistas para demostrar un vínculo entre estas tecnologías y el exceso de vigilancia policial de las comunidades minoritarias. La mencionada carta abierta es el último avance en este movimiento hacia una mayor responsabilidad ética en la IA.

La directora de investigación del Centro para los Medios, Tecnología y Democracia de la Universidad McGill, Sonja Solomun, concluye: "Realmente queríamos contribuir a este creciente movimiento. En especial, al mirar por nuestras ventanas y ver lo que está sucediendo ahora en Estados Unidos y en todo el mundo, hay muchas cosas en juego".

Ética

  1. "No tenemos procedimientos éticos sólidos para usar IA de forma segura"

    La experta en ética Jess Whittlestone advierte que la inteligencia artificial ha avanzado más rápido que los mecanismos para garantizar que se aplique correctamente. Por eso, pide equipos multidisciplinares para que se integre en su diseño desde el principio y más transparencia sobre cómo se utiliza

  2. Trump contra Twitter: así son las estrategias del presidente

    La medida de la red social de alertar sobre dos tuits del mandatario de EE. UU., Donald Trump, han hecho estallar el falso discurso de que las redes sociales censuran la información conservadora. En el pasado, Trump ha usado su cuenta para difundir teorías de la conspiración e impulsar campañas de odio

  3. 'Blockchain' necesita su propio subcampo de ética y lo necesita ya

    Aunque todavía generan poco interés, cada vez más entidades importantes como gobiernos, bancos y grandes empresas empiezan a trabajar con cadenas de bloques. Investigar y desarrollar la tecnología tendrá consecuencias y debemos empezar a tener en cuenta cuáles son, según los expertos