.

pixinoo / Getty

Ética

Springer Nature, acusada de perpetuar los algoritmos racistas

1

Más de 600 expertos en ética e inteligencia artificial apoyan una carta que critica a la editorial por su intención de publicar un artículo sobre tecnología para predecir delitos. Los autores exigen la retirada de este tipo de investigaciones, tras haberse demostrado que la tecnología perpetúa el racismo

  • por Karen Hao | traducido por Ana Milutinovic
  • 26 Junio, 2020

La noticia: una carta abierta de una creciente agrupación de investigadores de inteligencia artificial (IA) critica a la editorial científica Springer Nature por su intención de incluir un documento de sesión en su próximo libro Transactions on Computational Science & Computational Intelligence. Según el comunicado de prensa original, el artículo en cuestión, titulado Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes, presenta un sistema de reconocimiento facial supuestamente capaz de predecir si alguien es un criminal. Fue desarrollado por los investigadores de la Universidad de Harrisburg (EE. UU.) e iba a presentarse en una próxima conferencia.

Las demandas: citando el trabajo de los principales expertos en IA que, además, son negros, la carta desacredita la base científica del estudio y asegura que las tecnologías de predicción de delitos son racistas. También enumera tres exigencias: 1) que Springer Nature retire su propuesta de publicar el mencionado trabajo; 2) que emita una declaración condenando el uso de las técnicas estadísticas como el aprendizaje automático para predecir la criminalidad y reconociendo su papel en fomentar dicha investigación; y 3) que todas las editoriales científicas se comprometan a no publicar artículos similares en el futuro. La carta, que se envió a Springer Nature el pasado lunes, fue escrita originalmente por cinco investigadores del MIT, del Instituto Politécnico Rensselaer y del Instituto AI Now (todos en EE. UU.), de la Universidad McGill (Canadá). En cuestión de días, obtuvo más de 600 firmas y el número no para de crecer, a través de las comunidades éticas y académicas de IA, incluidas las firmas de algunas personas destacadas como la cofundadora del Instituto AI Now Meredith Whittaker y el antiguo director del Centro de Medios Cívicos en el MIT Ethan Zuckerman.

Por qué es importante: aunque la carta se refiere a un artículo concreto, el objetivo de los autores es demostrar un problema sistemático sobre cómo las revistas científicas incentivan a los investigadores a perpetuar algunas normas poco éticas. La estudiante de doctorado en el MIT y coautora de la carta Chelsea Barabas afirma: "Es por eso que seguimos viendo que la ciencia relacionada con la raza emerge una y otra vez, porque las editoriales lo publican". La investigadora postdoctoral en AI Now y también coautora Theodora Dryer, coincide: "La verdadera importancia de este estudio de Springer consiste en que no es el único en absoluto. Es un ejemplo emblemático de un problema y de una crítica que lleva existiendo tanto tiempo". 

La respuesta de Springer: en respuesta a la carta, Springer afirmó que no publicaría el artículo: "El estudio al que se refieren fue enviado para una próxima conferencia de la cual Springer había planeado publicar las actas. Después de un exhaustivo proceso de revisión por pares, el trabajo fue rechazado". La Universidad de Harrisburg también retiró su comunicado de prensa, asegurando que "la facultad estaba actualizando el texto para abordar las preocupaciones planteadas". La Universidad de Harrisburg y un coautor del artículo rechazaron una solicitud de comentarios, así como la petición de recibir una copia del documento original. Los firmantes de la carta subrayan que seguirán presionando por el cumplimiento de su segunda y tercera exigencia.

El contexto más general: desde que la muerte de George Floyd provocó un movimiento internacional por la justicia racial, el campo de la IA y el sector tecnológico en general se han enfrentado al planteamiento sobre el papel que han desempeñado en el fomento del racismo estructural. Durante la semana del 8 de junio, por ejemplo, IBM, Microsoft y Amazon anunciaron el final o la suspensión parcial de sus productos de reconocimiento facial. Esa medida fue la culminación de dos años de presión por parte de los investigadores y activistas para demostrar un vínculo entre estas tecnologías y el exceso de vigilancia policial de las comunidades minoritarias. La mencionada carta abierta es el último avance en este movimiento hacia una mayor responsabilidad ética en la IA.

La directora de investigación del Centro para los Medios, Tecnología y Democracia de la Universidad McGill, Sonja Solomun, concluye: "Realmente queríamos contribuir a este creciente movimiento. En especial, al mirar por nuestras ventanas y ver lo que está sucediendo ahora en Estados Unidos y en todo el mundo, hay muchas cosas en juego".

Ética

  1. Pulseras de control: la pandemia como excusa para vulnerar derechos

    El coronavirus ha disparado el uso de pulseras y tobilleras para monitorizar a presos y ciudadanos sin un debate previo sobre sus amenazas para la privacidad, y sin haber resuelto sus problemas técnicos. Se trata de un caso claro de vigilancia progresiva que podría normalizarse si no actuamos rápido

  2. Alegato para acabar con los algoritmos de vigilancia predictivos

    La falta de transparencia en su funcionamiento y uso, y el sesgo racista inherente en los datos de entrenamiento significan que estas herramientas no son adecuadas para su propósito por parte de la policía y la justicia. Si no podemos solucionar su racismo, la única opción es dejar de usarlos

  3. Rehacer internet para que la gente vuelva a ser dueña de sus datos

    El nuevo estándar de Dfinity permitiría crear aplicaciones que se ejecutarían en la propia red en lugar de en servidores propiedad de Facebook, Google y Amazon. El Protocolo de Ordenadores de Internet (ICP) se suma a la lista de iniciativas que intentan que la web vuelva a ser un lugar democrático y libre