.

pixinoo / Getty

Ética

Springer Nature, acusada de perpetuar los algoritmos racistas

1

Más de 600 expertos en ética e inteligencia artificial apoyan una carta que critica a la editorial por su intención de publicar un artículo sobre tecnología para predecir delitos. Los autores exigen la retirada de este tipo de investigaciones, tras haberse demostrado que la tecnología perpetúa el racismo

  • por Karen Hao | traducido por Ana Milutinovic
  • 26 Junio, 2020

La noticia: una carta abierta de una creciente agrupación de investigadores de inteligencia artificial (IA) critica a la editorial científica Springer Nature por su intención de incluir un documento de sesión en su próximo libro Transactions on Computational Science & Computational Intelligence. Según el comunicado de prensa original, el artículo en cuestión, titulado Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes, presenta un sistema de reconocimiento facial supuestamente capaz de predecir si alguien es un criminal. Fue desarrollado por los investigadores de la Universidad de Harrisburg (EE. UU.) e iba a presentarse en una próxima conferencia.

Las demandas: citando el trabajo de los principales expertos en IA que, además, son negros, la carta desacredita la base científica del estudio y asegura que las tecnologías de predicción de delitos son racistas. También enumera tres exigencias: 1) que Springer Nature retire su propuesta de publicar el mencionado trabajo; 2) que emita una declaración condenando el uso de las técnicas estadísticas como el aprendizaje automático para predecir la criminalidad y reconociendo su papel en fomentar dicha investigación; y 3) que todas las editoriales científicas se comprometan a no publicar artículos similares en el futuro. La carta, que se envió a Springer Nature el pasado lunes, fue escrita originalmente por cinco investigadores del MIT, del Instituto Politécnico Rensselaer y del Instituto AI Now (todos en EE. UU.), de la Universidad McGill (Canadá). En cuestión de días, obtuvo más de 600 firmas y el número no para de crecer, a través de las comunidades éticas y académicas de IA, incluidas las firmas de algunas personas destacadas como la cofundadora del Instituto AI Now Meredith Whittaker y el antiguo director del Centro de Medios Cívicos en el MIT Ethan Zuckerman.

Por qué es importante: aunque la carta se refiere a un artículo concreto, el objetivo de los autores es demostrar un problema sistemático sobre cómo las revistas científicas incentivan a los investigadores a perpetuar algunas normas poco éticas. La estudiante de doctorado en el MIT y coautora de la carta Chelsea Barabas afirma: "Es por eso que seguimos viendo que la ciencia relacionada con la raza emerge una y otra vez, porque las editoriales lo publican". La investigadora postdoctoral en AI Now y también coautora Theodora Dryer, coincide: "La verdadera importancia de este estudio de Springer consiste en que no es el único en absoluto. Es un ejemplo emblemático de un problema y de una crítica que lleva existiendo tanto tiempo". 

La respuesta de Springer: en respuesta a la carta, Springer afirmó que no publicaría el artículo: "El estudio al que se refieren fue enviado para una próxima conferencia de la cual Springer había planeado publicar las actas. Después de un exhaustivo proceso de revisión por pares, el trabajo fue rechazado". La Universidad de Harrisburg también retiró su comunicado de prensa, asegurando que "la facultad estaba actualizando el texto para abordar las preocupaciones planteadas". La Universidad de Harrisburg y un coautor del artículo rechazaron una solicitud de comentarios, así como la petición de recibir una copia del documento original. Los firmantes de la carta subrayan que seguirán presionando por el cumplimiento de su segunda y tercera exigencia.

El contexto más general: desde que la muerte de George Floyd provocó un movimiento internacional por la justicia racial, el campo de la IA y el sector tecnológico en general se han enfrentado al planteamiento sobre el papel que han desempeñado en el fomento del racismo estructural. Durante la semana del 8 de junio, por ejemplo, IBM, Microsoft y Amazon anunciaron el final o la suspensión parcial de sus productos de reconocimiento facial. Esa medida fue la culminación de dos años de presión por parte de los investigadores y activistas para demostrar un vínculo entre estas tecnologías y el exceso de vigilancia policial de las comunidades minoritarias. La mencionada carta abierta es el último avance en este movimiento hacia una mayor responsabilidad ética en la IA.

La directora de investigación del Centro para los Medios, Tecnología y Democracia de la Universidad McGill, Sonja Solomun, concluye: "Realmente queríamos contribuir a este creciente movimiento. En especial, al mirar por nuestras ventanas y ver lo que está sucediendo ahora en Estados Unidos y en todo el mundo, hay muchas cosas en juego".

Ética

  1. Cómo excluye internet a las personas que no hablan inglés

    La tecnología amplifica la brecha del idioma de millones de personas y crea barreras en vez de eliminarlas. Esto les hace más débiles ante las campañas de desinformación y para acceder a servicios públicos, pero por fortuna existen movimientos para conseguir la llamada justicia lingüística

  2. Radiografía del vocabulario de las 'Big Tech' sobre la ética de la IA

    El sector de la inteligencia artificial ha diseñado una serie de términos a su medida para que parezca que se preocupa por desarrollar una tecnología justa y responsable. Ofrecemos una guía práctica para decodificar su glosario y cuestionar las suposiciones y principios que plantean

  3. La IA de Facebook discrimina a las mujeres en los anuncios de trabajo

    Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo