.

William Isaac empezó a investigar el sesgo en los algoritmos de vigilancia policial predictiva en 2016

Inteligencia Artificial

"La IA no solo plantea un riesgo hipotético. Es una amenaza real"

1

A pesar de los problemas cada vez mayores de la inteligencia artificial, el científico líder de Ética y Sociedad en DeepMind, William Isaac, confía en su potencial para ofrecer un amplio beneficio a la sociedad. Pero, para lograrlo, debemos entender bien sus retos y solucionarlos antes de implementarla

  • por Karen Hao | traducido por Ana Milutinovic
  • 11 Noviembre, 2020

Desde que los humanos empezamos a construir máquinas, empezamos a tener el día en el que pudieran destruirnos. Stephen Hawking advirtió de que la inteligencia artificial (IA) podría significar el fin de la civilización. Pero, para muchos investigadores de inteligencia artificial, estos debates parecen estar a la deriva. No es que no teman que la IA cause estragos, sino que ya está sucediendo, pero no como la mayoría de la gente esperaba. 

La IA ya está evaluando a los candidatos para puestos de trabajo, diagnosticando enfermedades e identificando a sospechosos de delitos. Pero en vez de ayudar a que estas decisiones sean más eficaces o justas, a menudo perpetúa los sesgos de los humanos en cuyas opiniones se entrenó. 

William Isaac es el principal científico investigador del equipo de ética y sociedad de la start-up de inteligencia artificial DeepMind, adquirida por Google en 2014. También es copresidente de la conferencia Equidad, Responsabilidad y Transparencia (Fairness, Accountability, and Transparency), la importante reunión anual de expertos en inteligencia artificial, científicos sociales y abogados que trabajan en este campo. Le hemos preguntado sobre los desafíos actuales y potenciales con los que se enfrenta el desarrollo de la IA, y también sobre las soluciones.

¿Deberíamos preocuparnos por la IA superinteligente?

Habría que reformular la pregunta. Las amenazas se superponen, independientemente de si se trata de vigilancia predictiva y evaluación de riesgos a corto plazo, o de sistemas más avanzados y escalados a largo plazo. Muchos de estos problemas también tienen una base histórica. Por lo tanto, los posibles riesgos y las formas de abordarlos no son tan abstractos como pensamos.

Hay tres áreas que quiero destacar. Probablemente la más urgente sea la cuestión sobre la alineación de valores: ¿cómo se diseña un sistema capaz de comprender e implementar las diversas formas de preferencias y valores de una sociedad? En los últimos años, hemos visto algunos intentos por parte de los legisladores, la industria y otros de tratar de incorporar valores en los sistemas técnicos a escala, en distintos ámbitos como la vigilancia policial predictiva, evaluaciones de riesgo, contratación, etcétera. Está claro que presentan algún tipo de sesgo que refleja la sociedad.

El sistema ideal equilibraría todas las necesidades de muchas partes interesadas y de gran parte de las personas de la población. Pero ¿cómo podría la sociedad conciliar su propia historia con las aspiraciones? Todavía tenemos dificultades para responder a eso, y esa cuestión se volverá exponencialmente más complicada. Resolver ese problema no es solo un problema del futuro, sino también del presente actual.

La segunda sería lograr un beneficio social demostrable. Por ahora, todavía hay poca evidencia empírica que valide que las tecnologías de IA lograrán el beneficio social amplio al que aspiramos. 

Por último, creo que lo que más nos preocupa a todos los que trabajamos en este campo es: qué representan los fuertes mecanismos de supervisión y la responsabilidad. 

¿Cómo superar estos riesgos y desafíos?

Hay tres cosas que ayudarían mucho. La primera es desarrollar un músculo colectivo para la innovación y la supervisión responsables. Asegurarse de pensar dónde existen las formas de discordancia, sesgo o daño, de desarrollar buenos procesos para garantizar que todos los grupos participen en el diseño tecnológico. Los grupos que han sido históricamente marginados a menudo no son los que tienen cubiertas sus necesidades. Así que, el diseño de procesos resulta importante para lograrlo.

La segunda es acelerar el desarrollo de las herramientas sociotécnicas para realizar este trabajo. No disponemos de muchas herramientas. 

La última consiste en proporcionar más fondos y formación para investigadores y profesionales, en particular para los de color, para llevar a cabo este trabajo. No solo en el aprendizaje automático, sino también en CTS [ciencia, tecnología y sociedad] y en las ciencias sociales. No solo queremos tener unos pocos individuos, sino una comunidad de investigadores para comprender realmente la variedad de posibles daños que plantean los sistemas de IA y cómo mitigarlos con éxito.

¿Hasta dónde han llegado los investigadores de IA en estos desafíos y cuánto les falta todavía para llegar ahí?

Recuerdo que, en 2016, la Casa Blanca acababa de publicar un informe de big data y había un fuerte sentimiento de optimismo de que podríamos usar los datos y el aprendizaje automático para resolver algunos problemas sociales insuperables. Al mismo tiempo, había investigadores de la comunidad académica que habían estado alertando en un sentido muy abstracto: "Ojo, hay algunos posibles daños que estos sistemas podrían provocar". Pero, en general, no habían interactuado en absoluto. Existían en sus núcleos particulares.

Desde entonces, hemos tenido mucha más investigación dirigida a esta intersección entre los conocidos errores dentro de los sistemas de aprendizaje automático y su aplicación en la sociedad. Y cuando las personas comenzaron a ver esa interacción, se dieron cuenta: "Vale, esto no es solo un riesgo hipotético. Es una amenaza real". Entonces, si miramos el campo en fases, la primera fase destacó mucho y puso de manifiesto que estas preocupaciones eran reales. La segunda fase ahora empieza a abordar cuestiones sistémicas más amplias.

Entonces, ¿es optimista sobre la posibilidad de conseguir una IA ampliamente beneficiosa?

Lo soy. Los últimos años me han dado muchas esperanzas. El reconocimiento facial podría servir como un ejemplo. El gran trabajo de Joy Buolamwini, Timnit Gebru y Deb Raji demostró las disparidades interseccionales en la precisión entre los sistemas de reconocimiento facial [es decir, mostraron que estos sistemas eran mucho menos precisos con los rostros de mujeres negras que con los de hombres blancos]. También está el movimiento de la sociedad civil para una defensa rigurosa de los derechos humanos contra el uso inadecuado del reconocimiento facial. Y el gran trabajo de los legisladores, reguladores y de los grupos comunitarios desde las bases para comunicar exactamente qué eran los sistemas de reconocimiento facial y qué posibles riesgos representaban, y para exigir claridad sobre cuáles serían los beneficios para la sociedad. Ese es un modelo de cómo podríamos imaginarnos el compromiso con otros avances en la IA.

El problema con el reconocimiento facial es que tuvimos que resolver estas cuestiones éticas y de valores mientras la tecnología ya se usaba públicamente. En el futuro, espero que algunos de esos debates sucedan antes de que surjan los posibles daños.

¿Con qué sueña cuando piensa en el futuro de la IA?

Podría ser un gran nivelador. Por ejemplo, si hubiera maestros de IA o tutores que pudieran estar disponibles para los estudiantes y las comunidades donde el acceso a la educación y a los recursos es muy limitado, eso sería muy empoderador. Es algo no trivial que se puede pedir de esta tecnología. ¿Cómo saber si empodera? ¿Si es socialmente beneficioso? 

Acabé mis estudios de posgrado en Michigan (EE. UU.) durante la crisis del agua en Flint (EE. UU.). Cuando surgieron las primeras incidencias de las tuberías de plomo, los registros sobre dónde se ubicaban los sistemas de tuberías estaban en el sótano de un edificio administrativo. La falta de acceso a las tecnologías había creado una situación de gran desventaja. Significa que las personas que crecieron en esas comunidades, más del 50 % de los cuales eran afroamericanos, vivían en un entorno donde no recibían servicios ni recursos básicos.

Entonces la pregunta es: ¿podrían estas tecnologías mejorar su calidad de vida si se gestionan de manera apropiada? El aprendizaje automático pudo identificar y predecir dónde estaban las tuberías de plomo, y así reducir los costes reales de reparación para la ciudad. Pero fue una empresa enorme y rara. Y sabemos que Flint todavía no ha eliminado todas las tuberías, por lo que también existen desafíos políticos y sociales; el aprendizaje automático no los resolverá todos. Pero la esperanza es que desarrollemos herramientas que empoderen a estas comunidades y proporcionen un cambio significativo en sus vidas. En eso pienso cuando hablamos de lo que estamos creando. Eso es lo que yo quiero ver.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La nueva IA de Google DeepMind aprende a jugar videojuegos sola

    El nuevo agente de Google DeepMind podría enfrentarse a una variedad de juegos que nunca antes había visto observando a jugadores humanos

  2. Cómo la IA nos acerca al paradigma de robots capaces de moverse por el mundo real

    El aprendizaje por refuerzo puede ayudar a los robots a enfrentarse a nuevas tareas que no han intentado antes

  3. Una ‘spinoff’ de OpenAI crea una IA que permite a robots aprender como los humanos

    Pero ¿puede pasar del laboratorio al almacén?