.

Ludovic Toinel / Unsplash

Inteligencia Artificial

El mundo empieza a sentir la urgencia de proteger a los niños de la IA

1

Los más pequeños son los más vulnerables a las amenazas de los algoritmos, por eso, Unicef y la Academia de Inteligencia Artificial de Pekín (China) han publicado sendas recomendaciones y van a lanzar proyectos piloto para que empresas y gobiernos empiecen a crear protecciones especiales para ellos

  • por Karen Hao | traducido por Ana Milutinovic
  • 25 Septiembre, 2020

Los algoritmos pueden cambiar el curso de la vida de los niños. Los más pequeños de la casa interactúan con Alexa, que puede grabar sus datos de voz e influir en su habla y en su desarrollo social. Consumen compulsivamente los vídeos de TikTok y YouTube que les muestran los sistemas de recomendación, los cuales terminan dando forma a su visión del mundo.

Los algoritmos también se utilizan cada vez más para determinar cómo es la educación, si los niños recibirán atención médica e incluso si se considera que sus padres son aptos para cuidarlos. A veces, esto puede tener efectos devastadores: el verano pasado, por ejemplo, miles de estudiantes fueron rechazados por distintas universidades después de que los algoritmos, utilizados como sustitutos de pruebas estandarizadas canceladas por la pandemia, predijeran incorrectamente su rendimiento académico.

En otras palabras, los niños suelen estar en la primera línea cuando se trata de usar la inteligencia artificial (IA) y ser utilizados por ella, y eso puede situarlos en una posición perjudicial. "Dado que se están desarrollando intelectual, emocional y físicamente, son muy moldeables", destaca el especialista en políticas para la conectividad digital del Fondo de las Naciones Unidas para la Infancia (Unicef), Steve Vosloo.

Vosloo dirigió la creación del nuevo conjunto de recomendaciones de Unicef, diseñadas para ayudar a gobiernos y empresas a desarrollar políticas de IA que tengan en cuenta las necesidades de los niños. Publicadas el 16 de septiembre, las nueve nuevas pautas son la culminación de varias consultas con legisladores, investigadores de desarrollo infantil, profesionales de la IA y niños de todo el mundo. También se han basado en la Convención sobre los Derechos del Niño de las Naciones Unidas, el tratado de derechos humanos ratificado en 1989.

Las recomendaciones no están destinadas a ser otro conjunto de principios de inteligencia artificial, muchos de los cuales ya dicen lo mismo. Este enero, una evaluación del Berkman Klein Center de la Universidad de Harvard (EE. UU.) de 36 de los documentos más destacados que sirven de guía para las estrategias de IA nacionales y de empresas, encontró ocho temas comunes, entre ellos la privacidad, la protección, la equidad y la comprensibilidad.

Más bien, las recomendaciones de Unicef tienen como objetivo complementar estos temas existentes y adaptarlos a la infancia. Por ejemplo, los sistemas de inteligencia artificial no solo deberían ser comprensibles, sino que tendrían que serlo para los niños. También deben considerar las necesidades de desarrollo tan específicas de los más pequeños. "Los niños tienen derechos adicionales a los de los adultos", subraya Vosloo. También se ha estimado que representan al menos un tercio de los usuarios online, y añade: "No estamos hablando de un grupo minoritario aquí".

Además de mitigar los daños de la IA, el objetivo de los principios consiste en fomentar el desarrollo de sistemas de IA capaces de mejorar el crecimiento y el bienestar de los niños.  Por ejemplo, se ha demostrado que, si están bien diseñadas, las herramientas de aprendizaje basadas en inteligencia artificial mejoran las habilidades de pensamiento crítico y resolución de problemas de los más pequeños, y pueden ser útiles para aquellos con discapacidades de aprendizaje.

Los asistentes de IA emocional, aunque relativamente incipientes, podrían ofrecer apoyo para la salud mental y se ha demostrado que mejoran las habilidades sociales de los niños con autismo. El reconocimiento facial, usado con rigurosas limitaciones, podría ayudar a identificar a víctimas de secuestro y trata.

Los niños también deben recibir educación en inteligencia artificial e impulso para que participen en su desarrollo. No se trata solo de protegerlos, explica Vosloo. Se trata de empoderarlos y darles la posibilidad de dar forma a su futuro.

"Si pensamos en los grupos vulnerables, está claro que los niños son los más vulnerables". Yi Zeng

Unicef no es el único que piensa en este tema. El día antes de la publicación de su borrador de las recomendaciones, la Academia de Inteligencia Artificial de Pekín (BAAI, en China), también publicó un conjunto de principios de inteligencia artificial para niños.

Esta publicación ha llegado un año después de que BAAI presentara los Principios sobre la Inteligencia Artificial de Pekín, entendidos como los valores rectores para el desarrollo de la inteligencia artificial nacional de China. Los nuevos principios descritos específicamente para los niños pretenden ser "una implementación concreta" de los generales, según el director del Centro de Investigación sobre la Ética de la IA y Desarrollo Sostenible de BAAI, Yi Zeng, quien supervisó su elaboración. Los principios chinos están estrechamente alineados con las recomendaciones de Unicef, y también se refieren a la privacidad, la equidad, la comprensibilidad y el bienestar infantil, aunque algunos de los detalles son más específicos para las preocupaciones propias de China. Un principio para mejorar la salud física de los niños, por ejemplo, incluye el uso de IA para ayudar a combatir la contaminación ambiental.

Aunque ambos esfuerzos no están relacionados oficialmente, el momento de su publicación tampoco es casual. Después de una avalancha de principios de IA en los últimos años, los responsables de sendos proyectos afirman que crear pautas más específicas para los niños era el siguiente paso lógico. Zeng señala: "Si pensamos en los grupos vulnerables, está claro que los niños son los más vulnerables. Es por eso que realmente debemos [brindar] atención especial a este grupo de personas". Los equipos se han consultado mutuamente mientras redactaban sus respectivos documentos. Cuando Unicef organizó un taller de consulta en el este de Asia, Zeng asistió como ponente.

Unicef planea llevar a cabo una serie de programas piloto con varios países socios para observar lo prácticas y efectivas que resultan sus recomendaciones en diferentes contextos. Por su parte, BAAI ha formado un grupo de trabajo con representantes de algunas de las empresas más grandes que siguen la estrategia nacional de inteligencia artificial del país, incluida la empresa de tecnología educativa TAL, la de electrónica de consumo Xiaomi, la de visión artificial Megvii y el gigante de internet Baidu. La esperanza es lograr que empiecen a aplicar los principios en sus productos e influir en otras empresas y organizaciones para que sigan su ejemplo.

Tanto Vosloo como Zeng esperan que, al formular las preocupaciones específicas que la IA plantea para los niños, las recomendaciones aumenten la conciencia sobre estos problemas. El responsable concluye: "Hemos entrado en este proyecto con los ojos bien abiertos. Entendemos que este es un territorio nuevo para muchos gobiernos y empresas. Así que, si con el tiempo vemos más ejemplos de niños incluidos en la IA o en el proceso de desarrollo de políticas, más atención sobre cómo se recogen y analizan sus datos, si notamos que la IA se vuelve más comprensible para los niños o sus cuidadores, lo consideraríamos como una victoria para nosotros".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Es hora de cambiar las leyes que dan ventaja a la IA frente al humano

    En su último libro, 'El robot razonable: la inteligencia artificial y la ley', Ryan Abbott advierte que las políticas fiscales fomentan la automatización, útil o no, porque la mano de obra se grava más que el capital, y defiende una regulación neutra que garantice los ingresos fiscales y la productividad

  2. Una revolucionaria técnica de IA aprende casi sin datos de ejemplo

    El aprendizaje 'less than one-shot', o LO-shot, puede enseñar a un modelo de inteligencia artificial a identificar más tipos de objetos que el número de clases de ejemplos con los que ha sido entrenado. Podría lograr que la IA sea más accesible para empresas e industrias y mejorar la privacidad de los datos

  3. GPT-3 pasó una semana comentando en Reddit antes de ser descubierto

    Alguien configuró un bot con una versión del sistema de lenguaje de IA diseñada para responder a preguntas irónicas y lo lanzó al foro. Publicaba una vez por minuto sobre distintos temas, algunos delicados, como conspiraciones y suicidios. El suceso demuestra el potencial negativo de esta opaca herramienta