.

Getty

Ética

A 2020 le pido que la ética de la IA se traduzca en acciones reales

1

El año pasado se habló más que nunca sobre los peligros de la inteligencia artificial, pero se hizo muy poco al respecto, como demostró el fallido comité de Google. Ahora, la industria debe empezar a tomar medidas tangibles para que la tecnología sirva exclusivamente para ayudarnos a prosperar

  • por Karen Hao | traducido por Ana Milutinovic
  • 03 Enero, 2020

Empecé a escribir sobre inteligencia artificial (IA) en 2018, el mismo año en el que el sector recibió un gran toque de atención. Aquel año se produjeron algunos avances increíbles en la industria, desde el aprendizaje reforzado hasta las redes generativas antagónicas (GAN, por sus siglas en inglés) para una mejor comprensión del lenguaje natural. Pero también se conocieron varios grandes ejemplos  del daño que estos sistemas pueden causar cuando se implementan demasiado de prisa.

Un Tesla manejado por el sistema de conducción autónoma Autopilot se estrelló matando al conductor, y un Uber autónomo se estrelló y mató a un peatón. Los sistemas comerciales de reconocimiento facial demostraron que funcionaban fatal con personas de piel oscura, pero los gigantes tecnológicos siguieron vendiéndolos de todos modos, a los clientes, incluidas las fuerzas del orden. Tras reflexionar sobre estos acontecimientos, a principios de 2019 escribí una propuesta para la comunidad de IA: dejar de tratar la IA como si fuera magia y asumir la responsabilidad de crearla, aplicarla y regularla de manera ética.

De alguna forma, mi deseo se hizo realidad. En 2019, se habló más que nunca sobre la ética de la IA. Docenas de organizaciones crearon recomendaciones éticas para IA; las compañías se apresuraron a organizar equipos responsables de la inteligencia artificial y exhibirlos frente a los medios. Ahora resulta difícil asistir a una conferencia relacionada con la IA sin que parte del programa se dedique a temas relacionados con la ética: ¿cómo proteger la privacidad de las personas cuando la IA necesita tantos datos? ¿Cómo empoderar a las comunidades marginadas en vez de explotarlas? ¿Cómo seguir confiando en los medios frente a tanta desinformación algorítmicamente creada y distribuida?

Pero hablar no es suficiente. A pesar de todo el debate dedicado a estos problemas, las recomendaciones éticas para IA de muchas organizaciones siguen siendo vagas y difíciles de implementar. Pocas compañías han ejecutado cambios tangibles en su forma de evaluar y aprobar productos y servicios de IA. Estamos cayendo en una trampa de lavado ético, donde la acción real queda diluida por promesas superficiales. En el ejemplo más grave es el de Google. El gigante formó una junta de ética de AI que no tenía poder de veto real sobre los proyectos cuestionables, y un par de miembros resultaron muy polémicos. Todos estos problemas y las críticas que recibieron provocaron la disolución inmediata del comité.

Mientras tanto, la necesidad de una mayor responsabilidad ética solo se ha vuelto más urgente. Los mismos avances realizados con las GAN en 2018 han llevado a la proliferación de ultrafalsificaciones (o deepfakes) hiperrealistas, que han empezado a usarse para acosar a  las mujeres y debilitar la confianza de las personas en la documentación y la evidencia. Los nuevos hallazgos han arrojado luz sobre el enorme impacto climático del aprendizaje profundo, pero las organizaciones han seguido entrenando sus modelos cada vez más grandes y que consumen aun más energía. Los expertos y periodistas también han revelado cuántos humanos hay detrás de la cortina algorítmica. La industria de IA está creando una clase completamente nueva de trabajadores ocultos, moderadores de contenido, etiquetadores de datos, transcriptores que trabajan duro en unas condiciones a menudo abusivas.

Pero no todo es oscuro y sombrío: 2019 fue el año de la mayor campaña comunitaria contra la IA dañina por parte de la sociedad, los formuladores de políticas y los empleados tecnológicos. Varias ciudades, incluidas San Francisco y Oakland, California, y Somerville, Massachusetts (todas en EE. UU.), prohibieron el uso público del reconocimiento facial, y las propuestas de leyes federales pronto podrían prohibirlo también en las viviendas públicas de EE. UU. Los trabajadores de los gigantes tecnológicos como Microsoft, Google y Salesforce también se mostraron cada vez más en contra del uso de IA de sus empresas para perseguir a los migrantes y usar la vigilancia por drones.

Dentro de la comunidad de IA, los investigadores también se duplicaron para mitigar el sesgo de IA y volvieron a analizar los incentivos que conducen al consumo de energía desbocado del campo. Las empresas invirtieron más recursos en la protección de la privacidad del usuario y en la lucha contra los deepfakes y la desinformación. Los expertos y formuladores de políticas empezaron a  colaborar para proponer nuevas leyes para frenar las consecuencias involuntarias sin paralizar la innovación. Y durante la mayor reunión anual de este campo, me conmovió y sorprendió la cantidad de ponencias, talleres y carteles centrados en los problemas del mundo real, tanto los creados por IA como los que la IA podría ayudar a resolver.

Así que para 2020 espero que la industria y la academia mantengan este impulso y realicen cambios concretos desde abajo hacia arriba y de arriba hacia abajo para reorganizar el desarrollo de la IA. Todavía hay tiempo, pero no debemos perder de vista el sueño que anima el campo. Hace décadas, los humanos empezaron buscar máquinas inteligentes que algún día nos pudieran ayudar a resolver algunos de nuestros desafíos más difíciles.

 La IA, en otras palabras, está destinada a ayudar a la humanidad a prosperar. No lo olvidemos.

Ética

  1. 'Blockchain' necesita su propio subcampo de ética y lo necesita ya

    Aunque todavía generan poco interés, cada vez más entidades importantes como gobiernos, bancos y grandes empresas empiezan a trabajar con cadenas de bloques. Investigar y desarrollar la tecnología tendrá consecuencias y debemos empezar a tener en cuenta cuáles son, según los expertos

  2. Ocho nuevos datos sobre el caso de las donaciones de Epstein al MIT

    Una investigación externa sobre el asunto encargada por la universidad revela que sus directivos querían aprobar donaciones de hasta 10 millones de dólares, que el presidente sabía que Joi Ito quería aceptar su dinero y que el magnate acudió al acto conmemorativo de Marvin Minsky ​

  3. Crear 'deepfakes' de los clientes para esquivar las leyes de privacidad

    La 'start-up' D-ID crea ultrafalsificaciones de la gente que aparece en los vídeos de las cámaras de seguridad para que las empresas puedan usar el contenido en su negocio sin vulnerar su anonimato. Pero los expertos afirman que esta estrategia viola el RGPD europeo