.

Getty

Ética

A 2020 le pido que la ética de la IA se traduzca en acciones reales

1

El año pasado se habló más que nunca sobre los peligros de la inteligencia artificial, pero se hizo muy poco al respecto, como demostró el fallido comité de Google. Ahora, la industria debe empezar a tomar medidas tangibles para que la tecnología sirva exclusivamente para ayudarnos a prosperar

  • por Karen Hao | traducido por Ana Milutinovic
  • 03 Enero, 2020

Empecé a escribir sobre inteligencia artificial (IA) en 2018, el mismo año en el que el sector recibió un gran toque de atención. Aquel año se produjeron algunos avances increíbles en la industria, desde el aprendizaje reforzado hasta las redes generativas antagónicas (GAN, por sus siglas en inglés) para una mejor comprensión del lenguaje natural. Pero también se conocieron varios grandes ejemplos  del daño que estos sistemas pueden causar cuando se implementan demasiado de prisa.

Un Tesla manejado por el sistema de conducción autónoma Autopilot se estrelló matando al conductor, y un Uber autónomo se estrelló y mató a un peatón. Los sistemas comerciales de reconocimiento facial demostraron que funcionaban fatal con personas de piel oscura, pero los gigantes tecnológicos siguieron vendiéndolos de todos modos, a los clientes, incluidas las fuerzas del orden. Tras reflexionar sobre estos acontecimientos, a principios de 2019 escribí una propuesta para la comunidad de IA: dejar de tratar la IA como si fuera magia y asumir la responsabilidad de crearla, aplicarla y regularla de manera ética.

De alguna forma, mi deseo se hizo realidad. En 2019, se habló más que nunca sobre la ética de la IA. Docenas de organizaciones crearon recomendaciones éticas para IA; las compañías se apresuraron a organizar equipos responsables de la inteligencia artificial y exhibirlos frente a los medios. Ahora resulta difícil asistir a una conferencia relacionada con la IA sin que parte del programa se dedique a temas relacionados con la ética: ¿cómo proteger la privacidad de las personas cuando la IA necesita tantos datos? ¿Cómo empoderar a las comunidades marginadas en vez de explotarlas? ¿Cómo seguir confiando en los medios frente a tanta desinformación algorítmicamente creada y distribuida?

Pero hablar no es suficiente. A pesar de todo el debate dedicado a estos problemas, las recomendaciones éticas para IA de muchas organizaciones siguen siendo vagas y difíciles de implementar. Pocas compañías han ejecutado cambios tangibles en su forma de evaluar y aprobar productos y servicios de IA. Estamos cayendo en una trampa de lavado ético, donde la acción real queda diluida por promesas superficiales. En el ejemplo más grave es el de Google. El gigante formó una junta de ética de AI que no tenía poder de veto real sobre los proyectos cuestionables, y un par de miembros resultaron muy polémicos. Todos estos problemas y las críticas que recibieron provocaron la disolución inmediata del comité.

Mientras tanto, la necesidad de una mayor responsabilidad ética solo se ha vuelto más urgente. Los mismos avances realizados con las GAN en 2018 han llevado a la proliferación de ultrafalsificaciones (o deepfakes) hiperrealistas, que han empezado a usarse para acosar a  las mujeres y debilitar la confianza de las personas en la documentación y la evidencia. Los nuevos hallazgos han arrojado luz sobre el enorme impacto climático del aprendizaje profundo, pero las organizaciones han seguido entrenando sus modelos cada vez más grandes y que consumen aun más energía. Los expertos y periodistas también han revelado cuántos humanos hay detrás de la cortina algorítmica. La industria de IA está creando una clase completamente nueva de trabajadores ocultos, moderadores de contenido, etiquetadores de datos, transcriptores que trabajan duro en unas condiciones a menudo abusivas.

Pero no todo es oscuro y sombrío: 2019 fue el año de la mayor campaña comunitaria contra la IA dañina por parte de la sociedad, los formuladores de políticas y los empleados tecnológicos. Varias ciudades, incluidas San Francisco y Oakland, California, y Somerville, Massachusetts (todas en EE. UU.), prohibieron el uso público del reconocimiento facial, y las propuestas de leyes federales pronto podrían prohibirlo también en las viviendas públicas de EE. UU. Los trabajadores de los gigantes tecnológicos como Microsoft, Google y Salesforce también se mostraron cada vez más en contra del uso de IA de sus empresas para perseguir a los migrantes y usar la vigilancia por drones.

Dentro de la comunidad de IA, los investigadores también se duplicaron para mitigar el sesgo de IA y volvieron a analizar los incentivos que conducen al consumo de energía desbocado del campo. Las empresas invirtieron más recursos en la protección de la privacidad del usuario y en la lucha contra los deepfakes y la desinformación. Los expertos y formuladores de políticas empezaron a  colaborar para proponer nuevas leyes para frenar las consecuencias involuntarias sin paralizar la innovación. Y durante la mayor reunión anual de este campo, me conmovió y sorprendió la cantidad de ponencias, talleres y carteles centrados en los problemas del mundo real, tanto los creados por IA como los que la IA podría ayudar a resolver.

Así que para 2020 espero que la industria y la academia mantengan este impulso y realicen cambios concretos desde abajo hacia arriba y de arriba hacia abajo para reorganizar el desarrollo de la IA. Todavía hay tiempo, pero no debemos perder de vista el sueño que anima el campo. Hace décadas, los humanos empezaron buscar máquinas inteligentes que algún día nos pudieran ayudar a resolver algunos de nuestros desafíos más difíciles.

 La IA, en otras palabras, está destinada a ayudar a la humanidad a prosperar. No lo olvidemos.

Ética

  1. Los filtros ultraespecíficos de Trump y Biden para seducir en Facebook

    Ambos candidatos a la presidencia de EE. UU. están invirtiendo mucho en publicidad microsegmentada en la red social. Con las elecciones a la vuelva de la esquina, un nuevo informe revela que sus campañas utilizan datos generales como la edad e intereses muy concretos como ser fan de 'Avatar'

  2. Pulseras de control: la pandemia como excusa para vulnerar derechos

    El coronavirus ha disparado el uso de pulseras y tobilleras para monitorizar a presos y ciudadanos sin un debate previo sobre sus amenazas para la privacidad, y sin haber resuelto sus problemas técnicos. Se trata de un caso claro de vigilancia progresiva que podría normalizarse si no actuamos rápido

  3. Alegato para acabar con los algoritmos de vigilancia predictivos

    La falta de transparencia en su funcionamiento y uso, y el sesgo racista inherente en los datos de entrenamiento significan que estas herramientas no son adecuadas para su propósito por parte de la policía y la justicia. Si no podemos solucionar su racismo, la única opción es dejar de usarlos