.

Andrea Daquino

Ética

Radiografía del vocabulario de las 'Big Tech' sobre la ética de la IA

1

El sector de la inteligencia artificial ha diseñado una serie de términos a su medida para que parezca que se preocupa por desarrollar una tecnología justa y responsable. Ofrecemos una guía práctica para decodificar su glosario y cuestionar las suposiciones y principios que plantean

  • por Karen Hao | traducido por Ana Milutinovic
  • 20 Abril, 2021

Los investigadores de inteligencia artificial (IA) suelen decir que crear un buen modelo de aprendizaje automático es más una cuestión de arte que de ciencia. Lo mismo podría decirse de las buenas relaciones públicas. Elegir las palabras adecuadas para conseguir un tono positivo o replantear algún tema sobre la IA es una tarea delicada: si se hace bien, podría fortalecer la imagen de la marca, pero si se hace mal, puede generar críticas aún peores.

Los gigantes tecnológicos lo saben bien. En los últimos años, han tenido que aprender este arte rápidamente, al enfrentarse a una creciente desconfianza pública en sus acciones y a mayores críticas sobre sus investigaciones de IA y tecnologías.

Por eso han desarrollado un nuevo vocabulario para poder usarlo cuando quieran asegurar a la sociedad de que se preocupan profundamente por desarrollar la IA de manera responsable, pero no quieren provocar un análisis excesivo. Presentamos una guía práctica para decodificar su lenguaje y cuestionar las suposiciones y principios que plantean.

responsabilidad o accountability en inglés (sustantivo): la acción de responsabilizar a otra persona por las consecuencias cuando un sistema de inteligencia artificial falla.

precisión o accuracy en inglés (sustantivo): precisión técnica. La más importante medida de éxito en la evaluación del rendimiento de un modelo de IA. Ver validación.

adversario o adversary en inglés (sustantivo): un ingeniero solitario capaz de trastocar un potente sistema de inteligencia artificial que genera ingresos. Ver resistenciaseguridad.

alineamiento o alignment en inglés (sustantivo): el desafío de diseñar sistemas de inteligencia artificial que hagan lo que les decimos y valoren lo que valoramos. Término expresado de forma abstracta deliberadamente. Evita usar ejemplos reales de las consecuencias no deseadas dañinas. Ver protección.

inteligencia artificial  general o artificial general intelligence en inglés (expresión): un hipotético dios de la inteligencia artificial que probablemente esté muy lejos de hacerse realidad, pero quizás sea inminente. Puede ser realmente bueno o realmente malo, lo que resulte más útil de forma retórica. Obviamente hay que construir el bueno. Que es caro. Por eso, se necesita más dinero. Ver riesgos a largo plazo.

auditoría o audit en inglés (sustantivo): revisión de una empresa o sistema de inteligencia artificial llevada a cabo por un tercero al que se paga para que el proceso  parezca más transparente sin que haya obligación de cambiar nada. Ver evaluación de impacto.

aumento o augment en inglés (verbo): incremento de la productividad de los trabajadores de cuello blanco o de oficina. Efecto secundario: automatizar trabajos de cuello azul, o manuales. Triste, pero inevitable.

beneficioso o beneficial en inglés (adjetivo): descripción general de lo que intentamos construir. Convenientemente mal definido. Ver valor.

por diseño o by design en inglés (expresión): como "justicia por diseño" o "responsabilidad por diseño". Una expresión que indica que pensamos mucho en las cosas importantes desde el principio.

cumplimiento o compliance en inglés (sustantivo): la acción de seguir la ley. Todo lo que no sea ilegal, vale.

etiquetadores de datos o data labelers en inglés (expresión): personas que supuestamente existen detrás de la interfaz Mechanical Turk de Amazon para realizar trabajos de limpieza de datos por poco dinero. No se sabe con seguridad quiénes son. Nunca los conocí.

democratizar o democratize en inglés (verbo): Escalar una tecnología a toda costa. Una justificación para concentrar los recursos. Ver escalar.

diversidad, equidad e inclusión o diversity, equity, and inclusion en inglés (expresión): la acción de contratar ingenieros e investigadores de grupos marginados para poder mostrarlos al público. Si cuestionan el statu quodespídalos.

eficiencia o efficiency en inglés (sustantivo): usar menos datos, memoria, personal o energía para construir un sistema de inteligencia artificial.

comité de ética o ethics board en inglés (expresión): grupo de asesores sin poder real, convocados para dar la sensación de que una empresa escucha activamente. Ejemplos: el comité de ética de inteligencia artificial de Google (cancelado), la junta de supervisión de Facebook (aún existe).

principios éticos o ethics principles en inglés (expresión): conjunto de obviedades que se utilizan para señalar las buenas intenciones. Hay que mantenerlo en un nivel alto. Cuanto más vago sea el lenguaje, mejor. Ver IA responsable.

explicable o explainable en inglés (adjetivo): un sistema de inteligencia artificial que el desarrollador y el usuario pueden comprender. Mucho más difícil de lograr en el caso de las personas sobre las que se usa. Probablemente no valga la pena el esfuerzo. Ver interpretable.

equidad o fairness en inglés (sustantivo): una complicada  noción  de imparcialidad que se utiliza para describir los algoritmos no sesgados. Puede definirse de muchas formas según interese.

para el bien o for good en inglés (expresión): como "IA para el bien" o "datos para el bien". Una iniciativa completamente tangencial al negocio principal que ayuda a generar una buena publicidad.

predecir o foresight en inglés (sustantivo): la capacidad de mirar hacia el futuro. Básicamente imposible: por lo tanto, una explicación perfectamente razonable de por qué un sistema de inteligencia artificial no se puede librar de las consecuencias no deseadas.

marco o framework en inglés (sustantivo): conjunto de pautas para la toma de decisiones. Una buena manera de parecer considerado mientras retrasa la toma de decisiones real.

generalizable (adjetivo): señal de un buen modelo de IA que sigue funcionando en condiciones cambiantes. Ver el mundo real.

gobernanza o governance en inglés (sustantivo): burocracia.

diseño centrado en el ser humano o human-centered design en inglés (expresión): un proceso que implica el uso de "personas" para imaginar lo que un usuario promedio podría querer de su sistema de inteligencia artificial. Podría implicar solicitar feedback de usuarios reales. Solo si hay tiempo. Ver partes interesadas.

personas involucradas o human in the loop en inglés (expresión): cualquier persona que forme parte de un sistema de inteligencia artificial. Sus responsabilidades van desde falsear las capacidades del sistema hasta evitar acusaciones de automatización.

evaluación de impacto o impact assessment en inglés (expresión): revisión que uno hace de su propia empresa o su propio sistema de inteligencia artificial para mostrar su voluntad de considerar sus inconvenientes sin cambiar nada. Ver auditoría.

interpretable (adjetivo): descripción de un sistema de inteligencia artificial cuyo funcionamiento el desarrollador puede seguir paso a paso para comprender cómo llega a su resultado. En realidad, probablemente es solo una regresión lineal.  IA suena mejor.

integridad o integrity en inglés (sustantivo): problemas que socavan el rendimiento técnico de un modelo o la capacidad de escala de una empresa. No confundir con temas que perjudican a la sociedad. No confundir con honestidad.

interdisciplinario o interdisciplinary en inglés (adjetivo): término utilizado para cualquier equipo o proyecto que involucre personas que no programan: investigadores de usuarios, jefes de producto, filósofos morales. Especialmente filósofos morales.

riesgos a largo plazo o long-term risks en inglés (sustantivo): cosas malas que podrían tener efectos catastróficos en un futuro lejano. Probablemente nunca ocurrirán, pero es más importante estudiarlas y así evitar los daños inmediatos de los sistemas de IA existentes.

socios o partners en inglés (sustantivo): otros grupos de élite con los que una empresa que comparte su visión del mundo y con los que puede trabajar para mantener su statu quo. Ver partes interesadas.

pérdida de privacidad o privacy trade-off en inglés (expresión): el noble sacrificio del control individual sobre la información personal por los beneficios grupales como los avances en el cuidado de la salud impulsados por la inteligencia artificial, que también resultan muy rentables.

progreso o progress en inglés (sustantivo): avance científico y tecnológico. Un bien inherente.

mundo real o real world en inglés (expresión): lo opuesto al mundo virtual. Un entorno físico dinámico lleno de sorpresas inesperadas para las que los modelos de IA están entrenados para sobrevivir. No confundir con los seres humanos y la sociedad.

regulación o regulation en inglés (sustantivo): lo que se pide para transferir la responsabilidad de mitigar la IA dañina a los responsables de la formulación de políticas. No confundir con políticas que obstaculizarían el crecimiento.

IA responsable o responsible AI en inglés (sustantivo): cualquier trabajo en una empresa que la sociedad podría interpretar como un sincero esfuerzo para mitigar los daños de los sistemas de IA.

resistencia o robustness en inglés (sustantivo): la capacidad de un modelo de inteligencia artificial de funcionar de manera consistente y precisa bajo los nefastos intentos de alimentarlo con datos contaminados.

protección o safety en inglés (sustantivo): el desafío de construir sistemas de inteligencia artificial que no se desvíen de las intenciones de su diseñador. No debe confundirse con la construcción de sistemas de inteligencia artificial que no fallan. Ver alineación.

escala o scale en inglés (sustantivo): el estado final de facto que cualquier buen sistema de IA debería procurar lograr.

seguridad o security en inglés (sustantivo): la acción de proteger los datos valiosos o sensibles y los modelos de inteligencia artificial para que no sean violados por malos actores. Ver adversario.

partes interesadas o stakeholders en inglés (sustantivo): accionistas, reguladores, usuarios. La gente en el poder a la que hay que mantener feliz.

transparencia o transparency en inglés (sustantivo): revelar los datos y código. Es algo malo para la información privilegiada y confidencial. Por eso es realmente difícil; francamente, incluso imposible conseguirla. No debe confundirse con una comunicación clara sobre cómo funciona realmente un sistema.

confiable o trustworthy en inglés (adjetivo): evaluación de un sistema de inteligencia artificial que se puede generar con suficiente publicidad coordinada.

renta básica universal o universal basic income en inglés (expresión): la idea de que pagar un salario fijo a todo el mundo resolverá la alteración económica masiva causada cuando la automatización provoque la pérdida generalizada de puestos de trabajo. Popularizado por el candidato presidencial estadounidense de 2020 Andrew Yang. Ver redistribución de la riqueza.

validación o validation en inglés (sustantivo): proceso de probar un modelo de IA con datos distintos de aquellos en los que se entrenó para comprobar si mantiene su precisión.

valor o value en inglés (sustantivo): beneficio intangible que se brinda a los usuarios y que genera una gran cantidad de dinero.

valores o values en inglés (sustantivo): los que tenemos. Hay que recordárselo a la gente.

redistribución de la riqueza o wealth redistribution en inglés (expresión): una idea útil para dejar caer cuando la gente nos critica por utilizar demasiados recursos y generar demasiado dinero. ¿Cómo funcionaría la redistribución de la riqueza? Con la renta básica universal, por supuesto. Tampoco es algo fácil de entender por sí mismo. Requeriría regulación. Ver regulación.

suspender una publicación o withhold publication en inglés (expresión): la acción benévola de decidir no hacer público un programa porque podría caer en manos de un mal actor. Es mejor limitar el acceso a los socios que puedan permitírselo.

Ética

  1. Cómo excluye internet a las personas que no hablan inglés

    La tecnología amplifica la brecha del idioma de millones de personas y crea barreras en vez de eliminarlas. Esto les hace más débiles ante las campañas de desinformación y para acceder a servicios públicos, pero por fortuna existen movimientos para conseguir la llamada justicia lingüística

  2. La IA de Facebook discrimina a las mujeres en los anuncios de trabajo

    Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo

  3. No hay forma de crear algoritmos de vigilancia que no sean racistas

    Una investigación demuestra que da igual que se entrenen con datos de la policía o con denuncias de las víctimas porque toda la información está sesgada por las propias desigualdades de la sociedad. La única solución para evitar que la inteligencia artificial policial perpetúe la injusticia consiste en no usarla