.

Ética

Qué puede hacer el budismo por la ética de la IA

1

Los valores de esta filosofía de vida nos enseñan a enfocar nuestra energía en eliminar el sufrimiento del mundo, justo lo que necesita la inteligencia artificial

  • por Soraj Hongladarom | traducido por Ana Milutinovic
  • 12 Enero, 2021

El crecimiento explosivo de la inteligencia artificial (IA) ha aumentado la esperanza de que la tecnología nos ayude a resolver muchos de los problemas más complicados del mundo. Sin embargo, también ha generado una gran preocupación por su enorme poder y un consenso generalizado sobre la urgencia de supervisar sus usos para evitar que vulneren nuestros derechos.

Muchos grupos han debatido y propuesto pautas éticas sobre cómo se debe desarrollar e implementar la IA: la organización global para ingenieros IEEE ha publicado un documento de 280 páginas sobre el tema (al que contribuí), y la Unión Europea también ha diseñado su propio marco. El Inventario global de pautas éticas de IA ya reune más de 160 recomendaciones de diferentes partes del mundo.

Lamentablemente, la mayoría de ellas han sido creadas por grupos u organizaciones de América del Norte y Europa: una encuesta publicada por la científica social Anna Jobin y sus colegas encontró 21 en EE. UU., 19 en la UE, 13 en Reino Unido, cuatro en Japón, y una en los Emiratos Árabes Unidos, India, Singapur y Corea del Sur.

Las pautas reflejan los valores de las personas que las emiten. El hecho de que la mayoría de las pautas éticas para la IA se creen en países occidentales significa que el campo está dominado por valores occidentales como el respeto por la autonomía y los derechos de las personas, especialmente porque las escasas pautas diseñadas por otros países también reflejan las de Occidente.

Las que se escriben en diferentes países pueden ser similares porque algunos valores son universales. Sin embargo, para que de verdad reflejen las opiniones de las personas de los países no occidentales, también deberían representar los valores tradicionales de cada cultura.

Tanto en Oriente como en Occidente, las personas necesitan compartir sus ideas y escuchar las de los demás para enriquecer sus propios puntos de vista. Como el desarrollo y el uso de la IA se extienden por todo el mundo, nuestra forma de abordarla debe basarse en todas las tradiciones intelectuales principales.

Con eso en mente, creo que los principios del budismo podrían beneficiar a cualquiera que trabaje en la ética de la IA en cualquier parte del mundo, y no solo en las culturas tradicionalmente budistas (que se encuentran en su mayoría en el este y principalmente en el sudeste asiático).

El budismo propone una forma de pensar sobre la ética basada en el supuesto de que todos los seres sintientes quieren evitar el dolor. Por eso, el Buda enseña que una acción es buena si conduce a la liberación del sufrimiento.

La implicación de esta enseñanza en la inteligencia artificial es que cualquier uso ético de la IA debe procurar disminuir el dolor y el sufrimiento. En otras palabras, por ejemplo, la tecnología de reconocimiento facial solo debe usarse si se puede demostrar que reduce el sufrimiento o fomenta el bienestar. Además, el objetivo debería ser reducir el sufrimiento de todos, no solo de aquellos que interactúan directamente con la IA.

Por supuesto, podemos interpretar este objetivo de manera amplia para incluir la reparación de un sistema o proceso que no sea satisfactorio, o cambiar cualquier situación a mejor. Usar la tecnología para discriminar a las personas, o para vigilarlas y reprimirlas, claramente no sería ético. Cuando hay áreas grises o la naturaleza del impacto no está clara, la responsabilidad de la prueba recaería en aquellos interesados en demostrar que una aplicación particular de la IA no causa daño.

No hacer daño

La ética de la IA inspirada en el budismo también supondría que para vivir según estos principios es necesario el autocrecimiento. Esto significa que quienes están involucrados con la IA deben entrenarse continuamente para acercarse al objetivo de eliminar por completo el sufrimiento. Alcanzar la meta no es tan importante; lo importante es que emprendan la práctica para lograrlo. La práctica es lo que cuenta.

Los diseñadores y programadores deben practicar para reconocer este objetivo y establecer los pasos específicos que deberían dar para que su producto encarne el ideal. Es decir, la IA que producen debe tener como objetivo ayudar a la gente a eliminar el sufrimiento y promover el bienestar.  

Para que todo esto sea posible, las empresas y agencias gubernamentales que desarrollan o utilizan la IA deben asumir su parte de responsabilidad. Eso también es una enseñanza budista y, en el contexto de la ética de la IA, requiere mecanismos jurídicos y políticos eficaces, así como independencia judicial. Estos componentes son esenciales para que cualquier pauta ética de la IA funcione según lo previsto.

Otro concepto clave en el budismo es la compasión o el deseo y compromiso de eliminar el sufrimiento de los demás. La compasión también requiere autocrecimiento, y significa que los actos dañinos como ejercer el poder de uno para reprimir a otros no tienen lugar en la ética budista. No es necesario ser monje para ejercer la ética budista, pero sí hay que practicar el autocrecimiento y la compasión en la vida diaria.

Podemos ver que los valores promovidos por el budismo, incluidos la responsabilidad, la justicia y la compasión, son en su mayoría los mismos que se encuentran en otras tradiciones éticas. Esto no debe sorprender; todos somos seres humanos, al fin y al cabo. La diferencia consiste en que el budismo defiende estos valores de una manera distinta y quizás pone un mayor énfasis en el autocrecimiento.

El budismo tiene mucho que ofrecer a cualquiera que piense en el uso ético de la tecnología, y también a los interesados en la IA. Creo que lo mismo ocurre con muchos otros sistemas de valores no occidentales. Las pautas éticas de la IA deben basarse en la rica diversidad de pensamiento de las muchas culturas del mundo para reflejar una variedad más amplia de tradiciones e ideas sobre cómo abordar los problemas éticos. El futuro de la tecnología sería más brillante de esa manera.

*Soraj Hongladarom es profesor de filosofía en el Centro de Ciencia, Tecnología y Sociedad de la Universidad de Chulalongkorn en Bangkok (Tailandia).

Ética

  1. Radiografía del vocabulario de las 'Big Tech' sobre la ética de la IA

    El sector de la inteligencia artificial ha diseñado una serie de términos a su medida para que parezca que se preocupa por desarrollar una tecnología justa y responsable. Ofrecemos una guía práctica para decodificar su glosario y cuestionar las suposiciones y principios que plantean

  2. La IA de Facebook discrimina a las mujeres en los anuncios de trabajo

    Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo

  3. Ética para inversores: el coste de apoyar tecnologías que incitan a odio

    Twitter y Parler, que ayudaron a impulsar el ataque al Capitolio, no existirían sin capital de riesgo. Varios expertos piden que asuman la responsabilidad y amenazas de los productos que financian en lugar de limitarse a firmar un cheque y esperar los beneficios