.

Inteligencia Artificial

A quién culpar cuando la culpa es del robot

1

Obama intenta no quedarse atrás en el impulso de la inteligencia artificial, por ello estña analizando cómo regularla y cómo informar al público sobre un debate con demasiados frentes abiertos

  • por Mark Harris | traducido por Teresa Woods
  • 27 Mayo, 2016

¿Debe el Gobierno de Estados Unidos regular la inteligencia artificial (IA)? Ese fue el tema principal del primer taller de la Casa Blanca sobre las implicaciones legales y de gobernanza de la IA, celebrado en Seattle (EEUU) el pasado martes. Allí, el director adjunto de Tecnología de la Casa Blanca, Ed Felten, afirmó: "Estamos observando cada vez más problemas asociados a la IA y aprendizaje de máquinas por todo el Gobierno. No nos encontramos ni remotamente cerca de regular ampliamente la IA. Pero el reto ahora consiste en cómo asegurar que la IA siga siendo segura, controlable y predecible mientras se vaya haciendo más inteligente".

Una de los objetivos clave del taller, según el profesor de derecho de la Universidad de Washington (EEUU) Ryan Calo, que fue uno de los organizadores, es ayudar al público a entender en qué punto está la tecnología ahora y hacia dónde se dirige. "La idea no es que el Gobierno se entrometa y regule la IA sino que emplee sus otras muchas armas, como la coordinación entre agencias y las competencias de adquisición", dijo. Los asistentes incluyeron emprendedores tecnológicos, académicos y miembros del público.

En su ponencia, el CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni, señaló que aún nos encontramos en la Edad Media del aprendizaje de máquinas. La inteligencia artificial atual de momento solo sirve para problemas bien estructurados como los juegos de mesa y la conducción en autopista. Fue uno de los primeros defensores de que un enfoque colaborativo en IA puede ayudar a que la vida humana sea más segura y eficiente. "Los errores de hospital representan la tercera causa de muerte en Estados Unidos. La IA puede ayudarnos allí. Cada año, muere gente porque no la IA no se emplea correctamente en los hospitales", critió Etzioni.

Foto: El CEO del Instituto Allen para la Inteligencia Artificial, Oren Etzioni (izquierda) habla con asistentes del taller de la Casa Blanca sobre la intelligencia artificial. Crédito: Team Photogenic.

No obstante, el experto considera que aún es demasiado pronto para hablar de regular la IA. Según sus palabras: "El aprendizaje profundo aún es un 99% trabajo e ingenio humano. 'Lo hizo mi robot', no es una excusa. Hemos de asumir la responsabilidad de lo que hagan nuestros robots, IA y algoritmos".

Un panel sobre "sabiduría artificial" se centró en las situaciones en las que las interacciones entre humanos y la IA se tuercen, como el caso de un algoritmo diseñado para predecir los futuros criminales que parece incluir un sesgo racial. "El problema no reside en los propios agentes de IA; se trata de humanos que emplean herramientas tecnológicas para oprimir a otros humanos en las finanzas, el sistema judicial y la educación", dijo Jack Balkin de la Facultad de Derecho de la Universidad de Yale (EEUU).

Varios académicos apoyaron la idea de crear una "garantía de la información". La medida obligaría legalmente a que los expertos en big data que recopilan la información empleada por la IA muestren buena fe y actúen de maneras que inspiren confianza. Por ejemplo, los tecnólogos podrían considerarse legalmente responsables si emplean datos de mala calidad para entrenar sistemas de IA, o instauren prejuicios raciales o basados en la edad o el género en los algoritmos que diseñan.

A medida que la dependencia de las instituciones gubernamentales sobre los sistemas de IA para la toma de decisiones crezca, deberán disponer de una plantilla que entienda las limitaciones y los sesgos inherentes de los datos y las tecnologías de IA, tal y como señaló la científica social de Microsoft Research, Kate Crawford. La experta sugiere que los alumnos estudien ética junto a las técnicas de programación.

El investigador de la Universidad de Carolina del Sur (EEUU) Bryant Walker Smith propuso flexibilidad regulatoria para las tecnologías de evolución rápida, como los coches autónomos. El experto defiende: "Las empresas deberían promover el caso público de la seguridad de sus vehículos autónomos. Deberían establecer medidas y después monitorizarlas durante todo el ciclo de vida de sus sistemas. Necesitamos de diversos enfoques para informar el debate público".

Este ha sido el primero de cuatro talleres programados para celebrarse durante los próximos meses. Dos se centrarán en la IA para el bien social y las inquietudes de seguridad y control, mientras el último profundizará en las implicaciones sociales y económicas de la tecnología. Felten también anunció que la Casa Blanca pronto emitirá una solicitud de información para dar al público la oportunidad de expresar sus opiniones sobre el futuro de la IA.

Eso sí, hubo un tema presente en la mente de todos del que no se habló. Este tema fue, por supuesto, la futura elección presidencial del país que tendrá lugar en noviembre. En una actualización de blog publicada este mes, Felten desveló la formación de un nuevo Subcomité Nacional de Ciencias y Tecnología sobre Aprendizaje de Máquinas e Inteligencia Artificial, centrado en emplear la IA para mejorar los servicios gubernamentales "entre hoy y el final de esta administración".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

    El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

    Una imagen en blanco y negro generada por ai de una mujer y un niño mirando por una ventana
  2. "La pregunta es cuánta participación humana se necesita para que algo sea arte"

    Alex Reben hace arte con (y sobre) IA. Hablé con él sobre lo que la nueva ola de modelos generativos significa para el futuro de la creatividad humana

    Detalle de un cuadro de una cabeza deformada en la que unas enormes orejas en la parte frontal de la cara tapan los ojos y una lengua brillante con textura de fresa sobresale de la boca abierta.
  3. Compensación y atribución para los creadores, la apuesta de Adobe por una IA generativa diferente

    La empresa afirma que es la prueba de que los modelos de IA de calidad no tienen por qué incluir polémicos contenidos protegidos por derechos de autor

    Imagen generada mediante IA de una mano que utiliza una cuchilla de precisión para cortar un dibujo de la realidad