.

IYIKON/anbileru adaleru/yaroslav samoylov/SBTS/Hea Pon Lin (The Noun Project)

Inteligencia Artificial

Los siete principios de Google para evitar críticas a sus proyectos militares

1

Una docena de trabajadores ha renunciado y otros han firmado una carta quejándose de que el gigante está empleando sus tecnologías de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situación con un nuevo código ético, pero este aún le deja margen para trabajar

  • por Will Knight | traducido por Mariana Díaz
  • 14 Junio, 2018

Google ha creado un código ético para la inteligencia artificial (IA) que prohíbe el desarrollo de armas autónomas. Pero los principios que recoge dejan suficiente margen de maniobra para que Google pueda seguir lucrándose con futuros proyectos de defensa.

El comunicado llega después de una protesta interna sobre el uso de la IA de Google por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algorítmica). El objetivo de esta empresa, conocida como Project Maven (Proyecto Experto), consiste mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunció a causa del escándalo y muchos más firmaron una carta de protesta.

El alboroto es un reflejo de los temores que muchos tienen sobre cómo la tecnología podría llegar a automatizar la guerra. Pero la situación es aún más compleja.

La inteligencia artificial podría lograr que algunos sistemas de armas sean más seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnología ya se usan en  todo el sector defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog en la que recomienda que Google aplique la IA bajo siete principios básicos:

  1. Beneficiar a la sociedad

  2. Evitar el sesgo algorítmico

  3. Respetar la privacidad

  4. Someterse a pruebas de seguridad

  5. Ser responsable ante el público

  6. Mantener el rigor científico

  7. Estar disponible para otros de acuerdo con los mismos principios

Pero Pichai también también aseguró que Google no permitiría que su tecnología de IA se use para desarrollar cualquier cosa que pueda causar daño, como en "armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar lesiones a las personas".

Pichai también dijo que Google evitaría desarrollar tecnología de vigilancia que viole las normas internacionalmente aceptadas en materia de derechos humanos o cualquier tecnología que contravenga las leyes internacionales.

La inteligencia artificial avanza deprisa, y Google ya se ha topado con otros problemas en sus distintos proyectos de IA. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compañía abandonó su lema "Do not be evil" (No sea malvado) este abril, pero conserva una cultura idealista.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología adopte nuevas formas y las empresas sigan intentando vender su tecnología de IA en la nube lo más ampliamente posible.

El aprendizaje automático y la inteligencia artificial tendrán cada vez más peso en los sectores de inteligencia y defensa. Otras compañías tecnológicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr un multimillonario proyecto de computación en la nube con el Pentágono.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. El padre de los 'deepfakes' lucha contra el monstruo en el que se han convertido

    Si su iPhone es capaz de convertirle en un unicornio es gracias al trabajo de Hao Li. Después de perfeccionar su trabajo para aplicarlo el cine y la medicina, se ha centrado en encontrar formas de detectar estas falsificaciones cada vez más realistas, fáciles de crear y difíciles de identificar

  2. Este avance traerá chatbots más inteligentes y más noticias falsas

    El fabricante de chips Nvidia está centrando sus esfuerzos en el procesamiento del lenguaje natural. Su nuevo software, basado en dos enfoques de Google, está diseñado para eso, una novedad tecnológica que, como siempre, tiene un parte buena y una mala

  3. Google publica un vídeojuego para que la IA aprenda a jugar al fútbol

    El equipo de inteligencia artificial del gigante ha lanzado 'Google Research Football Environment', un entorno con varios niveles de complejidad que cualquier investigador puede usar para entrenar a sus algoritmos a lidiar con lo imprevisible