.

IYIKON/anbileru adaleru/yaroslav samoylov/SBTS/Hea Pon Lin (The Noun Project)

Inteligencia Artificial

Los siete principios de Google para evitar críticas a sus proyectos militares

1

Una docena de trabajadores ha renunciado y otros han firmado una carta quejándose de que el gigante está empleando sus tecnologías de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situación con un nuevo código ético, pero este aún le deja margen para trabajar

  • por Will Knight | traducido por Mariana Díaz
  • 14 Junio, 2018

Google ha creado un código ético para la inteligencia artificial (IA) que prohíbe el desarrollo de armas autónomas. Pero los principios que recoge dejan suficiente margen de maniobra para que Google pueda seguir lucrándose con futuros proyectos de defensa.

El comunicado llega después de una protesta interna sobre el uso de la IA de Google por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algorítmica). El objetivo de esta empresa, conocida como Project Maven (Proyecto Experto), consiste mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunció a causa del escándalo y muchos más firmaron una carta de protesta.

El alboroto es un reflejo de los temores que muchos tienen sobre cómo la tecnología podría llegar a automatizar la guerra. Pero la situación es aún más compleja.

La inteligencia artificial podría lograr que algunos sistemas de armas sean más seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnología ya se usan en  todo el sector defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog en la que recomienda que Google aplique la IA bajo siete principios básicos:

  1. Beneficiar a la sociedad

  2. Evitar el sesgo algorítmico

  3. Respetar la privacidad

  4. Someterse a pruebas de seguridad

  5. Ser responsable ante el público

  6. Mantener el rigor científico

  7. Estar disponible para otros de acuerdo con los mismos principios

Pero Pichai también también aseguró que Google no permitiría que su tecnología de IA se use para desarrollar cualquier cosa que pueda causar daño, como en "armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar lesiones a las personas".

Pichai también dijo que Google evitaría desarrollar tecnología de vigilancia que viole las normas internacionalmente aceptadas en materia de derechos humanos o cualquier tecnología que contravenga las leyes internacionales.

La inteligencia artificial avanza deprisa, y Google ya se ha topado con otros problemas en sus distintos proyectos de IA. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compañía abandonó su lema "Do not be evil" (No sea malvado) este abril, pero conserva una cultura idealista.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología adopte nuevas formas y las empresas sigan intentando vender su tecnología de IA en la nube lo más ampliamente posible.

El aprendizaje automático y la inteligencia artificial tendrán cada vez más peso en los sectores de inteligencia y defensa. Otras compañías tecnológicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr un multimillonario proyecto de computación en la nube con el Pentágono.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. El mayor riesgo de los 'deepfakes' es que dudemos de todo lo que vemos

    Las ultrafalsificaciones no solo pueden hacernos creer que algo falso es real. Varios expertos advierten que la tecnología podría convertirse en una arma para que los poderosos puedan negar cualquier prueba que demuestre su corrupción y sus abusos de poder, y piden más alfabetización mediática

  2. El masivo experimento chino que podría revolucionar la educación mundial

    Cada vez más alumnos aprenden asistidos por sistemas de inteligencia artificial. Pero los dos principales enfoques chocan en su estrategia: mientras uno se centra en la educación adaptativa liderada por las máquinas, el otro busca una formación personalizada que da protagonismo a los profesores

  3. Tres amenazas de los 'deepfakes' que la tecnología no puede arreglar

    Aunque consigamos un detector infalible de vídeos ultrafalsificados, estos contenidos manipulados con inteligencia artificial seguirán creando problemas. Varios expertos proponen estas tres medidas para solucionar las cuestiones más filosóficas y sociales de esta nueva amenaza tecnológica