.

IYIKON/anbileru adaleru/yaroslav samoylov/SBTS/Hea Pon Lin (The Noun Project)

Inteligencia Artificial

Los siete principios de Google para evitar críticas a sus proyectos militares

1

Una docena de trabajadores ha renunciado y otros han firmado una carta quejándose de que el gigante está empleando sus tecnologías de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situación con un nuevo código ético, pero este aún le deja margen para trabajar

  • por Will Knight | traducido por Mariana Díaz
  • 14 Junio, 2018

Google ha creado un código ético para la inteligencia artificial (IA) que prohíbe el desarrollo de armas autónomas. Pero los principios que recoge dejan suficiente margen de maniobra para que Google pueda seguir lucrándose con futuros proyectos de defensa.

El comunicado llega después de una protesta interna sobre el uso de la IA de Google por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algorítmica). El objetivo de esta empresa, conocida como Project Maven (Proyecto Experto), consiste mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunció a causa del escándalo y muchos más firmaron una carta de protesta.

El alboroto es un reflejo de los temores que muchos tienen sobre cómo la tecnología podría llegar a automatizar la guerra. Pero la situación es aún más compleja.

La inteligencia artificial podría lograr que algunos sistemas de armas sean más seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnología ya se usan en  todo el sector defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog en la que recomienda que Google aplique la IA bajo siete principios básicos:

  1. Beneficiar a la sociedad

  2. Evitar el sesgo algorítmico

  3. Respetar la privacidad

  4. Someterse a pruebas de seguridad

  5. Ser responsable ante el público

  6. Mantener el rigor científico

  7. Estar disponible para otros de acuerdo con los mismos principios

Pero Pichai también también aseguró que Google no permitiría que su tecnología de IA se use para desarrollar cualquier cosa que pueda causar daño, como en "armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar lesiones a las personas".

Pichai también dijo que Google evitaría desarrollar tecnología de vigilancia que viole las normas internacionalmente aceptadas en materia de derechos humanos o cualquier tecnología que contravenga las leyes internacionales.

La inteligencia artificial avanza deprisa, y Google ya se ha topado con otros problemas en sus distintos proyectos de IA. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compañía abandonó su lema "Do not be evil" (No sea malvado) este abril, pero conserva una cultura idealista.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología adopte nuevas formas y las empresas sigan intentando vender su tecnología de IA en la nube lo más ampliamente posible.

El aprendizaje automático y la inteligencia artificial tendrán cada vez más peso en los sectores de inteligencia y defensa. Otras compañías tecnológicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr un multimillonario proyecto de computación en la nube con el Pentágono.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cómo las IA se vuelven más racistas con la intervención humana

    Los investigadores descubrieron que ciertos prejuicios también empeoraban a medida que los modelos aumentaban de tamaño

    Cómo las IA se vuelven más racistas con la intervención humana
  2. Lore Machine ya crea cómics sin 'prompts' y avecina el futuro de la IA generativa

    Al reunir varios modelos generativos diferentes en un paquete fácil de usar que se controla pulsando un botón, Lore Machine anuncia la llegada de la IA de un solo clic

  3. El enigma de la IA generativa: hace cosas asombrosas, pero no sabemos bien por qué

    Resolver este misterio es uno de los mayores enigmas científicos de nuestro tiempo y un paso crucial para controlar modelos futuros más potentes