.

IYIKON/anbileru adaleru/yaroslav samoylov/SBTS/Hea Pon Lin (The Noun Project)

Robótica

Los siete principios de Google para evitar críticas a sus proyectos militares

1

Una docena de trabajadores ha renunciado y otros han firmado una carta quejándose de que el gigante está empleando sus tecnologías de inteligencia artificial en iniciativas de defensa. El CEO ha respondido a la situación con un nuevo código ético, pero este aún le deja margen para trabajar

  • por Will Knight | traducido por Mariana Díaz
  • 14 Junio, 2018

Google ha creado un código ético para la inteligencia artificial (IA) que prohíbe el desarrollo de armas autónomas. Pero los principios que recoge dejan suficiente margen de maniobra para que Google pueda seguir lucrándose con futuros proyectos de defensa.

El comunicado llega después de una protesta interna sobre el uso de la IA de Google por parte de una iniciativa del Departamento de Defensa de Estados Unidos llamada Algorithmic Warfare Cross-Functional Team (Equipo Interfuncional de Guerra Algorítmica). El objetivo de esta empresa, conocida como Project Maven (Proyecto Experto), consiste mejorar la precisión de los ataques con drones, entre otras cosas.

El mes pasado, una docena de trabajadores de Google renunció a causa del escándalo y muchos más firmaron una carta de protesta.

El alboroto es un reflejo de los temores que muchos tienen sobre cómo la tecnología podría llegar a automatizar la guerra. Pero la situación es aún más compleja.

La inteligencia artificial podría lograr que algunos sistemas de armas sean más seguros y menos propensos a errores. Y algunas aplicaciones sencillas de la tecnología ya se usan en  todo el sector defensa. Google no quiere desautorizar este enorme mercado potencial para su tecnología de inteligencia artificial en la nube.

El CEO de Google, Sundar Pichai, anunció el nuevo código en una publicación de blog en la que recomienda que Google aplique la IA bajo siete principios básicos:

  1. Beneficiar a la sociedad

  2. Evitar el sesgo algorítmico

  3. Respetar la privacidad

  4. Someterse a pruebas de seguridad

  5. Ser responsable ante el público

  6. Mantener el rigor científico

  7. Estar disponible para otros de acuerdo con los mismos principios

Pero Pichai también también aseguró que Google no permitiría que su tecnología de IA se use para desarrollar cualquier cosa que pueda causar daño, como en "armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar lesiones a las personas".

Pichai también dijo que Google evitaría desarrollar tecnología de vigilancia que viole las normas internacionalmente aceptadas en materia de derechos humanos o cualquier tecnología que contravenga las leyes internacionales.

La inteligencia artificial avanza deprisa, y Google ya se ha topado con otros problemas en sus distintos proyectos de IA. Uno de sus sistemas de visión artificial, por ejemplo, identificó erróneamente en varias ocasiones a las personas de ascendencia africana como gorilas. La compañía abandonó su lema "Do not be evil" (No sea malvado) este abril, pero conserva una cultura idealista.

Los usos militares de la inteligencia artificial podrían ser cada vez más polémicos a medida que la tecnología adopte nuevas formas y las empresas sigan intentando vender su tecnología de IA en la nube lo más ampliamente posible.

El aprendizaje automático y la inteligencia artificial tendrán cada vez más peso en los sectores de inteligencia y defensa. Otras compañías tecnológicas de Estados Unidos, incluidas Amazon y Microsoft, han competido para lograr un multimillonario proyecto de computación en la nube con el Pentágono.

Robótica

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Esta IA puede imaginar todo un mundo digital a partir de un dibujo

    Crear una escena digital realista requiere habilidad, creatividad y muchas horas. Este nuevo avance puede hacer lo mismo automáticamente con solo ver un boceto. La técnica podría revolucionar el desarrollo de videojuegos y la RV pero también podría contaminar nuestra visión de la realidad

  2. Olvídese de los robots asesinos: los peligros reales de la IA en 2019

    Coches autónomos involucrados en accidentes, redes sociales en las que se difunden noticias falsas, gigantes tecnológicos que apoyan proyectos militares... Los escándalos relacionados con la inteligencia artificial del año pasado muestran los riesgos de su mal uso. Ahora hay que pensar cómo evitarlos 

  3. Si quiere saber qué es el aprendizaje automático, mire este gráfico

    Netflix, Facebook o Google utilizan algoritmos de aprendizaje automático para mostrar los contenidos que más pueden interesarle. Pero, ¿cómo funcionan exactamente estos sistemas de inteligencia artificial? Descubra los detalles del proceso por el que encuentran patrones en grandes cantidades de datos