.

Jeremy Portje

Negocios

Microsoft pide al resto de gigantes que se responsabilicen de sus tecnologías

1

Reconocimiento facial intrusivo e incorrecto, accidentes de coches autónomos... la industria tecnológica se ha demostrado incapaz de prever los peligros de sus creaciones. La compañía está enfocada en su propia autorregulación y pide a empresas y gobiernos que hagan lo mismo

  • por James Temple | traducido por Ana Milutinovic
  • 24 Abril, 2019

La industria tecnológica debe tomar medidas preventivas para evitar los peligros que irán surgiendo a medida que la inteligencia artificial (IA) se vuelve cada vez más creativa y actúa de manera más parecida a los humanos. Así lo advirtió el y vicepresidente ejecutivo del grupo de investigación e inteligencia artificial de Microsoft, Harry Shum, durante la reciente en la conferencia EmTech Digital de MIT Technology Review. El responsable afirmó: "Estamos en un momento del ciclo en el que debemos crear la responsabilidad de la propia estructura tecnológica".

Señaló que hasta la fecha, la industria ya ha demostrado su incapacidad de prever errores tecnológicos ni sus malas aplicaciones en el mundo real. El software de reconocimiento facial, por ejemplo, ha demostrado su ineficacia para identificar rostros con tonos de piel oscuros . China ha combinado esta herramienta con cámaras de vigilancia para controlar a los miembros de su minoría musulmana uigur y para avergonzar a los supuestos deudores y transeúntes distraídos publicando sus rostros en las vallas publicitarias. Un coche autónomo de Uber golpeó y mató a un peatón el año pasado. Y, según algunos informes, Watson de IBM ha prescrito tratamientos contra el cáncer "inseguros e incorrectos".

Estos desafíos no harán más que complicarse a medida que la IA mejore su capacidad de distinguir las emociones humanas, mantener conversaciones sofisticadas y crear cuentos, poesía, canciones y cuadros cada vez más indistinguibles de las creaciones humanas, explicó Shum. Estas capacidades emergentes podrían facilitar la producción y difusión de falsos audios, imágenes y vídeos, lo que se suma a los retos de tratar con la propaganda y los bulos online.

Microsoft está abordando estos crecientes riesgos de varias maneras. Shum aseguró que la compañía ha mejorado sus herramientas de reconocimiento facial con versiones alteradas de fotos con una variedad más amplia de los colores de la piel, cejas y condiciones de iluminación.

La compañía también ha creado un comité de ética de IA y se ha unido a grupos colaborativos de la industria como Partnership on AI. Microsoft "próximamente" agregará un punto de revisión de ética de IA a su lista de verificación estándar de auditorías de privacidad, seguridad y accesibilidad que deberá llevarse a cabo antes de que los nuevos productos se lancen al mercado, explicó Shum.

Pero también reconoció que la autorregulación no es suficiente. De hecho, cada vez más voces de dentro y fuera de la industria tecnológica están pidiendo regulaciones más estrictas sobre la inteligencia artificial. En diciembre, el Instituto AI Now de la Universidad de Nueva York (EE.UU.), un grupo que incluye empleados de Microsoft y Google, argumentó que las agencias gubernamentales necesitan más poder para "supervisar, auditar y controlar" estas tecnologías, y pidió una "regulación estricta" sobre las herramientas del reconocimiento facial en particular.

El responsable concluyó: "Estamos trabajando duro para superar los desafíos planteados por las creaciones de la IA. Pero son problemas difíciles que no se pueden resolver solo con tecnología, necesitamos la cooperación del mundo académico y la industria. También debemos educar a los consumidores para que sepan de dónde proviene el contenido que están viendo y usando".

Negocios

Los avances tecnológicos están cambiando la economía y proporcionando nuevas oportunidades en muchas industrias.

  1. La importancia de usar la IA en el ejército sin aplicarla a las armas

    Las Fuerzas Armadas de EE. UU. lanzarán junto al MIT una incubadora de inteligencia artificial para desarrollar tecnologías que sirvan al "bien público" y que optimicen el día a día del organismo. Para evitar polémicas, ambas entidades afirman que no trabajarán en aplicaciones armamentísticas

  2. La polémica política, ética y comercial del reconocimiento facial

    El Gobierno de San Francisco tiene prohibido usar esta tecnología, pero la norma no afecta a las compañías privadas, cuyos fines pueden ser igual de discriminatorios que los públicos. El debate, tanto a nivel ciudadano como usuario, está servido

  3. Cinco preguntas para saber si una IA es útil, eficaz y ética

    A medida que la inteligencia artificial penetra en la industria es necesario confirmar que los productos que ofrecen las empresas son válidos y de calidad. Para averiguarlo, le ofrecemos una guía con cinco preguntas