.

Jeremy Portje

Inteligencia Artificial

El chatbot racista de Microsoft, el mejor ejemplo a evitar para la IA

1

Tay, el bot parlante de Microsoft que aprendía de sus conversaciones con la gente, no tardó en convertirse en una pesadilla. Ahora, el jefe de inteligencia de máquinas de Yandex afirma que Tay ofrece unas cuantas grandes lecciones de lo que no hay que hacer con una inteligencia artificial

  • por Rachel Metz | traducido por Mariana Díaz
  • 10 Abril, 2018

¿Se acuerda de Tay, el chatbot de Microsoft que hace dos años circulaba por Twitter y otras redes sociales y que, poco después de ser liberado a la jungla de internet acabó convertido en un algoritmo neonazi racista enloquecido por el sexo? (ver La IA racista y neonazi de Microsoft fue culpa de Microsoft)

Lo que comenzó como un divertido experimento social que pretendía que cualquiera pudiera hablar con el programa para que este aprendiera y, con suerte, el usuario se entretuviera, se convirtió en una pesadilla para los creadores de Tay. Los usuarios no tardaron en descubrir cómo hacer que Tay dijera cosas horribles. Microsoft tardó menos de un día en desconectar el servicio.

Sin embargo, el jefe de inteligencia de máquinas e investigación del gigante tecnológico ruso Yandex, Misha Bilenko, cree que el experimento fue una bendición para el sector de los asistentes de inteligencia artificial (IA).

Crédito: Jeremy Portje

En su charla durante la reciente conferencia anual EmTech Digital organizada por MIT Technology Review en San Francisco (EE. UU.), Bilenko dijo que los errores de Tay, como su vulnerabilidad a ser juzgado para aprender o repetir frases ofensivas, se han convertido en grandes lecciones sobre lo que puede salir mal. Es decir, Tay es un maravilloso ejemplo de lo que no hay que hacer a la hora de desarrollar un programa de este tipo.

Para el responsable, la forma en que Tay evolucionó velozmente, dejando de ser un robot amante de la diversión (fue entrenada para tener la personalidad de una chica de 19 años) para convertirse en un monstruo de IA, demuestra la importancia de poder abordar rápido este tipo de situaciones. Y eso es algo que no es precisamente fácil de hacer. Además, Bilenko destaca que la gente tienen una gran tendencia a antropomorfizar la IA bajo la idea de que se traba de un programa con grandes conocimientos en lugar de verla como la máquina estadística que realmente es.

"Microsoft lo hizo todo al revés, pero al echar la vista atrás, Tay se ha convertido en un estudio de caso realmente útil", dijo Bilenko.

Los chatbots y asistentes inteligentes han cambiado considerablemente desde 2016. Ahora son mucho más populares, están disponibles en todas partes, desde aplicaciones para teléfonos inteligentes hasta altavoces inteligentes, y sus capacidades cada vez son mayores (ver Woebot, el robot parlante que reduce los síntomas de depresión en dos semanas). Pero todavía hay cosas que se les dan muy mal, como algunas de las que Tay trataba de perfeccionar, como la personalidad y la capacidad de dar conversación.

Bilenko no cree que la situación vaya a cambiar en seguida, al menos no durante los próximos cinco años. Para el experto, las conversaciones que los humanos tienen son "muy difíciles".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Cinco señales de que los problemas de la IA proceden del colonialismo

    Los algoritmos con sesgos racistas, los trabajos fantasma y el esquema de gobernanza de la inteligencia artificial no han surgido por casualidad sino que son una consecuencia directa de la colonización. Comprender su larga e inquietante historia es el primer paso para solucionarlos.

  2. Hallada una nueva forma de engañar a la IA de aprendizaje reforzado

    Llevar a cabo comportamientos extraños en un entorno provoca que los sistemas de inteligencia artificial entrenados con esta técnica se confundan. El ataque consiste en manipular a la política del algoritmo con una política antagónica que le haga perder el control y realizar acciones indeseadas

  3. Algoritmos de contratación, una amenaza cada vez mayor para los trabajadores

    Utilizar inteligencia artificial para agilizar la selección de personal y reducir los sesgos resulta peligroso por varias razones. Una compañía afirma que es capaz de predecir la rotación laboral de un candidato sin sesgos, pero nada garantiza que su sistema esté libre de prejuicios ni evite la discriminación