.

Inteligencia Artificial

Magenta, el programa de Google que aspira a crear nuevas formas de arte

1

Cuadros, esculturas, canciones... la estructura de las obras de arte no suele ser demasiado innovadora y eso es precisamente lo que el gigante quiere cambiar con su sistema de inteligencia artificial combinado con los mejores artistas humanos

  • por James Temple | traducido por Teresa Woods
  • 13 Abril, 2017

<<<INSERTAR VIDEO>>>

Los algoritmos de aprendizaje de máquinas no tienen demasiadas probabilidades de echar a los pintores, cantantes y compositores de sus empleos en un futuro próximo, a juzgar por su cuerpo de trabajo hasta la fecha. Pero Google Brain está desarrollando herramientas que emparejan artistas con herramientas de aprendizaje profundo para desarrollar novedosas obras de arte juntos, afirmó el científico Douglas Eck de la división de investigaciones de inteligencia artificial del gigante de búsquedas, durante la conferencia EmTech Digital de MIT Technology Review el pasado martes.

Eck espera que la plataforma, llamada Magenta, permita a la gente producir tipos totalmente nuevos de música y arte, de forma parecida al impacto de los teclados y baterías electrónicos y las cámaras. Eck señaló que Magenta podría servir un papel análogo al de Les Paul, que ayudó a desarrollar la guitarra eléctrica moderna. Pero Eck dijo que querían mantener involucrados a los artistas para empujar los límites de la nueva herramienta de maneras interesantes, como un Jimi Hendrix que sujeta su instrumento del revés, estira las cuerdas y distorsiona el sonido.

"Lo divertido consiste en encontrar maneras nuevas de romperlo y ampliarlo", dijo.

Eck, que anteriormente fue un profesor adjunto de informática de la Universidad de Montreal (Canadá), explicó que le atrajo el proyecto porque él mismo se considera un "músico fracasado". Como guitarrista y pianista que antes tocaba "folk post punk" en cafeterías, tenía seguidores que se contaban por "docenas", dijo.

Google Brain intenta continuamente mejorar los algoritmos de Magenta para crear canciones y realizar transferencias de arte desde imágenes. Sobre el escenario, Eck tocó una canción de piano generada por ordenador que se volvió cada vez más fácil de escuchar al proporcionarle a la herramienta más reglas a seguir, generando finalmente una frase que podría tener todo lo necesario para servir como jingle de anuncio de pasta de dientes.

Un reto crítico ahora consiste en desarrollar mejores interfaces humanas para la tecnología. Los investigadores empezaron con el equivalente de una solicitud de línea de comando, pero Eck señaló que quiere acercarse más a la "naturalidad" de una unidad de efectos de guitarra. Espera que el proyecto atraiga talentosos músicos y codificadores para seguir mejorando la herramienta y aplicarla de maneras nuevas.

"No creo que máquinas que generen arte solas sean tan interesantes como se podría pensar", concluyó. "La pregunta es, ¿pueden las máquinas ayudarnos a hacer un tipo totalmente nuevo de arte?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. Los grandes modelos de IA han disparado el consumo de potencia informática

    Históricamente, la potencia computacional requerida para entrenar sistemas de inteligencia artificial se duplicaba cada dos años, pero ahora lo hace cada 3,4 meses, siete veces más rápido, una tendencia que no hace más que aumentar la brecha de capacidades entre investigadores públicos y privados

  2. 2021: el año de los modelos de inteligencia artificial gigantes

    La tendencia empezó en 2020 con el modelo de lenguaje GPT-3, con 175.000 millones de parámetros, una cifra que no ha dejado de crecer gracias a los rivales del sector. Pero nadie sabe por qué el tamaño importa tanto y el enfoque no resuelve el problema de los sesgos de los datos de entrenamiento ni supone innovaciones disruptivas

  3. RETRO, la pequeña IA de lenguaje de DeepMind que iguala a los gigantes del campo

    Con 7.000 millones de parámetros, compite con modelos mucho más grandes como GPT-3 y sus 175.000 millones de parámetros. Para lograrlo utiliza una memoria externa a la que recurre para trabajar sobre la marcha. Con este nuevo enfoque, Google se coloca en buena posición en un terreno que no había pisado hasta ahora