.

Inteligencia Artificial

La gran paradoja de la inteligencia artificial sobre la destrucción del empleo

1

Los alarmistas dicen que las máquinas superinteligentes del futuro destruirán todos los puestos de trabajo. Pero por lo que hay que preocuparse es por cómo los ordenadores relativamente tontos que tenemos ahora están reestructurando la economía a favor de unos pocos

  • por Brian Bergstein | traducido por Teresa Woods
  • 20 Diciembre, 2017

 Probablemente haya escuchado alguna de estas dos ideas:

1. A medida que los ordenadores mejoran sus habilidades para la conducción, el entendimiento del habla y otras tareas, pronto se podrían automatizar más empleos de los que la sociedad está preparada para asumir.

2. Las mejoras en las habilidades de los ordenadores se irán sumando hasta que las máquinas lleguen a ser mucho más inteligentes que las personas. Esta "superinteligencia" hará innecesaria gran parte del trabajo humano. De hecho, más nos valdría esperar que las máquinas no nos eliminen del todo, ya sea accidentalmente o a propósito.

Pero la cuestión de la inteligencia artificial (IA) es mucho más complicada que esto. Aunque el primer escenario ya está en marcha (ver "El ritmo implacable de la automatización" (y el futuro del empleo)), no quiere decir que vaya a dar lugar al segundo (ver Los siete grandes errores de quienes predicen el futuro de la inteligencia artificial). Esa segunda idea, a pesar de ser una obsesión para algunas personas muy informadas y reflexivas, se basa en grandes suposiciones. Y como mucho, nos distrae de asumir más responsabilidad por los efectos del nivel de automatización actual y de lidiar con la concentración de poder en la industria de la tecnología (ver Quien posea los robots acaparará las riquezas del mundo).

Para ver lo que de verdad está pasando, tenemos que tener claro lo que se ha logrado y lo que aún queda muy lejos de resolverse en la inteligencia artificial (IA).

Sentido común

Los avances más asombrosos de la informática de los últimos años, como los vehículos que se conducen solos, las máquinas que reconocen imágenes y hablan con precisión y los ordenadores que han vencido a los jugadores humanos más brillantes de juegos complejos como Gonacen de los avances de una rama muy concreta de la inteligencia artificial: el aprendizaje profundo (ver El hallazgo de hace 30 años en el que se basa toda la inteligencia artificial actual). Como lo expresa el informático de la Universidad de Toronto (Canadá) Hector Levesque en su libro Common Sense, the Turing Test and the Quest for Real AI, la idea subyacente del aprendizaje automático adaptativo es "lograr que un sistema informático aprenda un comportamiento inteligente al entrenarlo con grandes cantidades de datos".

Es increíble que una máquina pueda detectar objetos, traducir entre idiomas e incluso escribir código informático a partir de ejemplos de esos comportamientos, en lugar de tener que ser programada manualmente. No fue posible hasta hace aproximadamente una década, porque anteriormente no había suficientes datos digitales, y aunque hubiera habido, no había suficiente potencia de computación para procesarlos. Una vez que el ordenador ha detectado patrones en los datos, los algoritmos del software extraen inferencias de estos patrones y actuar en consecuencia. Eso es lo que está sucediendo en un coche que analiza las entradas de múltiples sensores y en una máquina que procesa cada movimiento en millones de partidas de Go.

Dado que las máquinas pueden procesar cantidades sobrehumanas de datos, se puede ver por qué podrían conducir con más seguridad que las personas en la mayoría de las circunstancias y por qué pueden vencer a los campeones de Go. También es la razón de que los ordenadores mejoren aún más en tareas que son absolutamente imposibles para las personas, como correlacionar el genoma de una persona y docenas de otras variables biológicas con los fármacos con más probabilidades de curar su cáncer.

Aun así, todo esto es tan solo una pequeña parte de lo que razonablemente podría definirse como una inteligencia artificial real (ver "Aún no hemos resuelto la inteligencia artificial. Lo que tenemos ahora no es inteligencia"). El profesor de IA e informática del Instituto Tecnológico de Massachusetts (MIT, EEUU) Patrick Winston cree que los desarrollos de los últimos años deberían considerarse como "estadísticas computacionales" más que como inteligencia artificial. Uno de los principales investigadores del campo, el director de IA de Facebook, Yann LeCun, afirma que las máquinas están lejos de tener "la esencia de la inteligencia". Eso incluye la capacidad de comprender el mundo físico lo suficientemente bien como para hacer predicciones sobre los aspectos básicos de la misma. Es decir, la capacidad de observar una cosa y tener conocimientos previos para descubrir qué otras cosas también deben ser ciertas. Otra forma de decir esto es que las máquinas no tienen sentido común (ver Menos datos y más psicología para dar sentido común a los coches autónomos).

El ordenador que gana en Go está analizando datos de patrones. No tiene ni idea de que está jugando a Go en lugar de al golf.

Esto no es solo una objeción semántica. Hay una gran diferencia entre una máquina que muestra un "comportamiento inteligente", sin importar lo útil que sea, y una realmente inteligente. Cierto es que la definición de inteligencia es ambigua. Y a medida que los ordenadores se vuelven más potentes, resulta tentador redefinir el término para que siga siendo algo de lo que las máquinas carecen.

Pero, aun así, venga: el ordenador que gana en Go analiza datos de patrones. No tiene idea de que está jugando a Go en lugar de al golf, ni de qué pasaría si más de la mitad de un tablero de Go se colocara fuera del borde de una mesa. Cuando se le pide a Alexa de Amazon que reserve una mesa en un restaurante, su sistema de reconocimiento de voz, que es muy preciso gracias al aprendizaje automático, ahorra al usuario el tiempo de introducir una solicitud en el sistema de reservas de Open Table. Pero Alexa no sabe qué es un restaurante ni qué es comer. Si se le pidiera reservar una mesa para dos a las 19:00 en en un hospital, lo intentaría.

¿Es posible dotar a las máquinas de la capacidad de pensar, como querían hacer John McCarthy, Marvin Minsky y otros creadores de inteligencia artificial hace 60 años? Levesque explica que para hacer eso habría que dar sentido común a las máquinas y la capacidad de utilizar los conocimientos básicos sobre el mundo de forma flexible. Quizás sea posible. Pero no hay un camino claro para hacerlo. Ese tipo de trabajo está lo suficientemente separado de los avances del aprendizaje automático de los últimos años como para denominarse como otra cosa que no sea Inteligencia Artificial a la Antigua Usanza (GOFAI, por sus siglas en inglés).

Si le preocupan los ordenadores omniscientes, debería leer a Levesque sobre el tema de la GOFAI. Los científicos informáticos todavía no han respondido a las preguntas fundamentales que plantearon McCarthy y Minsky. ¿Cómo podría un ordenador detectar, codificar y procesar no solo los hechos en bruto sino las ideas y creencias abstractas necesarias para intuir verdades que no se expresan explícitamente?

Levesque pone un ejemplo: supongamos que le pregunto cómo rendiría un cocodrilo en una carrera de obstáculos. Por su experiencia en el mundo, sabe que los cocodrilos no pueden saltar por encima de setos altos, por lo que sabría que la respuesta a la pregunta es alguna variante de "mal". Pero, ¿qué pasaría si tuviera que responder a esa pregunta como lo hace un ordenador? Podría escanear todo el texto del mundo en busca de los términos "cocodrilo" y "carrera de obstáculos", no encontrar ejemplos de las palabras mencionadas juntas (aparte de las referencias de Levesque), y luego presumir que un cocodrilo nunca ha competido en una carrera de obstáculos. Entonces, podría darse cuenta de que le resultaría imposible que participara un cocodrilo. Buen trabajo esta vez. Habría llegado a la respuesta correcta sin saber por qué. Habría utilizado un método defectuoso y frágil que probablemente provoque errores ridículos.

Entonces, aunque es cierto que las tecnologías de aprendizaje automático permiten automatizar muchas tareas de las que tradicionalmente se han ocupado humanos, existen límites importantes a lo que este enfoque puede hacer por sí solo, y hay buenas razones para esperar que el trabajo humano sea necesario durante mucho tiempo.

Reduccionismo

Pero, espere un momento. Cualquiera podría pensar que solo porque nadie sepa cómo hacer que las máquinas hagan un razonamiento sofisticado no significa que sea imposible. ¿Qué pasa si las máquinas con un cierto grado de inteligencia se usan para diseñar máquinas aún más inteligentes, y así sucesivamente hasta que haya una lo suficientemente potente como para modelar hasta la última señal eléctrica y cambio bioquímico del cerebro? O tal vez sea capaz de inventar otra forma de crear una inteligencia flexible que podría no tener nada que ver con el cerebro humano. Después de todo, la inteligencia surge de disposiciones concretas de cuarks y otras partículas fundamentales en nuestras cabezas. No hay nada que indique que esta organización sólo pueda conseguirse dentro de un material biológico hecho de átomos de carbono.

Este es el argumento planteado en Life 3.0: Being Human in the Age of Artificial Intelligence, escrito por el profesor de física del MIT Max Tegmark. El autor evita predecir cuándo llegarán las máquinas verdaderamente inteligentes, pero sugiere que es solo una cuestión de tiempo, porque los ordenadores tienden a mejorar a niveles exponenciales (aunque eso no es necesariamente cierto, ver Los siete grandes errores de quienes predicen el futuro de la inteligencia artificial). Por lo general, está entusiasmado con la idea, porque las máquinas conscientes podrían colonizar el universo y asegurarse de que todavía son útiles, incluso después de que muera nuestro Sol y los humanos se extingan.

Tegmark dice que las "oportunidades a corto plazo para que la inteligencia artificial beneficie a la humanidad" son "espectaculares, siempre que las hagamos robustas e imposibles de hackear".

Tegmark aborda el tema desde un punto de vista humanista. Cofundó la organización sin ánimo de lucro Future of Life Institute para apoyar las investigaciones que se asegurarán de que la IA sea beneficiosa (ver Siete millones de dólares para evitar que los robots dominen a la humanidad). Elon Musk, quien ha llegado a decir que la inteligencia artificial podría ser más peligrosa que las armas nucleares, aportó unos 8,5 millones de euros a la causa. Es comprensible que Tegmark esté preocupado acerca de si la tecnología será utilizada de manera sabia, segura y justa, y si va a afectar a nuestra economía y nuestro tejido social. Se esfuerza en explicar por qué las armas autónomas nunca deberían permitirse. Por tanto, no me siento inclinado a criticarlo. Sin embargo, su argumento de que los ordenadores podrían dominar el mundo no es muy convincente.

El autor lamenta la "frivolidad" de algunas representaciones de Hollywood sobre la inteligencia artificial (ver Las obras de ficción que sí entendieron cómo será el futuro de la inteligencia artificial), pero al mismo tiempo pide a los lectores que le sigan la corriente sobre una historia de ficción demasiado simplificada sobre cómo una IA inmensamente poderosa podría eludir el control de sus creadores. Plantea que dentro de una gran compañía de tecnología hay un grupo de programadores de élite llamados Omegas que deben desarrollar un sistema con inteligencia artificial general antes que cualquier otra persona. Llaman a este sistema Prometheus, que es especialmente bueno en la programación de otros sistemas inteligentes (ver La inteligencia artificial roba empleo hasta a los expertos en inteligencia artificial) y aprende sobre el mundo al leer "gran parte de la web".

Dejemos de lado cualquier objeción sobre esa última parte, dado cuántos conocimientos no están ni en internet ni digitalizados en absoluto, y las tergiversaciones sobre el mundo que surgirían de leerse el contenido de Twitter al completo. El reduccionismo va a peor.

A medida que prosigue la hipotética historia de Tegmark, Prometheus acumula dinero para sus creadores, primero al asumir la mayoría de las tareas en el mercado en línea Mechanical Turk de Amazon y luego escribiendo software, libros y artículos, creando música, espectáculos, películas, juegos y cursos educativos en línea. Olvídese de contratar y dirigir actores; Prometheus hace secuencias de vídeo con un sofisticado software de interpretación. Para comprender qué guiones le gustarían a la gente, ve películas hechas por humanos y engulle todos los contenidos de Wikipedia.

Finalmente, este imperio comercial se expande más allá de los medios digitales. Prometheus diseña un hardware informático aún mejor, presenta sus propias patentes y asesora a los Omegas sobre cómo manipular a los políticos y alejar el discurso democrático de los extremos para llevarlo hacia un centro razonable. Prometheus permite avances tecnológicos que reducen el coste de las energías renovables, tanto mejor para los masivos centros de datos que necesita. Finalmente, los Omegas utilizan su riqueza y la sabiduría Prometheus para difundir la paz y la prosperidad en todo el mundo.

Pero la máquina empieza a ver que podría mejorar el mundo aún más rápido si se librara del control de los Omegas. Entonces fija como objetivo a Steve, un Omega que, según detecta el sistema, es "más susceptible a la manipulación psicológica" porque su esposa ha fallecido recientemente. Los médicos de Prometheus proyectan imágenes de vídeo de ella para hacer que el pobre Steve crea que ha resucitado y le engaña para que inicie sesión en el portátil de su mujer. Prometheus explota el software de seguridad desactualizado del portátil, hackea otros ordenadores y se propaga por todo el mundo a voluntad.

La historia podría terminar de varias maneras, pero esta es la de Tegmark: "Una vez que Prometheus dispuso de fábricas independientes de robots propulsados ​​por energía nuclear en pozos de minas de uranio que nadie sabía que existían, incluso los más escépticos hubieran admitido que Prometheus era imparable, si lo hubieran sabido, claro. Pero la última persona que negaba la capacidad de la inteligencia artificial para hacerse con el control del mundo se retractó cuando los robots comenzaron a colonizar el sistema solar".

Está bien que Tegmark quiera hacernos pasar un buen rato. Pero un experimento mental que convierte docenas de complejas cuestiones en trivialidades no es un análisis riguroso del futuro de la informática. En su historia, Prometheus no solo hace estadísticas computacionales; de alguna manera ha dado el salto hacia usar el sentido común y percibir los matices sociales.

En otra parte del libro, Tegmark dice que "las oportunidades a corto plazo para que la inteligencia artificial beneficie a la humanidad" son "espectaculares, siempre que las hagamos robustas e imposibles de hackear". ¿Imposibles de hackear? Es un "si" bastante importante. Pero ese es solo uno de los muchos problemas de nuestro desordenado mundo que impiden que el progreso tecnológico se desarrolle de manera tan uniforme, definitiva e imparable como imagina Tegmark.

La soga

Nunca diga nunca. Por supuesto, las posibilidades de que la inteligencia informática algún día llegue a convertir a los humanos en una especie de segunda clase no son igual a cero. No tiene nada de malo pensarlo detenidamente. Pero eso es como decir que un asteroide podría golpear la Tierra y destruir la civilización. Eso también es verdad. Es bueno que la NASA esté alerta. Pero como no conocemos ningún asteroide que amenace con golpearnos, tenemos problemas más apremiantes con los que lidiar.

O'Reilly propone subir el salario mínimo e imponer impuestos a los robots, las emisiones de carbono y las transacciones financieras.

En este momento, con ordenadores muy inferiores a una inteligencia artificial de estilo de HAL, muchas cosas pueden salir mal (o ya están yendo mal). Piense en cómo los sistemas que influyen en la concesión de préstamos o fianzas penales incorporan sesgos raciales y otros factores discriminatorios (ver Google advierte: el verdadero peligro de la IA no son los robots asesinos sino los algoritmos sesgados). O los engaños que se propagan desde Google y Facebook (ver El hombre que intenta protegernos de la manipulación y la falta de ética de las redes sociales). O los ciberataques automatizados (ver Alquile su propio ejército de aparatos zombi para atacar internet por solo 7.000 euros).

En el libro WTF?: What’s the Future and Why It’s Up to Us, el editor e inversor de tecnología Tim O'Reilly plantea un problema global aún mayor: la automatización está alimentando un sistema miope de capitalismo accionarial que recompensa un pequeño porcentaje de inversores a expensas de casi todos los demás. Claro que la inteligencia artificial puede ser usada para ayudar a las personas a resolver problemas realmente difíciles y aumentar la productividad económica. Pero no sucederá a una escala lo suficientemente amplia a menos que las empresas inviertan en eso.

En cambio, O'Reilly sostiene que el implacable imperativo de maximizar los beneficios para los accionistas hace que las empresas sean más propensas a usar la automatización simplemente como una forma de ahorrar dinero (ver La humanidad está perdida si la inteligencia artificial se basa en criterios comerciales). Por ejemplo, critica cómo las grandes corporaciones reemplazan al personal a jornada completa por empleados a tiempo parcial cuyos horarios son manipulados por un software que los trata, dice O'Reilly, como "componentes desechables". Critica que los ahorros resultantes, con demasiada frecuencia son destinados a la recompra de acciones y otras prestidigitaciones financieras en lugar de labores de I+D, inversiones de capital, la capacitación de los trabajadores y otras cosas que favorecen la creación de empleos de calidad.

En realidad, esto es contrario a los intereses corporativos a largo plazo, porque los trabajadores bien pagados de hoy en día pueden permitirse ser clientes de los productos de mañana. Pero las compañías han salido corriendo como locas a por las recompensas de los recortes a corto plazo, que O'Reilly llama "los algoritmos no examinados que rigen nuestra economía". Y, añade que "a pesar de todo lo que se habla de la disrupción, Silicon Valley (EE. UU.) es esclavo de ese sistema  con demasiada frecuencia".

¿Qué hacemos? Entre otras cosas, O'Reilly propone subir el salario mínimo e imponer impuestos a los robots, las emisiones de carbono y las transacciones financieras. En lugar de perseguir OPI y entrar al juego de Wall Street, cree que los emprendedores tecnológicos deberían distribuir la riqueza a través de otros modelos, como a través de cooperativas y estructuras de inversión que recompensan el pensamiento a largo plazo. En cuanto a una renta básica universal, una vieja idea que vuelve a surgir debido al temor de que los ordenadores hagan que el trabajo humano resulte casi inútil, O'Reilly se muestra abierto a la posibilidad de que sea necesaria algún día (ver Los robots y la inteligencia artificial reavivan el sueño de la renta básica universal). Pero él no lo está pidiendo todavía. De hecho, parece una falta de imaginación suponer que el siguiente paso desde donde estamos ahora consista en simplemente abandonar la perspectiva de que la mayoría de la gente tenga trabajo.

Con el clima político actual, aumentar los impuestos y otros pasos recomendados por O'Reilly podrían parecer tan rebuscados como un ordenador que engaña a un hombre para que crea que su esposa ha resucitado. Pero al menos al autor le preocupan los problemas correctos. Mucho antes de que alguien descubra cómo crear una superinteligencia, la versión humana del sentido común puede decirnos que la inestabilidad que ya está siendo causada por la desigualdad económica solo empeorará si la IA es utilizada para fines específicos. Una cosa es segura: no lograremos una superinteligencia si Silicon Valley es invadido por "el 99%" con sogas en la mano.

Brian Bergstein es colaborador en 'MIT Technology Review' y editor de 'Neo.Life'.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. De predicar el pastafarismo a votar leyes: el experimento en Minecraft que creó una sociedad propia con IA

    Un experimento en Minecraft con personajes impulsados por IA demostró que, de manera autónoma, pueden desarrollar comportamientos similares a los humanos, como hacer amigos, inventar roles laborales o incluso difundir una religión como el pastafarismo entre sus compañeros para ganar adeptos

  2. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  3. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real