.

Inteligencia Artificial

"A veces prefiero interactuar con una IA que con ciertas personas"

1

La última ganadora del premio Athena Lecturer y primera mujer decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio, Ayanna Howard, aclamada experta en robótica e inteligencia artificial, advierte que nuestra excesiva confianza en estos sistemas puede llevarnos a situaciones peligrosas

  • por Karen Hao | traducido por Ana Milutinovic
  • 25 Mayo, 2021

Ayanna Howard siempre ha querido usar robots e inteligencia artificial (IA) para ayudar a las personas. En sus casi 30 años de carrera ha construido innumerables robots: para explorar Marte, para recoger los peligrosos y para ayudar a niños con necesidades especiales. En el proceso, ha desarrollado una impresionante variedad de técnicas de manipulación robótica, navegación autónoma y visión artificial. Y ha liderado el campo de estudio de un error común que cometemos los humanos: confiar demasiado en los sistemas automatizados.

El 12 de mayo, la Association for Computing Machinery (ACM) otorgó a Howard el premio Athena Lecturer de este año, que reconoce a las mujeres que han realizado contribuciones fundamentales a la informática. La organización no solo premió la impresionante lista de logros científicos de Howard, sino también su pasión y compromiso de contribuir a su comunidad. Durante el tiempo que ha sido una respetada tecnóloga, también ha creado y dirigido muchos programas diseñados para incrementar la participación y la permanencia de mujeres jóvenes y minorías menos representadas en el campo.

En marzo, tras 16 años como profesora del Instituto de Tecnología de Georgia (EE. UU), asumió un nuevo puesto como decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio (EE. UU.). Es la primera mujer en ocupar ese cargo. El día que recibió el premio de la ACM, hablé con Howard sobre su carrera y sus últimas investigaciones.

He notado que usted utiliza el término "inteligencia humanizada" para describir su investigación, en vez de "inteligencia artificial". ¿Por qué?

Sí, comencé a usarlo en un artículo en 2004. Pensaba en por qué estábamos trabajando en inteligencia para la robótica y los sistemas de IA. No es que quisiéramos crear funciones inteligentes fuera de nuestras interacciones con las personas. Estábamos motivados por la experiencia humana, los datos humanos, las aportaciones humanas. La inteligencia artificial implica un diferente tipo de inteligencia, mientras que la inteligencia humanizada muestra que es inteligente, pero motivada por la construcción humana. Y eso significa que, cuando creamos estos sistemas, también nos aseguramos de que tengan algunos de nuestros valores sociales.

¿Cómo empezó con este trabajo?

La principal motivación viene de mi investigación de doctorado. En aquel entonces trabajaba en entrenar a un robot para que eliminara peligros hospitalarios. Esto fue cuando esos cubos tan buenos y seguros para colocar las agujas todavía no existían. Las agujas se tiraban a la misma basura que todo lo demás, y hubo casos en los que los trabajadores del hospital se enfermaron. Entonces pensé: ¿cómo podría diseñar un robot para que ayudara en esa situación?

Así que se trataba de construir robots útiles para las personas. Y de reconocer que no sabíamos cómo construir robots para que realizaran algunas de estas tareas. Pero la gente las hacía todo el tiempo, así que decidimos imitar lo que hacía la gente. Así empezó todo.

Luego estuve trabajando con la NASA intentando imaginar la navegación del futuro róver de Marte. Y de nuevo, fue así: los científicos pueden hacer esto muy, muy bien. Por eso, haría que los científicos teleoperaran estos róveres y miraran lo que veían las cámaras de estos róveres, y luego trataría de correlacionar cómo operan en función de eso. El enfoque fue siempre el mismo: ¿por qué no voy a los expertos humanos, programo en un algoritmo lo que ellos hacen y luego hago que el robot lo entienda?

¿Había más personas pensando y hablando sobre inteligencia artificial y robótica de esta manera centrada en el ser humano en aquel entonces? ¿O era usted un caso extraño y atípico?

Oh, yo era un caso totalmente atípico y extraño. Veía las cosas de manera diferente a todos los demás. Y en aquel entonces no había una guía sobre cómo llevar a cabo este tipo de investigación. De hecho, cuando miro hacia atrás para ver cómo hice la investigación, ahora la haría de una manera completamente diferente. Existe toda esta experiencia y conocimiento que ha surgido desde entonces en el campo.

¿En qué momento pasó de pensar en construir robots que ayuden a las personas a dedicarse a la relación entre robots y seres humanos?

El cambio estuvo motivado en gran medida por un estudio que hicimos sobre la evacuación de emergencia y la confianza en los robots. Queríamos comprobar si, cuando los humanos se encontraban en una situación de alto riesgo en la que el tiempo era crítico, confiarían en las instrucciones de un robot, así que invitamos a los participantes a un edificio de oficinas abandonado fuera del campus, y un robot guía los dejó entrar. Inventamos una historia sobre el robot y cómo tenían que realizar una encuesta, ese tipo de cosas. Mientras estaban allí, llenamos el edificio de humo y activamos la alarma de incendio.

"Cuando alguien tiene acceso a la IA puede construir su propio futuro"

Queríamos ver si, mientras iban hacia la salida, se dirigirían a la puerta principal, a la señal de salida o seguirían las instrucciones del robot que los llevaba en una dirección diferente.

Pensábamos que las personas se dirigirían a la puerta principal porque ahí era por donde habían entrado, y una investigación anterior había mostrado que, cuando las personas se encontraban en una situación de emergencia, solían dirigirse a sitios conocidos. O pensábamos que seguirían las señales de salida, porque ese era un comportamiento entrenado. Pero los participantes no hicieron eso. De hecho, siguieron las instrucciones del robot.

Luego introdujimos algunos errores. Hicimos que el robot se estropeara, que girara en círculos, que los llevara en una dirección que requería mover muebles. Pensábamos que en algún momento las personas dirían: "Voy a ir a la puerta principal o hacia la señal de salida". Literalmente, llegamos hasta el final antes de que la gente dejara de seguir las instrucciones del robot.

Esa fue la primera vez que nuestras hipótesis estuvieron totalmente equivocadas. No podía creer que la gente confiara en el sistema de esta manera. Era interesante y fascinante, pero también era un problema.

Desde ese experimento, ¿ha visto este fenómeno replicado en el mundo real?

Cada vez que veo un accidente de Tesla. Especialmente los primeros. Pensaba: "Sí, ahí está". La gente confía demasiado en estos sistemas. Y recuerdo que después del primero, ¿qué hicieron? Decidieron que había que sostener el volante durante unos cinco segundos más. Si no tiene la mano en el volante, el sistema se desactivará.

Pero nunca vinieron a hablar conmigo ni con mi grupo, porque eso no iba a funcionar. No funciona porque es muy fácil engañar al sistema. Si alguien está mirando su teléfono móvil y luego escucha un pitido, simplemente levanta la mano, ¿verdad? Es subconsciente. Aún no está prestando atención. Y es porque cree que el sistema está bien y que puede seguir haciendo lo que sea que estaba haciendo: leer un libro, ver la televisión o mirar su teléfono. No funciona porque no aumentaron el nivel de riesgo o la incertidumbre, o la incredulidad o la desconfianza. No lo incrementaron lo suficiente para que la persona se volviera a involucrar.

Es interesante que esté hablando de cómo, en este tipo de escenarios, hay que diseñar activamente la desconfianza en el sistema para volverlo más seguro.

Sí, eso es lo que hay que hacer. De hecho, estamos realizando un experimento en torno a la idea de la denegación de servicio. Todavía no tenemos resultados y estamos teniendo dificultades con algunas preocupaciones éticas. Porque, una vez que hablemos de ello y publiquemos los resultados, tendremos que explicar por qué a veces es posible que no queramos darle a la IA la capacidad de denegar un servicio. ¿Cómo eliminar un servicio si alguien lo necesita de verdad?

Pero este sería un ejemplo con la desconfianza en el caso de Tesla. La denegación de servicio sería así: creo un perfil de la confianza, que puedo hacer en función de cuántas veces el usuario se desconectó o dejó de sujetar el volante. Dados esos perfiles de desvinculación, puedo modelar en qué punto se encuentra el usuario en este estado de confianza. Ya lo hemos hecho antes, no con datos de Tesla, sino con nuestros propios datos. Y en cierto momento, la próxima vez que esa persona entre al coche, se le negará el servicio. No tendrá acceso al sistema durante un período de tiempo.

Es casi como castigar a un adolescente quitándole el teléfono. Sabemos que los adolescentes no harán lo que no queremos que hagan si lo vinculamos a su modo de comunicación.

¿Qué otros mecanismos ha explorado para aumentar la desconfianza en los sistemas?

La otra metodología que hemos explorado es la IA explicable, en la que el sistema proporciona una explicación de sus riesgos o incertidumbres, ya que todos estos sistemas tienen incertidumbre, ninguno de ellos es del 100 %. Y un sistema sabe cuándo es incierto. Por lo tanto, podría ofrecerlo como información que una persona pueda entender, para cambiar su comportamiento.

Por ejemplo, digamos que yo soy un coche autónomo, tengo toda la información de mi mapa y sé que ciertas intersecciones tienen un mayor número de accidentes que otras. Al acercarnos a una de ellas, yo diría: "Nos acercamos a una intersección donde murieron 10 personas el año pasado". Lo explico así para que alguien piense: "Oh, espera, tal vez debería prestar más atención".

Ya hemos hablado de algunas de sus preocupaciones en torno a nuestra tendencia a confiar demasiado en estos sistemas. ¿Qué más le preocupa? Por otro lado, ¿qué pasa con los beneficios?

Los aspectos negativos están relacionados con el sesgo. Por eso siempre hablo indistintamente de sesgo y confianza. Porque si confío demasiado en estos sistemas y estos sistemas toman unas decisiones que tienen diferentes consecuencias para distintos grupos de personas, por ejemplo, un sistema de diagnóstico médico que crea diferencias entre mujeres y hombres, entonces estamos construyendo sistemas que aumentan las desigualdades que ya existen. Eso es un problema. Y cuando lo vinculamos con cosas relacionadas con la salud o el transporte, que pueden llevar a situaciones de vida o muerte, una mala decisión puede conducir a algo de lo que no nos podemos recuperar. Por eso tenemos que arreglarlo.

Los puntos positivos son que los sistemas automatizados son mejores que las personas en general. Creo que pueden ser aún mejores, pero en algunas situaciones prefiero interactuar con un sistema de IA que con ciertas personas. Es decir, sé que tiene problemas, pero prefiero la IA. Quiero al robot. Tienen más datos; son más precisos. Especialmente si se trata de una persona novata. Se trata de un mejor resultado. Probablemente el resultado no sea igual.

Además de su investigación en robótica e inteligencia artificial, usted ha impulsado mucho el aumento de la diversidad en el campo a lo largo de su carrera.  Hace 20 años creó un programa para asesorar a chicas adolescentes en riesgo, mucho antes de que otras personas pensaran en este tema. ¿Por qué es importante para usted y para el campo?

Es importante para mí porque puedo identificar los momentos de mi vida en los que alguien me proporcionó el acceso a la ingeniería y a la informática. Yo ni siquiera sabía que era tan importante. Y esa es la razón por la que más tarde nunca tuve el problema de saber que podía hacerlo. Por eso siempre sentí que era mi responsabilidad hacer lo mismo que otros habían hecho por mí. Con los años también noté que había mucha gente en el campo que no se parecía a mí. Entonces me di cuenta: a ver, aquí hay un problema, porque la gente simplemente no tiene modelos a seguir, no tiene acceso, ni siquiera sabe que esto es tan importante.

Y la razón por la que es importante para el campo es porque cada uno tiene una experiencia diferente. Al igual que yo había contemplado la interacción entre humanos y robots antes de que se pusiera de moda. No fue porque yo fuera brillante, sino porque entendí el problema de una manera diferente. Y cuando hablo con alguien que tiene un punto de vista distinto, pienso: "Oh, intentemos combinar y encontrar lo mejor de ambos lados".

El airbag causa más muertes de mujeres y niños que de hombres. ¿Por qué? Bueno, creo que es porque no había nadie en la sala para decir: "A ver, ¿por qué no probamos esto con mujeres en el asiento delantero?" Hay un montón de problemas que han causado la muerte o han sido peligrosos para ciertos grupos de personas. Y yo diría que si miramos hacia atrás, ocurre porque no había suficientes personas para decir "Oiga, ¿ha pensado en esto?", ya que hablan desde su propia experiencia y desde su entorno y su comunidad.

¿Cómo espera que la investigación en la IA y en la robótica evolucione con el tiempo? ¿Cuál es su visión del campo?

Si pensamos en codificar y programar, casi todo el mundo puede hacerlo. Actualmente hay muchas organizaciones como Code.org. Los recursos y las herramientas están ahí. Me encantaría tener una conversación con un estudiante en la que yo le pregunte: "¿Sabes algo sobre inteligencia artificial y aprendizaje automático?" y me responda: "¡Dr. H, llevo haciendo eso desde el tercer curso!" Quiero que me sorprendan así, sería maravilloso. Por supuesto, entonces tendría que pensar en cuál sería mi próximo trabajo, pero esa es otra historia.

Creo que cuando uno tiene herramientas como codificación e inteligencia artificial y aprendizaje automático, puede crear sus propios trabajos, su propio futuro, su propia solución. Ese sería mi sueño.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transofrmando nuestra forma de trabajar y nuestro estilo de vida.

  1. La horrible 'app' de 'deepfakes' que coloca a mujeres en videos porno

    Se trata de algo sobre lo que los expertos llevan tiempo advirtiendo y eleva este tipo de abusos al siguiente nivel. Las consecuencias psicológicas y sociales de esta especie de violación pueden alargarse durante años y también afectan a los hombres en países donde se castiga la homosexualidad 

  2. Los datos biométricos de los afganos, arma para la venganza talibana

    Con decenas de datos por persona, desde escáneres de iris y vínculos familiares hasta su fruta favorita, el sistema destinado a reducir el fraude en las fuerzas de seguridad del país pondría en peligro a los ciudadanos registrados

  3. El perturbador aumento del uso del reconocimiento facial de EE. UU.

    A falta de regulación federal, un informe revela que las agencias nacionales del país lo utilizan cada vez más, en muchas ocasiones sin una supervisión adecuada, y la tendencia no para de aumentar. Además, muchas de ellas utilizan el controvertido sistema de Clearview AI