.

Computación

La inteligencia artificial ya es capaz de evitar la prisión preventiva innecesaria

1

Un programa de aprendizaje automático analiza el historial del acusado para determinar si debe esperar a su juicio desde casa o presenta riesgo de fuga. Y resulta que funciona mejor que los jueces

  • por Tom Simonite | traducido por Teresa Woods
  • 10 Marzo, 2017

Crédito: Jon Han.

Cuando un acusado tiene que esperar a que se celebre su juicio, ¿cómo se decide si puede aguardarlo desde casa o debe ingresar en prisión? La inteligencia artificial podría ayudar a los jueces a tomar esta decisión, lo que reduciría el número de crímenes o el número de personas encarceladas a la espera de sentencia.

En un nuevo estudio de la Oficina Nacional de Investigaciones Económicas de Estados Unidos (NBER, por sus siglas en inglés), un equipo de economistas e informáticos entrenaron un algoritmo para predecir si los acusados mostraban riesgo de fuga mediante sus historiales penales y registros judiciales con datos de cientos de miles de casos de la ciudad de Nueva York (EEUU). Al analizar más de 100.000 casos que no había visto antes, el algoritmo resultó ser más preciso que los jueces a la hora de predecir qué harán los acusados después de ser liberados.

El profesor de informática de la Universidad Cornell (EEUU) Jon Kleinberg, que participó en la investigación, señala que un objetivo del proyecto era demostrar los beneficios potenciales para la sociedad de emplear el aprendizaje automático dentro del sistema judicial penal. "Esto demuestra que el aprendizaje automático puede ayudar incluso en contextos en los que existe una amplia experiencia humana", afirma Kleinberg, que colaboró con investigadores de la Universidad de Stanford, la Universidad de Harvard y la Universidad de Chicago (todas en EEUU). 

Los responsables calculan que para la ciudad de Nueva York (EEUU), los consejos de su algoritmo podrían reducir un 25% los crímenes perpetrados por acusados a la espera de juicio sin alterar el número de personas encarceladas en esa situación. Pero también podría reducir en un 40% la población encarcelada que espera ser juzgada sin influir en la tasa de criminalidad de los acusados. Repetir el experimento con datos de 40 grandes condados urbanos de EEUU produjo resultados similares.

Y por si fuera poco, los beneficios se mantenían incluso cuando se disminuía la proporción encarcelada de afroamericanos e hispanos.

El algoritmo asigna a los acusados una puntuación de riesgo basada en datos procedentes de documentos relacionados con el caso en cuestión y el historial penal. Estos datos incluyen, por ejemplo, el delito del que se les acusa, cuándo y dónde fueron detenidos y el número y los tipos de condenas anteriores. (El único dato demográfico que emplea es la edad, no la raza).

Kleinberg sugiere que su algoritmo podría ayudar a los jueces sin interrumpir demasiado su trabajo, ya que el sistema solo emite unas sencillas advertencias sobre las decisiones que considera potencialmente erróneas. El análisis del rendimiento de los jueces sugiere que tienen tendencia a dejar en libertad a acusados con muchas probabilidades de no presentarse al juicio o de cometer un crimen mientras esperan la vista. Un algoritmo podría detectar muchos de esos casos, según Kleinberg.

El profesor de criminología de la Universidad de Pensilvania (EEUU) Richard Berk considera que es "trabajo muy bueno" y un ejemplo del creciente interés por aplicar el aprendizaje automático para mejorar las decisiones judiciales penales. La idea lleva 20 años siendo explorada, pero la tecnología se está volviendo más potente, y cada vez hay más datos de entrenamiento disponibles.

Berk probó recientemente un sistema en colaboración con la Junta de Libertad del Estado de Pensilvania que aconseja sobre el riesgo de que una persona vuelva a delinquir. Según sus resultados, el sistema redujo la tasa de criminalidad. El estudio del NBER es importante, según Berk, porque examina cómo se puede usar la tecnología en fases previas a la sentencia, una área que no ha sido explorada en profundidad.

Pero señala que hacen falta más investigaciones para asegurarse de que los algoritmos judiciales no den lugar a resultados injustos. El año pasado, una investigación realizada por ProPublica descubrió que el software comercial desarrollado para ayudar a determinar qué convictos deberían recibir la libertad condicional tenía muchas más probabilidades de clasificar incorrectamente a personas de color como "alto riesgo" que a los caucásicos.

El director del Laboratorio de Criminología de la Universidad de Chicago, Jens Ludwig, que participó en el nuevo estudio de la NBER, afirma que los resultados demuestran que las conclusiones injustas no son inevitables, ya que un algoritmo que avisa a los jueces podría reducir la tasa de criminalidad además de la tasa de encarcelación de afroamericanos e hispanos. "Estas herramientas realmente pueden mejorar la justicia con respecto al statu quo", concluye.

Computación

Las máquinas cada vez más potentes están acelerando los avances científicos, los negocios y la vida.

  1. Este experimento simulado pone a prueba la realidad que conocemos

    Esta simulación sugiere que estamos al inicio de una nueva era de la física en la que podremos estudiar la gravedad cuántica en el laboratorio y en la que que la base de la realidad se convertiría en un simple juguete para los físicos

  2. El nuevo chip de Google protege las partes más vulnerables de la nube

    OpenTitan es un microprocesador de código abierto que puede ser comprobado en cualquier momento y que incluye un sistema de autodiagnóstico cada vez se que arranca el sistema. Aunque no es perfecto, podría reducir la persistencia de los hackers que ya han logrado acceder a una máquina

  3. El misterio de los barcos que sufren suplantaciones de GPS en China

    Varias embarcaciones en Shanghái han sido víctimas de una novedosa arma que engaña a los sistemas de GPS: falsifica la ubicación de las naves para que parezcan estar en un lugar diferente. Los expertos están asombrados por la complejidad de los ataques y aún no se sabe quién está detrás de ellos