AI

¿Puede la IA ser más eficiente que las personas en el sistema judicial?

¿Puede la IA ser más eficiente que las personas en el sistema judicial?

La IA está destinada a reemplazar muchos trabajos humanos en el futuro, pero ¿deberían los abogados y los jueces estar entre ellos? Aquí exploramos dónde ya se está utilizando la IA en los sistemas judiciales de todo el mundo y discutimos si debería desempeñar un papel más amplio.

En particular, ¿podría, o debería, desarrollarse alguna vez una IA que pudiera emitir un juicio sobre un ser humano vivo y que respira?

RELACIONADO: CHINA HA REVELADO UN JUEZ DE AI QUE 'AYUDARÁ' CON LOS PROCEDIMIENTOS JUDICIALES

¿Cómo se utiliza actualmente la IA en los sistemas judiciales?

Lo crea o no, la inteligencia artificial y otras formas de algoritmos avanzados ya se utilizan ampliamente en muchos sistemas judiciales de todo el mundo. En varios estados de Estados Unidos, por ejemplo, actualmente se utilizan algoritmos predictivos para ayudar a reducir la carga sobre el sistema judicial.

"Bajo una inmensa presión para reducir el número de cárceles sin correr el riesgo de un aumento de la delincuencia, las salas de los tribunales de Estados Unidos han recurrido a herramientas automatizadas en un intento de hacer pasar a los acusados ​​por el sistema legal de la manera más eficiente y segura posible". - Revisión de tecnología.

Para lograr esto, los departamentos de policía de EE. UU. Están utilizando algoritmos predictivos para desarrollar estrategias sobre dónde desplegar sus fuerzas de manera más efectiva. Utilizando un análisis de las estadísticas históricas sobre delitos y la tecnología, como el reconocimiento facial, se espera que este nivel de automatización ayude a mejorar la eficacia de sus recursos humanos.

El servicio judicial de EE. UU. También está utilizando otras formas de algoritmos, llamados algoritmos de evaluación de riesgos, para ayudar a manejar los casos posteriores al arresto.

"Las herramientas de evaluación de riesgos están diseñadas para hacer una cosa: tomar los detalles del perfil de un acusado y escupir una puntuación de reincidencia, un número único que estima la probabilidad de que vuelva a delinquir.

Luego, un juez tiene en cuenta esa puntuación en una miríada de decisiones que pueden determinar qué tipo de servicios de rehabilitación deben recibir los acusados ​​en particular, si deben permanecer en la cárcel antes del juicio y qué tan severas deben ser sus sentencias. Una puntuación baja allana el camino para un destino más amable. Una puntuación alta hace precisamente lo contrario. "- Technology Review.

En China, los jueces impulsados ​​por IA también se están convirtiendo en una realidad. Proclamada como "la primera de su tipo en el mundo", la ciudad de Beijing ha introducido un centro de servicios de litigios basado en Internet que cuenta con un juez de inteligencia artificial para ciertos tipos de trabajo de casos.

La jueza, llamada Xinhua, es una mujer artificial con un cuerpo, expresiones faciales, voz y acciones que se basan en una jueza humana viva y que respira en el Servicio Judicial de Beijing.

Este juez virtual se utiliza principalmente para casos básicos repetitivos, dijo el Tribunal de Internet de Beijing en un comunicado. 'Ella' se ocupa principalmente de la recepción de litigios y la orientación en línea en lugar del juicio final.

La esperanza es que el uso del juez impulsado por la inteligencia artificial y el tribunal en línea haga que el acceso al proceso judicial sea más efectivo y de mayor alcance para los ciudadanos de Beijing.

"Según el presidente del tribunal, Zhang Wen, la integración de la inteligencia artificial y la computación en la nube con el sistema de servicio de litigios permitirá al público aprovechar mejor los beneficios de la innovación tecnológica en China". - Radios de China.

La inteligencia artificial también se está utilizando en China para examinar los mensajes de las redes sociales, los comentarios y otras actividades en línea para ayudar a generar pruebas contra posibles acusados. La policía de tránsito de China también está comenzando a utilizar la tecnología de reconocimiento facial para identificar y condenar a los infractores.

Otras fuerzas policiales de todo el mundo también están utilizando tecnología similar.

¿Podría la Inteligencia Artificial tomar buenas decisiones?

La respuesta a esta pregunta no es sencilla. Si bien la IA puede tomar algunos tipos de decisiones legales, esto no significa que sea necesariamente una buena idea.

Muchos sistemas de inteligencia artificial y algoritmos predictivos que utilizan el aprendizaje automático tienden a entrenarse utilizando conjuntos de datos existentes o información histórica existente.

Si bien esto suena como un enfoque relativamente lógico, depende en gran medida del tipo y la calidad de los datos proporcionados.

"Entrada basura, salida basura". como dice el dicho.

Un uso importante del aprendizaje automático y los macrodatos es identificar correlaciones, o correlaciones aparentes, dentro de conjuntos de datos. Esto podría conducir a falsos positivos, en el caso de los datos sobre delitos, y en realidad no sería muy útil para identificar las causas subyacentes del delito.

Como advierte otro famoso adagio, "la correlación no es causalidad".

Los humanos a menudo son tan culpables de esta falacia lógica como podría serlo una réplica artificial. Un ejemplo famoso es la correlación entre los bajos ingresos y la propensión de una persona a la delincuencia.

La pobreza no es necesariamente una causa directa de la conducta delictiva, pero puede ser una causa indirecta, creando condiciones que hacen que la delincuencia sea más probable.

Si los errores de correlación similares no se manejan correctamente, una decisión o juicio de aplicación de la ley de IA podría degenerar rápidamente en un círculo vicioso de imponer sanciones que son demasiado severas o demasiado indulgentes.

Como ocurre con todo en la vida, la situación es en realidad más matizada de lo que parece. Los humanos tampoco son máquinas perfectas para tomar decisiones.

Si los estudios de 2018 también son correctos, parece que la IA puede ser más rápida y precisa para detectar posibles problemas legales que los seres humanos. Esto respalda el argumento de que la IA debería usarse en funciones de apoyo legal, o al menos revisando los precedentes legales.

¿Podría usarse la IA para reemplazar a los jueces humanos?

Como ya hemos visto, la inteligencia artificial y los algoritmos avanzados ya se utilizan en todo el mundo para determinadas tareas administrativas y de recopilación de datos. De hecho, están haciendo parte del "trabajo preliminar" para los jueces y abogados humanos.

Pero, ¿podrían usarse alguna vez para reemplazar completamente a los humanos en un sistema judicial? ¿Cuáles serían exactamente las ventajas y desventajas de hacerlo?

Muchos dirían que una IA debería poder eliminar cualquier sesgo en el proceso final de toma de decisiones. Sus decisiones finales deberían, en teoría, basarse puramente en los hechos en cuestión y en los precedentes legales existentes.

Este, por supuesto, se supone que ya es el caso de los jueces humanos. Pero cualquier ser humano es susceptible a conocimientos incompletos, prejuicios y prejuicios inconscientes, a pesar de las mejores intenciones.

Pero, probablemente de manera más significativa, el hecho de que algo sea ley no significa necesariamente que sea justo. El comportamiento "bueno" y "malo" no es blanco o negro, es una construcción muy matizada y completamente humana.

Tales preguntas permanecen dentro del ámbito de la filosofía, no de la informática. Aunque, es probable que otros no estén de acuerdo, y eso podría verse como algo "bueno".

Los jueces también tienen la función de tomar decisiones sobre el castigo del infractor después de la condena. Estos pueden ir desde los menores (pequeñas multas) hasta los que cambian la vida, como la imposición de un encarcelamiento prolongado, o incluso la pena de muerte en las áreas donde se usa.

Tales decisiones generalmente se basan en un conjunto de pautas de sentencia que toman en cuenta factores como la gravedad de un delito, su efecto sobre las víctimas, las condenas anteriores y la probabilidad de que el convicto reincida. Como hemos visto, esta es un área donde la IA y los algoritmos predictivos ya se están utilizando para ayudar con el proceso de toma de decisiones.

Los jueces pueden, por supuesto, ignorar por completo la recomendación de la IA. Pero esto podría no ser posible si los humanos fueran completamente eliminados del proceso.

Quizás se podría argumentar aquí para los paneles de jueces de IA formados por una red generativa de adversarios (GAN).

Pero eso está más allá del alcance de este artículo.

¿Los jueces de IA serían imparciales?

Un beneficio aparente de usar la IA para tomar decisiones es que los algoritmos no pueden tener sesgos. Esto debería hacer que la IA sea casi perfecta para decisiones legales, ya que el proceso debe basarse en pruebas en lugar de ser subjetivo, como puede ser el caso de los jueces humanos.

Suena perfecto, ¿no? Pero "la hierba no siempre es más verde en el otro lado".

Los algoritmos y la inteligencia artificial no son perfectos en sí mismos en este sentido. Esto se debe principalmente a que cualquier algoritmo o IA primero debe ser codificado por un humano.

Esto puede introducir un sesgo no intencionado del desplazamiento.

Las IA pueden incluso aprender e imitar el sesgo de sus homólogos humanos y de los datos específicos con los que han sido entrenados. ¿Podría mitigarse esto alguna vez?

Otro problema es quién supervisará a los jueces de IA. ¿Podrían cuestionarse sus decisiones en una fecha posterior? ¿Tendrían prioridad los jueces humanos sobre una decisión de una IA o viceversa?

La Cumbre Mundial de Gobierno celebrada en 2018, arrojó una conclusión interesante y conmovedora sobre este tema que vale la pena repetir literal: -

"Aún no está claro cuáles de estas tecnologías pueden generalizarse y cómo los diferentes gobiernos y poderes judiciales elegirán monitorear su uso.

El día en que la tecnología se convierta en juez de la buena y mala conducta humana y asigne los castigos apropiados aún está en el futuro.

Sin embargo, los sistemas legales a menudo proporcionan ejemplos ideales de servicios que podrían mejorarse, mientras que los juicios probablemente se beneficien de un mejor análisis de datos. La ley a menudo requiere un juicio para sentar un precedente, así que tenga cuidado con el caso de prueba de AI como juez ".

En conclusión, ¿podría la IA reemplazar alguna vez a los profesionales del derecho humano o ser más eficiente en la toma de decisiones legales? La respuesta, al parecer, es tanto sí como no.

Sí, con respecto al desempeño de funciones de apoyo o asesoramiento, como recopilar pruebas o estimar la probabilidad de reincidencia. No, en lo que respecta a la toma de decisiones finales y sentencias.

Probablemente sea prudente dar a los seres humanos, en lugar del código, la última palabra cuando se trata de dictar sentencia. Después de todo, la ley y los sistemas legales pueden ser etiquetados legítimamente como una construcción humana.

Los sistemas legales existentes están bellamente manipulados por jurados y en ocasiones exasperantemente ilógicos, y se han adaptado y mejorado a medida que el sentido y la sensibilidad evolucionaron con el tiempo, y eso se adapta perfectamente a los seres humanos. La mayoría de los sistemas legales no están escritos en piedra para siempre; evolucionan como lo hace la sociedad.

No es probable que una máquina pueda ser entrenada para comprender, empatizar o emitir juicios "en el espíritu de la ley".

Quizás los humanos, con todas nuestras imperfecciones e inconsistencias lógicas, son los únicos posibles árbitros de la justicia entre nosotros. Por esta razón, se podría argumentar que la "justicia" nunca debe delegarse a las máquinas, ya que su "lógica fría" podría verse como reñida con la "condición humana".

Pero te dejaremos tomar tu propia decisión.


Ver el vídeo: Tu abogado es un robot. Alejandro Touriño. TEDxParquedelOeste (Septiembre 2021).