El juez del Tribunal Superior de la India, Anoop Chitkara, ha fallado en miles de casos. Pero cuando le negó la libertad bajo fianza a un hombre acusado de asalto y asesinato, recurrió a ChatGPT para ayudar a justificar su razonamiento.
Él se encuentra entre un número creciente de jueces que utilizan chatbots de inteligencia artificial (IA) para ayudarlos en los fallos, y los partidarios dicen que la tecnología puede agilizar los procesos judiciales, mientras que los críticos advierten que corre el riesgo de sesgo e injusticia.
“La IA no puede reemplazar a un juez… Sin embargo, tiene un inmenso potencial como ayuda en los procesos judiciales”, dijo Chitkara.
“La revolución del conocimiento ha comenzado y estas plataformas de IA han demostrado en ciertas situaciones sus capacidades para transformar instantáneamente las consultas en resultados sobresalientes”.
(Para conocer las principales noticias tecnológicas del día, suscríbase a nuestro boletín tecnológico Today’s Cache)
Los chatbots como ChatGPT y Google’s Bard son aplicaciones de software diseñadas para imitar conversaciones humanas en respuesta a las preguntas de los usuarios.
Chitkara dijo que no confió en ChatGPT para ayudar a decidir su fallo en el caso de 2020 en el Tribunal Superior de Punjab y Haryana.
Sin embargo, se preguntó si estaba confiando demasiado en su propia “visión consistente” de que las acusaciones que involucran un nivel inusualmente alto de crueldad deberían contar contra la concesión de la libertad bajo fianza, y le pidió a ChatGPT que resumiera la jurisprudencia sobre el tema.
El Ministerio de Justicia no respondió de inmediato a una solicitud de comentarios.
El uso de la IA en el sistema de justicia penal está creciendo rápidamente en todo el mundo, desde la popular aplicación móvil de abogados chatbot DoNotPay hasta los jueces robot en Estonia que adjudican reclamos menores y los jueces de IA en los tribunales chinos.
En la ciudad caribeña colombiana de Cartagena, el juez Juan Manuel Padilla también recurrió a ChatGPT en busca de ayuda en una demanda en la que los padres de un niño autista estaban demandando a su proveedor de atención médica por los costos y gastos del tratamiento.
“(ChatGPT) está generando un texto que es muy confiable, muy concreto y aplicable a un caso de una manera específica”, dijo Padilla.
Le hizo al chatbot varias preguntas legales, como si un niño autista está exento de las tarifas de la terapia. Incluyó los detalles en su fallo, que se puso del lado a favor del niño.
Preocupaciones sobre resultados falsos
Pero la confiabilidad de los chatbots es cuestionable, dijeron varios expertos legales y tecnológicos.
“Algunos jueces están tratando de encontrar una manera de hacer el trabajo más rápido, pero no siempre conocen los límites o los riesgos”, dijo Juan David Gutiérrez, profesor de política pública y datos en la Universidad del Rosario en Bogotá.
“ChatGPT puede inventar leyes y fallos que no existen. En mi opinión, no debería usarse para nada importante”.
Ha habido numerosos ejemplos de chatbots que obtienen información incorrecta o inventan respuestas plausibles pero incorrectas, que se han denominado “alucinaciones”, como inventar artículos ficticios y trabajos académicos.
Cuando Linklaters, un bufete de abogados global con sede en Londres, probó ChatGPT con sus respuestas a 50 preguntas legales, los expertos legales encontraron que era competente en algunas áreas, pero que carecía severamente de otras.
La IA confundió secciones de la Ley de Protección de Datos de 2018 y no pudo dar respuestas completas sobre la ley de contratos inglesa.
“Si no tuviera ya un buen conocimiento de esa área del derecho, sería muy difícil para usted resolverlo”, dijo el abogado Peter Church, experto en privacidad de datos de Linklaters, a la Fundación Thomson Reuters.
Uso de chatbot un ‘desastre’
Una mejor tecnología promete una forma de aliviar el enorme retraso que está obstruyendo algunos sistemas legales.
Solo India tenía más de 40 millones de casos pendientes en tribunales inferiores el año pasado, mientras que Brasil tenía 26 millones de nuevas demandas presentadas solo en 2020, más de 6000 por juez.
Pero la IA corre el riesgo de simplificar demasiado los problemas complejos y podría generar expectativas poco realistas de las capacidades de la tecnología, escribieron Dona Mathew y Urvashi Aneja del colectivo de investigación Digital Futures Lab en un informe reciente.
También existen preocupaciones sobre las violaciones de la privacidad y la explotación de datos judiciales con fines de lucro.
“Con conjuntos de datos sesgados e incompletos, sin remedios legales ni garantías de responsabilidad… estos cambios pueden conducir a daños sistemáticos como amenazas a la independencia judicial y estancamiento de los principios legales”, escribieron.
Raquel Guerrero, abogada de tres periodistas en Bolivia que fueron acusados de publicar fotos de una víctima de violencia sin su permiso, expresó su preocupación cuando el tribunal consultó a ChatGPT durante una audiencia en línea en abril.
Guerrero dijo que la denunciante dio permiso para que las fotos se compartiesen en línea, pero luego negó haberlo hecho.
Los jueces constitucionales preguntaron a ChatGPT sobre cualquier “interés público legítimo” para que los periodistas publiquen fotos en línea de una “mujer que muestra partes de su cuerpo” sin su consentimiento.
ChatGPT respondió que era una “violación de la privacidad y la dignidad de la persona”. Los jueces ordenaron que las fotos fueran eliminadas de las redes sociales.
El expediente judicial dice que ChatGPT no reemplaza las decisiones tomadas por los juristas, pero que puede usarse como apoyo adicional para poder “aclarar ciertos conceptos”.
Pero Guerrero dijo que el uso del chatbot en la audiencia fue “arbitrario” y un “desastre”.
“No se puede usar como si fuera una calculadora que le quita a los jueces la obligación de usar la razón y aplicar la justicia y aplicarla correctamente”, dijo Guerrero, y agregó que está considerando presentar una denuncia contra los jueces por usar el chatbot. .
“Obviamente, ChatGPT no deja de ser un robot. Si le preguntas de la forma correcta, te responderá lo que quieras escuchar”.
2023-05-05 06:42:10
#Los #chatbots #los #tribunales #están #poniendo #riesgo #justicia,