
El doctor Pedro Salcedo, investigador del Doctorado en Inteligencia Artificial del Cruch Biobío-Ñuble, ofreció una charla ante integrantes del Tribunal Laboral de Concepción para exponer alcances de las herramientas en favor de las labores.
“Transformando el trabajo judicial: el poder de la IA en los tribunales laborales” fue la charla que dio el doctor Pedro Salcedo, académico de la Universidad de Concepción (UdeC) y del Doctorado en Inteligencia Artificial (IA) del Cruch Biobío-Ñuble, a integrantes del Tribunal Laboral de Concepción que impulsó la instancia por el interés de explorar cómo la IA podría aportar en tareas que realizan jueces y abogados en torno a resolución de problemas complejos, ante la creciente carga laboral y de procesos judiciales.
“La IA no toma decisiones judiciales. Lo que hace es aportar evidencia estructurada, contexto jurídico y análisis de datos, siempre como un complemento al juicio humano”, enfatizó como premisa clave para abordar alcances de la IA aplicada al Poder Judicial.
Entre sus grandes beneficios destacó la automatización y optimización de tareas repetitivas como la revisión de documentos, gestión de expedientes y programación de audiencias, permitiendo que jueces y funcionarios tengan más tiempo y espacio para decisiones que exigen análisis profundo y juicio humano.
El investigador también relevó que la IA podría fortalecer la transparencia y accesibilidad del sistema judicial: “asistentes virtuales que traduzcan resoluciones complejas a lenguaje claro, o motores de búsqueda inteligentes que permitan a cualquier ciudadano encontrar jurisprudencia relevante”.
Además, presentó un análisis sobre herramientas de IA generativa, como Gemini Flash y Gemini 2.5 Pro, pueden aplicarse a distintas etapas del proceso judicial, desde la tramitación inicial de una demanda hasta la generación de informes que apoyen la deliberación judicial.
Y planteó escenarios donde IA puede analizar jurisprudencia, detectar cláusulas abusivas en contratos o anticipar posibles resoluciones según patrones previos.
Aunque Salcedo reconoció riesgos y desafíos éticos.
“Uno de los mayores riesgos es el sesgo en los datos. Si los algoritmos se entrenan con información histórica que reproduce desigualdades se pueden perpetuar decisiones injustas”, advirtió. Y está la falta de transparencia de algunos modelos y necesidad de desarrollar una IA explicable para que jueces comprendan por qué una herramienta sugiere determinada información. Vulneración de datos privados o dificultades para determinar responsabilidades legales ante errores son otros retos.
“Por eso es vital mantener la supervisión humana, establecer marcos éticos claros y promover capacitación constante en IA aplicada a contextos públicos”, cerró.