top of page

Fallas de la Inteligencia Artificial en el Peritaje Judicial del Tipo Económico, Reflexiones y Responsabilidades

  • 17 ene
  • 12 Min. de lectura

Por Enrique Sepúlveda Donoso


“La tecnología es un siervo útil, pero un amo peligroso”.

Christian Lous Lange (1869 - 1938)

historiador y pacifista noruego.

 


La Inteligencia Artificia (IA) como toda tecnología al ser usada por el humano se vuelve una Sociotecnología, al usarla en el Peritaje Judicial del Tipo Económico (PJTE) debe ser considerada como un Junior con expertises al que se le delegan tareas, pero no responsabilidades, obligando a una supervisión estricta sobre todo a sus fallas ya sean por mal uso o por mal diseño. Estas fallas pueden generar errores no forzados en los procesos judiciales, atentando contra la Igualdad ante la Ley y los aspectos deontológicos (éticos) del ejercicio de la actividad pericial, naturalmente no hay que esperar la generación de una regulación en cuanto a las responsabilidades por las fallas del uso de la IA en el PJTE, la regulación tiene que ser interna, debiendo venir del propio Perito el uso de Buenas Prácticas que busquen eliminar, prevenir o mitigar los efectos no deseados de dichas fallas.

 

El PJTE tiene una base epistémica (de conocimiento) que es técnica y científica, en donde el Perito aplica Sociotecnologías y recurre al Método Científico, formulando preguntas que guían su investigación, planteando hipótesis del caso, como una suposición fundamentada y comprobable, sobre la solución a un problema o la respuesta a una pregunta de investigación. En la actividad científica, se usan distintas estrategias para aproximarse a un problema. Por un lado está el uso de buscadores simples de Internet, los buscadores avanzados con buenas taxonomías de búsqueda y, por otro, está la contraintuitiva estrategia que plantea un artículo científico de investigadores del MIT (Instituto Tecnológico de Massachusetts) y la Universidad de Pittsburgh, titulado:; La ciencia está influenciada por Wikipedia: Evidencia de un ensayo controlado aleatorizado, donde se estudió el uso de Wikipedia, visibilizando que muchos de sus visitantes son científicos, así como el potencial que tiene esta herramienta para moldear la ciencia, influenciando una de cada 300 palabras en artículos científicos relacionados, donde se correlacionaron miles de artículos de Wikipedia, con un grupo control al azar, de quienes añadieron nuevo contenido científico a la enciclopedia, visibilizando, además, su influencia sobre los repositorios abiertos de conocimiento científico, según la evidencia expuesta (Thompson y Hanley, 2018).

 

En noviembre del año 2022 irrumpe ChatGPT, un ChatBot (Robot Conversacional) de IA Generativa, tecnología que puede responder preguntas, generar textos como un humano y mantener conversaciones naturales coherentes, procesando grandes cantidades de datos para comprender y generar respuestas razonables en una amplia área de conocimientos, escribir código de programación, explicar temas complejos de manera sencilla, crear resúmenes e incluso generar imágenes, pudiendo ayudar a programar, investigar o estudiar. Estos atributos de la IA me permiten plantear que esta tecnología puede ser tratada como un experto que apoya al Perito, naturalmente bajo su supervisión, una desventaja que tiene la IA respecto a Wikipedia, es que esta última proporciona una instancia para cuestionar sus contenidos lo que la hace más perfectible.

 

Plantearé el alcance del concepto Peritaje Judicial del Tipo Económico, acudiendo al ámbito económico, las profesiones de quienes lo ejercen y las áreas del Derecho involucradas. Estas distinciones responden a la práctica de la actividad, ya que las más científicas surgen, cronológicamente, después. Así, la escasez, como problema económico central (recursos limitados menores que necesidades y deseos ilimitados) y el objeto de estudio de la Economía como ciencia social, define el ámbito de lo económico, lo que, junto con las profesiones y las áreas del derecho, me permiten plantear una taxonomía con las afinidades relacionales entre dichas distinciones, lo que expongo en la siguiente tabla:



Entiendo al Perito como un Profesional Senior, que puede transferir alguna de sus actividades operativas al Personal o Profesional Junior, que poseen poca experiencia laboral, y habilidades técnicas básicas, que se hallan en fase de aprendizaje y requieren formación adicional, y supervisión, pueden estar al día con las últimas tendencias, ser proactivos, con alta motivación, nativos digitales, presentando mayor rotación de personal y, por productividad, su sueldo es inferior al Senior. Estas distinciones fueron tomadas de la página (Westerman Associates, Perfiles Junior, s.f.).

 

Los Potenciales Impactos del Uso de la IA en el PJTE, consideran la IA y la justicia económica, sus efectos son en los ámbitos económicos, comerciales, laborales, tributarios, y otros relacionados. Se puede distinguir la revisión de documentos, conciliaciones bancarias, clasificación de evidencia, generación de reportes preliminares y cálculos de daños y perjuicios. También está la revisión documental, el peritaje caligráfico y el documental, análisis de contratos, documentos legales y comunicaciones empresariales, acelerando la revisión y liberando al Perito para temas más relevantes. Está el análisis masivo de datos (Big Data), procesando, organizando y clasificando velozmente grandes volúmenes de documentos y transacciones financieras, registros contables, correos, y cartolas bancarias. También está el análisis de estados financieros, detectando inconsistencias, anomalías y patrones, visibilizando fraudes, irregularidades contables, evasión fiscal o blanqueo de capitales, señalando transacciones sospechosas, movimientos irregulares o relaciones ocultas entre organizaciones y/o personas. La IA puede usarse como modelos predictivos y de simulación, estimando el valor económico de activos, empresas o daños económicos futuros (lucro cesante), simulando distintos escenarios y ayudando a evaluar el impacto potencial de acciones y decisiones financieras. Está el análisis de propiedad intelectual y patentes, para detectar infracciones respecto a derechos de autor, generando una controversia legal, al considerar IA como un ente inventor, con derechos, obligaciones, responsabilidades relacionadas, impactando en la sensibilidad social (Bravo-Placeres et al., 2025). Como Ventajas, aparecen las mejoras en rapidez y eficiencia, reducción drástica en tiempos de análisis documental y de datos, mejorando la precisión y capacidad de análisis, así como la precisión estadística, estos algoritmos pueden detectar anomalías difíciles cognitivamente para el ojo humano, también está la generación de trazabilidad con registros digitales para auditar las operaciones realizadas por la IA. Estas actividades, algunas siguen siendo Junior, otras continúan siendo Senior, pero un grupo pasó de Senior a Junior, esto a pesar de su relativa complejidad.

 

Al revisar las fallas asociadas al uso de la IA, aparecen las Fallas Técnicas y de Diseño, con errores de desempeño por inadecuación de la IA a contextos judiciales específicos, con la mala implementación o calibración del sistema por parte del Perito usuario, generando resultados erróneos, con errores de programación o entrenamiento, uso de algoritmos sesgados, poblaciones de datos incompletas, o mal etiquetadas. Está el Overfitting o interpretaciones erróneas del contexto jurídico, por sobreajuste cuando un modelo de aprendizaje automático memoriza los datos de su entrenamiento, adaptándose tanto a éstos, que también lo hace respecto a su ruido, impidiendo la generalización y predicciones precisas sobre nuevos datos, resultando en un desempeño excelente con datos de entrenamiento, pero sin precisión enfrentando nuevos datos. Está el mal funcionamiento del software por Bugs (errores no intencionados), la incompatibilidad de versiones o errores en el procesamiento de datos. La falta de trazabilidad (explicabilidad), de sistemas con opacidad y falta de transparencia, que genera el Problema de la Caja Negra, impidiendo al Perito y al tribunal entender cómo se llegó a una conclusión, porque los algoritmos de IA avanzados, como las redes neuronales profundas, son difíciles de interpretar o auditar, socavando el derecho a la defensa y la posibilidad de una adecuada contradicción de la prueba.

 

Las Fallas Epistémicas o de Conocimiento, son por mala interpretación de resultados por el Perito, confusión entre correlación y causalidad, porque la IA predictiva está diseñada para identificar patrones y asociaciones estadísticas (correlaciones) para grandes poblaciones de datos, pero no para comprender las relaciones subyacentes de causa y efecto, también el uso de la IA fuera del ámbito de entrenamiento generará conclusiones sin validez científica o forense.

 

Están las Fallas Deontológicas (Éticas y Legales), como sesgos algorítmicos y la discriminación que favorece o perjudica a alguna de las partes, esto porque los datos de entrenamiento reflejan o contienen sesgos históricos, culturales o demográficos, por una mayor proporción de datos de un grupo étnico o género, replicándose y amplificando disparidades, generando análisis discriminatorios o predicciones erróneas y evaluación con riesgos más altos para ciertos grupos de personas. Se puede violar la privacidad o del debido proceso, al usar datos personales o sensibles sin consentimiento informado. Está la manipulación de evidencia (Deepfakes), creando evidencia digital falsa muy convincente e incriminatoria, generando desafíos de autenticación de la prueba, socavando la confianza en el sistema judicial. Particularmente importante es la pérdida de Derechos Fundamentales, por decisiones erróneas basadas en IA, que generen privaciones de libertad, indemnizaciones injustas, o pérdida de custodia, violando derechos como la presunción de inocencia, la igualdad ante la ley y el derecho a un juicio justo como plantean Valencia y Beltrán (2025). La posibilidad del desplazamiento de Responsabilidad Humana surge como tentación de usar la IA como Chivo Expiatorio en decisiones difíciles, generando la interrogante de ¿quién es el responsable, el proveedor de la IA, el Juez que la consideró, o el Perito que la usó?, erosionando la Autoridad Judicial, delegando la valoración de pruebas, con la renuncia de una función esencial del Juez.

 

También hay Fallas Procesales, como la falta de acreditación o validación judicial del sistema de IA, carencia de cadena de custodia digital para datos analizados, inadmisibilidad probatoria porque el método no cumple criterios de confiabilidad o reproducibilidad. El exceso de confianza o delegación del juicio humano genera gran dependencia a los resultados de la IA, donde los peritos delegan su criterio profesional a conclusiones sin validación experta. La falta de transparencia y auditabilidad, porque el código fuente, los datos de entrenamiento y la metodología no están disponibles para su escrutinio, impiden ejercer un control efectivo. Si hay pérdida del juicio humano en cuanto al contexto, la IA puede identificar patrones, pero sin la capacidad humana para entender matices, contexto social, intencionalidad o factores atenuantes que un Perito puede considerar.

 

Las Responsabilidades por los Efectos de las Fallas de la IA, se distribuyen, según cada agente en la cadena de uso. La atribución de las responsabilidades es compleja, dependiendo del grado de autonomía del sistema y del rol del Perito o usuario, pero como la IA carece de conciencia o voluntad, las responsabilidades deben buscarse en su origen humano a lo largo de la cadena de uso.

 

Están las Responsabilidades del Perito Judicial como Auxiliar de la Justicia, que es quien firma el informe final y da fe técnica de su contenido, asumiendo así la responsabilidad fundamental de la correcta aplicación, validación y supervisión de la herramienta de IA, con una verificación de la idoneidad y la validación científica de la IA utilizada, con explicaciones para el tribunal en cuanto a los límites y márgenes de error. Si la falla es por usar un software no validado, no aplicar el protocolo adecuado, no detectar un error evidente o delegar su juicio en forma irreflexiva, entonces se incurre en negligencia profesional o falta a la probidad pericial, recayendo la responsabilidad en el perito que firma el informe, pudiendo este ser impugnado, desacreditado y su informe desestimado. La IA es una herramienta al servicio del Perito, no su reemplazo, complementándolo en conocimiento y criterio profesional, manejando grandes volúmenes de datos. Por esto debe verificarse la validez científica del, software, la comprensión de los principios y limitaciones de éste, auditando y validando sus resultados con el criterio experto del perito y nunca presentar el producto como una verdad absoluta, no explicar el grado de incertidumbre, o los posibles sesgos.

 

Las Responsabilidades del Desarrollador, Productor o Proveedor de la IA, se pueden dar por defectos de diseño o fabricación del software, como errores de código, algoritmos mal diseñados, datos de entrenamiento con sesgos, o el no proporcionar las advertencias y protocolos de uso necesarias, limitaciones del sistema, tipos de sesgos y los contextos donde la herramienta es adecuada. Está la falta de transparencia por no proporcionar medios para que la herramienta sea auditada o explicada de manera significativa, así se debe garantizar la trazabilidad y transparencia algorítmica de la herramienta.

 

Está la Responsabilidad de la Administración de Justicia (Estado-Poder Judicial), donde si el tribunal o el poder judicial implementa, autoriza o permite en forma consciente y explícita que Perito use una IA, entonces se deben plantear también protocolos y regulaciones claras para su uso, validación, auditoría o supervisión humana, con una formación adecuada para jueces, fiscales y peritos sobre los riesgos y el uso correcto de las herramientas, debiendo invertir en sistemas de auditoría externa e independiente para los algoritmos. La falta de condiciones adecuadas supone una responsabilidad institucional o administrativa por mala implementación tecnológica, pudiendo generar nulidad procesal si se afectan las garantías del debido proceso. La decisión final y valoración crítica del uso de la IA en un proceso judicial deben ser de experto humano y finalmente del Juez, esto supone la aceptación del uso de la IA, por tanto, si taxativamente es limitada y/o se exige supervisión humana, la responsabilidad recaerán en los sujetos participantes de la cadena en el origen de las fallas. Las consecuencias no deseadas suponen un daño sistémico a la confianza en el sistema de justicia pudiendo generar cuestionamientos técnicos de las sentencias.

 

Habrá una Responsabilidad Compartida o en Cascada por Causas Concurrentes, cuando el grado de control que cada actor tenía sobre la herramienta, así como la debida diligencia técnica, es aplicable a cada rol. Como el caso de Alucinaciones de la IA que plantea Dantart (2025), para quien no son anomalías ocasionales, los sistemas de aprendizaje automático de la IA pueden producir contenidos sin fundamento fáctico y en contradicción con las fuentes autorizadas establecidas, generando responsabilidades que parten por el desarrollador, y siguen con el productor, proveedor, y el Perito usuario, llegando hasta el Juez que conscientemente toma en cuenta un peritaje que se apoyó en la IA.

 

Si bien la IA no es por ahora un Sujeto de Derecho al que se puedan exigir responsabilidades por sus fallas, cuando se propone considerar a la IA como inventor con derechos, obligaciones, y responsabilidades relacionadas, planteo que también se está abriendo la puerta para responsabilizar la IA, y al propietario de ésta con incluso al sacrificio del ente en el mundo digital, análogamente al caso de una mascota con dueño que ataca a un tercero, entendiendo, además, que se afecte la dignidad de los Seres Humanos al considerar una IA como Sujeto de Derecho.

 

Se deben tener presente respecto a las fallas de la IA, los Principios de la Deontología (Ética) Jurídica, destacando consideraciones como la Igualdad Ante la Ley y el evitar incurrir en el Error No Forzado tema que ya he planteado en un artículo (Sepúlveda-Donoso, 2025).

 

Finalmente, debo recomendar la adopción de Buenas Prácticas en cuanto al uso de la IA, dejando al Humano la decisión final y la valoración de la prueba, al usarla como asistencia, la responsabilidad última recae en el Perito, o en quien utiliza sus informes basados en IA para toma la decisión final, o presenta la prueba en el tribunal, entonces se deben auditar o certificar estas herramientas antes del uso judicial, la supervisión humana debe ser activa y obligatoria (human in the loop), generando protocolos de trazabilidad y cadena de custodia digital que den garantía de la prueba, con revisión de expertos para preservar la autenticidad, integridad y legalidad de los datos analizados por la IA, se debe fomentar la alfabetización digital de Jueces, Abogados y Peritos para entender los fundamentos y riesgos de la IA, también capacitar a los peritos en ética y epistemología de la IA. En cuanto a la transparencia en los informes periciales se debe detallar el software, su versión, parámetros y márgenes de error, adecuando el uso de IA a los principios del debido proceso, objetividad y defensa. Se debe colocar urgencia en la actualización de los marcos normativos que definan con claridad la Responsabilidad Digital y el régimen que es aplicable a la IA autónoma, la tendencia debe apuntar a un peritaje asistido, asimilando la IA a un Personal Junior con cierta expertise, pero delegándole tareas, no responsabilidades, ya que el perito humano debe conservar la interpretación y responsabilidad final, también se debe impulsar la generación de normas de certificación para el uso de IA en las pericias judiciales.

 

Planteo, además, que el uso de la IA repite y amplifica los defectos humanos, no hay que esperar la generación de una regulación en cuanto a las responsabilidades por las fallas del uso de la IA en el Peritaje Judicial, ésta tiene que ser interna, viniendo del propio Perito, dado que firma como responsable. Finalmente, planteo que las regulaciones seguirán quedando en el ámbito axiológico, por tanto, el peligro asociado es una variable endógena a la propia sociedad.

 

Referencias Bibliográficas:




Enrique Sepúlveda Donoso.

Contador - Ingeniero Comercial – M.B.A. – M - M.Sc. in B.A.

Post-Master Alta Dir. Inic. Empren. Innov. Empres. - Post-Master Cs.

Negocios y Empren.

Ph.D. in B.A. – Postdoctor de Estudios Estratégicos.

Perito Judicial en las Especialidades de Contador (1993) e

Ingeniero Comercial (2024).

+56 9 3119 2342







Las opiniones vertidas en esta sección son de exclusiva responsabilidad de quienes las emiten y no representan, necesariamente, el pensamiento de la Fundación para el Desarrollo de las Ciencias Forenses

Comentarios


CONTÁCTANOS

Fundación para el Desarrollo de las Ciencias Forenses

Celular: +56 9 8334 2787

Nueva York N°53, oficina 103, Santiago de Chile.

  • Instagram
  • Facebook
  • X
  • LinkedIn
Fundación FUNCIF

© 2025

Fundación para el Desarrollo de las

Ciencias Forenses

bottom of page