La Corte Suprema confirma que las respuestas de IA no son admisibles como prueba en los tribunales

En el marco del sistema judicial de Ucrania, la utilización de inteligencia artificial como fuente de evidencia ha generado cada vez más cuestionamientos y debates jurídicos.
La reciente resolución del Tribunal de Casación en Asuntos Económicos del Tribunal Supremo ha establecido claramente que las respuestas proporcionadas por sistemas de IA no pueden ser consideradas fuentes confiables ni científicamente comprobadas en casos económicos o civiles.
Según la decisión emitida el 8 de julio de 2025 en el expediente Nº 925/496/24, los tribunales recalcaron que las respuestas generadas por IA, como Grok (desarrollado por xAI) o ChatGPT (de OpenAI), no constituyen pruebas válidas ni confiables.
La práctica jurídica reitera que la tecnología debe usarse únicamente para apoyar y fortalecer el cumplimiento de la ley, no para tomar decisiones judiciales o validar hechos.
La autoridad de dictar fallos corresponde exclusivamente a los jueces, y delegar esta función en la inteligencia artificial está estrictamente prohibido.
En el caso analizado, las respuestas de IA fueron utilizadas no para facilitar la justicia, sino para poner en duda las conclusiones previas del tribunal, lo cual viola los principios fundamentales del Derecho.
Por ello, el tribunal declaró procedente rechazar la solicitud de presentar estas respuestas como pruebas, reafirmando que no constituyen fuentes científicas confiables.
Esta decisión destaca la importancia de preservar la autonomía judicial y la necesidad de que las decisiones sigan siendo responsabilidad humana.