Lecciones de Londres y Colombia unidas por la ética y la responsabilidad.
Hace poco, una sentencia de la Real Corte de Justicia de Londres (06 de junio de 2025), que trató los casos AC-2024-LON-003062 y CL-024-000435 y que tuve oportunidad de consultar en esta red social, puso el foco en un tema crucial: el uso de la Inteligencia Artificial en actividades judiciales. La Corte Británica fue contundente: si usas IA para investigación jurídica, tienes el deber profesional ineludible de verificar su exactitud con fuentes autorizadas. ¡Las “alucinaciones” de la IA pueden tener consecuencias serias!
¡Y esta regla no nos es ajena en Colombia!
El Acuerdo PCSJA24-12243 del 16 de diciembre de 2024, expedido por el Consejo Superior de la Judicatura, nos posiciona a la vanguardia. Es un hito claro de la modernización judicial, fusionando la innovación con la responsabilidad y la ética.
¿Qué implica este Acuerdo para la práctica legal y judicial en Colombia?
Nuestro Acuerdo clasifica el uso de la IA en la Rama Judicial, desde tareas administrativas hasta aquellas que inciden directamente en las decisiones. Pero el principio es claro e inamovible: la IA es una herramienta de apoyo, NUNCA un sustituto del criterio humano.
Aspectos que deben tenerse en cuenta:
- Usos Permitidos y Niveles de Riesgo:
- Gestión Administrativa: La IA optimizará la redacción de oficios, correos, organización de agendas y la mejora gramatical de textos. ¡Bienvenida la eficiencia!
- Soporte Judicial (requiere revisión detallada): Puede usarse IA para buscar y sintetizar jurisprudencia, resumir sentencias, transcribir audiencias, extraer información de expedientes y apoyar la estructuración de argumentos. La clave: ¡Verificación humana rigurosa e insustituible!
- Tareas Críticas (transparencia y privacidad especial): Para simulaciones de escenarios o apoyo a la motivación de decisiones, la exigencia de transparencia y control es máxima.
- Control Centralizado y Restricciones: El Consejo Superior de la Judicatura será la única autoridad que determine y avale las herramientas de IA generativa para usos no específicos. Esto garantiza tecnología confiable y alineada con los estándares. ¡Olvídese de usar chatbots gratuitos en funciones sensibles!
- Responsabilidad Individual e Irrenunciable: Cada servidor judicial es directamente responsable de conocer la herramienta de IA: sus funcionalidades, limitaciones (¡cuidado con las “alucinaciones” y sesgos!), riesgos y cómo maneja la información. La capacitación y la lectura de los términos de uso son OBLIGATORIAS.
- ¡Prohibiciones Claras: Líneas Rojas Infranqueables!
- NO se puede usar IA para valorar pruebas, resolver problemas jurídicos complejos o tomar decisiones exclusivamente basadas en sus respuestas. El juicio humano es sagrado.
- PROHIBIDO introducir datos personales, sensibles o confidenciales en herramientas de IA que puedan apropiarse o compartir esa información.
- ¡Cero plagio! Siempre se debe citar adecuadamente el material generado por IA y nunca presentarlo como autoría propia.
- Transparencia Total y Control Humano: En actuaciones que impacten directamente decisiones, es obligatorio dejar constancia explícita en el expediente: qué IA se usó, para qué, cómo se usó, los “prompts” (instrucciones) dados, y distinguir CLARAMENTE los textos generados por IA (con comillas, negrillas, etc.).
Este Acuerdo es un llamado a la innovación responsable. La IA llega para potenciar nuestra labor, pero la ética, la seguridad de la información y el discernimiento del juez siguen siendo el corazón de la justicia.
Para finalizar, debo aclarar que para hacer este texto, utilice IA (Gemini 2.5 Flash).