La política de uso responsable de la inteligencia artificial en la Fiscalía General de la Nación. No se trata de un documento técnico reservado a especialistas ni de una simple formalidad administrativa. Es, en realidad, una hoja de ruta que busca ordenar cómo una entidad con funciones tan sensibles como la investigación penal incorpora herramientas tecnológicas cada vez más presentes en la vida cotidiana. La Resolución 0-0077 de 2026 no solo reconoce la utilidad de la inteligencia artificial, sino que establece con claridad las condiciones bajo las cuales puede ser utilizada sin comprometer derechos fundamentales ni la integridad del proceso judicial.
Desde el inicio, la resolución parte de una premisa que conviene destacar porque atraviesa todo su contenido (la inteligencia artificial es una herramienta de apoyo y no un sustituto del criterio humano). Esto tiene implicaciones profundas en el ámbito jurídico. Significa que ninguna decisión relevante puede descansar en lo que arroje un sistema automatizado, por más sofisticado que sea. La responsabilidad sigue siendo del funcionario que valida, interpreta y decide. En otras palabras, la tecnología puede asistir, pero no reemplazar la función pública ni diluir la responsabilidad que esta conlleva.
El documento se construye sobre un marco normativo más amplio que incluye la Constitución Política de Colombia, así como decretos que han impulsado la transformación digital del Estado, como el Decreto 767 de 2022 y el Decreto 1263 de 2022. Esto no es menor, porque ubica la política dentro de una estrategia nacional que busca modernizar la administración pública sin perder de vista principios como la seguridad de la información, la privacidad y la generación de valor público.
Uno de los aspectos más relevantes de la resolución es la definición de los principios que deben orientar el uso de la inteligencia artificial. No son declaraciones abstractas, sino criterios operativos que condicionan cualquier implementación. Se habla de responsabilidad humana, transparencia, protección de datos, proporcionalidad, equidad, inclusión e innovación responsable. Traducido a la práctica, esto implica que cada herramienta debe ser comprensible, que su uso debe estar justificado, que no puede generar discriminación y que siempre debe respetar los límites legales en materia de tratamiento de información. Aquí se evidencia una preocupación clara por evitar que la eficiencia tecnológica termine vulnerando garantías básicas.
A esto se suman estándares técnicos que elevan el nivel de exigencia. No basta con implementar una herramienta de inteligencia artificial, es necesario documentarla, entender su funcionamiento, identificar sus limitaciones y garantizar la trazabilidad de sus resultados. La resolución exige que se pueda saber qué datos entraron al sistema, qué resultados produjo y bajo qué condiciones. Además, introduce un elemento que suele pasar desapercibido en estos debates (la sostenibilidad ambiental). Reconoce que el uso de inteligencia artificial, especialmente la generativa, implica un consumo significativo de recursos computacionales, por lo que su utilización debe ser evaluada también desde ese ángulo.
Otro punto clave es la creación de una estructura de gobernanza interna. La Subdirección de Tecnologías de la Información y las Comunicaciones asume un rol central como autoridad técnica, lo que permite evitar la dispersión de iniciativas y el uso descontrolado de herramientas. Esto se complementa con la obligación de crear un inventario institucional de soluciones de inteligencia artificial. En términos prácticos, la entidad busca saber qué se está usando, para qué se está usando y bajo qué condiciones. Este control no es restrictivo por capricho, sino necesario cuando se manejan datos sensibles como los que circulan en una investigación penal.
La resolución también es clara en delimitar los usos permitidos y las prohibiciones. Se autoriza el uso de inteligencia artificial para tareas de apoyo (como redacción asistida, traducción, organización de información o síntesis de fuentes), pero se prohíbe expresamente su utilización para tomar decisiones que afecten derechos fundamentales (como imputaciones o determinaciones de responsabilidad penal). Esta línea divisoria es esencial, porque evita que la automatización invada espacios donde el análisis jurídico y la valoración probatoria son insustituibles.
En esa misma lógica, se establecen deberes concretos para los usuarios. No basta con usar la herramienta, hay que entender sus limitaciones (incluyendo fenómenos como las alucinaciones o los sesgos), verificar la información que produce y dejar constancia de su uso. Este último elemento resulta especialmente interesante, porque introduce una trazabilidad no solo técnica sino también funcional. Es decir, no solo importa lo que hace la herramienta, sino cómo y para qué la utiliza el funcionario.
La política incorpora además un enfoque de gestión del riesgo que resulta particularmente sofisticado. Clasifica las herramientas según la sensibilidad de la información que procesan, el impacto que pueden tener sus errores y la escala de su uso. Esto permite ajustar los controles de manera proporcional. No es lo mismo usar inteligencia artificial para corregir un texto que para procesar evidencia dentro de una investigación penal. Este enfoque evita tanto la sobre regulación como la laxitud, y permite un equilibrio razonable entre innovación y control.
Más allá de su contenido específico, esta resolución deja una enseñanza que trasciende a la Fiscalía. Demuestra que es posible integrar la inteligencia artificial en el sector público sin perder de vista los principios que rigen la función administrativa y la protección de derechos. De hecho, puede servir como referente para otras entidades estatales que enfrentan el mismo desafío (cómo aprovechar la tecnología sin comprometer la legalidad ni la confianza institucional).
En un contexto donde la adopción de herramientas de inteligencia artificial avanza más rápido que su regulación, contar con políticas claras como esta no solo ordena el uso interno, sino que envía un mensaje institucional. La tecnología no es un fin en sí mismo, es un medio que debe estar al servicio de la justicia, la eficiencia y el interés general. Y para que eso ocurra, su implementación debe ser consciente, controlada y, sobre todo, responsable

