El Equilibrio Perfecto: Eficiencia Algorítmica vs. Garantías Procedimentales en la Contratación Pública Peruana
The Perfect Balance: Algorithmic Efficiency vs. Procedural Guarantees in Peruvian Public Procurement
Rodrigo Andrés Freitas Cabanillas
Universidad Científica del Sur (Lima, Perú)
Pedro Eduardo Santillán Crosby
Universidad Científica del Sur (Lima, Perú)
https://doi.org/10.18800/iusetveritas.202502.013
El Equilibrio Perfecto: Eficiencia Algorítmica vs. Garantías Procedimentales en la Contratación Pública Peruana(*)
The Perfect Balance: Algorithmic Efficiency vs. Procedural Guarantees in Peruvian Public Procurement
Rodrigo Andrés Freitas Cabanillas(**)
Universidad Científica del Sur (Lima, Perú)
Pedro Eduardo Santillán Crosby(***)
Universidad Científica del Sur (Lima, Perú)
Resumen: El presente artículo analiza los beneficios y desafíos que conlleva la implementación de la inteligencia artificial en la contratación pública peruana, destacando tanto su potencial para optimizar la eficiencia, la trazabilidad y la transparencia, como los riesgos que surgen en ausencia de un marco normativo y técnico adecuado. Se examina la tensión entre eficiencia algorítmica y garantías procedimentales, en particular, el debido procedimiento, la motivación administrativa y el derecho de defensa. A partir de un análisis normativo, funcional y comparado con referencias a experiencias de Estonia, Francia, Singapur, Portugal y Ucrania, se identifican lecciones útiles para el contexto nacional. Finalmente, se propone un modelo híbrido de automatización que permite compatibilizar innovación tecnológica con salvaguardas jurídicas, garantizando que la IA se convierta en un instrumento de fortalecimiento del Estado de derecho y no en un factor de erosión.
Palabras clave: Inteligencia Artificial - Contratación Pública - Eficiencia - Gobierno digital - Debido Procedimiento - Trazabilidad - Derecho Administrativo - Perú
Abstract: This article analyzes the benefits and challenges involved in implementing artificial intelligence (AI) in Peruvian public procurement, highlighting both its potential to enhance efficiency, traceability, and transparency, as well as the risks that arise in the absence of an adequate legal and technical framework. It examines the tension between algorithmic efficiency and procedural safeguards, particularly due process, administrative reasoning, and the right of defense. Based on a normative, functional, and comparative analysis with references to experiences in Estonia, France, Singapore, Portugal, and Ukrainethis study identifies valuable lessons for the Peruvian context. Finally, it proposes a hybrid model of automation that reconciles technological innovation with legal safeguards, ensuring that AI strengthens the rule of law rather than undermines it.
Keywords: Artificial Intelligence - Public Procurement - Efficiency - Digital Government - Due Process - Traceability - Administrative Law - Peru
1. Introducción
El Derecho Administrativo contemporáneo enfrenta una profunda transformación debido a la adopción de tecnologías emergentes, entre ellas, la inteligencia artificial (en adelante, IA). La contratación pública se ha convertido en un laboratorio privilegiado para la digitalización y automatización de procedimientos, porque carece de interacción entre el Estado y el ciudadano y es el mecanismo a través del cual se ejecuta la gestión de los fondos públicos (Criado, 2021). En el mundo actual, es imposible escapar del debate sobre el equilibrio entre las garantías procesales y la eficiencia de los algoritmos.
Sin embargo, el problema subyacente concierne a un conflicto estructural. Por un lado, la promesa de la IA es agilizar los procesos de adquisición, reducir costos, minimizar los riesgos de corrupción y mejorar la asignación de recursos. Los beneficios alcanzados en países como Estonia, Singapur y Ucrania demuestran que el uso de algoritmos en los procesos de contratación estatal puede aumentar la transparencia y la trazabilidad (Banco de desarrollo de América Latina y El Caribe [CAF], 2021; Organización para la Cooperación y el Desarrollo Económicos [OCDE], 2024).
Por otro lado, el uso de sistemas automatizados plantea riesgos significativos para los principios del debido procedimiento, la motivación de las decisiones administrativas y la defensa de los derechos de los administrados (Capdeferro, 2020). En un Estado constitucional de derecho, no basta con decidir rápido: se debe decidir bien y con legitimidad.
La razón de ser de este estudio reside, por tanto, en la necesidad de revisar críticamente cómo el ordenamiento jurídico peruano que viene marcado por la Ley 32069 - Ley de Contrataciones Públicas, el Decreto Supremo 009-2025-EF – Reglamento de la Ley 32069, y por el Decreto Legislativo 1412 - Ley de Gobierno Digital, será capaz de afrontar el reto que supone la automatización de la contratación pública.
Bien es cierto que dichas normas contienen principios muy loables como son los de eficiencia, transparencia y seguridad digital. Sin embargo, no contienen una regulación específica sobre el uso de sistemas algorítmicos en procedimientos administrativos, lo que genera un vacío regulativo que podría derivar en un eventual inseguridad jurídica y vulneración de derechos fundamentales en la práctica.
El objetivo principal de este artículo es doble. Por un lado, identificar los beneficios y amenazas que acarrea la aplicación de IA en la contratación pública peruana, a partir del análisis de casos concretos, como el uso de algoritmos en Perú Compras, y experiencias internacionales relevantes; y, por otra parte, examinar la compatibilidad entre la búsqueda de la eficiencia y la obligación de respetar las garantías procedimentales. Esto último para proponer finalmente un modelo de regulación y de funcionamiento híbrido que permita compatibilizar ambas exigencias.
La hipótesis a la que se adscribe esta investigación, en efecto, es que es posible compatibilizar la eficiencia algorítmica con las garantías constitucionales; siempre y cuando se dote a tal eficiencia de una arquitectura institucional y normativa de calidad. Esto supone implicar a la IA con la acción del funcionario público y no con su sustitución, siempre y cuando se establezcan las condiciones de transparencia, de supervisión humana y de responsabilidad explícita.
En lo que atañe a la metodología, nos encontramos también ante un trabajo multidisciplinario e interdisciplinario. Por un lado, esta investigación se vale de un análisis normativo del derecho administrativo peruano y del derecho administrativo comparado, con el fin de identificar los vacíos y las tensiones normativas. Por otro lado, se incorpora una revisión de la funcionalidad de experiencias de otros países, donde se ha utilizado la IA en contratación pública, con un especial hincapié en Estonia, Francia, Singapur, Portugal y Ucrania, para extraer algunas lecciones didácticas adecuadas a nuestra realidad peruana. Y, finalmente, se acoge aquí una perspectiva crítica desde los principios constitucionales y administrativos que hacen necesaria la preservación del debido proceso y de la rendición de cuentas.
Esta investigación se compone de ocho capítulos. El primer capítulo da paso a esta introducción. El segundo ofrece un esquema teórico-conceptual, diferenciando entre eficiencia algorítmica y garantías de procedimiento. El tercero establece el marco normativo que es aplicable en el Perú, así como también los vacíos normativos que se encuentran vigentes. El cuarto capítulo presenta un análisis de experiencias comparadas, que han ido en búsqueda de equilibrar innovación y garantizar el debido procedimiento. El quinto propone un modelo híbrido que hemos ideado y que se puede aplicar a la realidad en el Perú. El sexto va por el camino de correlacionar la normativa con la técnica y la operativa. El séptimo da cuenta de los riesgos que el modelo presenta y de sus limitaciones y, junto con ello, también de las formas en que podemos mitigar. Por último, en el octavo capítulo, se abordan las conclusiones y recomendaciones.
En definitiva, la premisa clara que constituye el inicio de este artículo es que la tecnología ha de estar al servicio del Estado de derecho y no por fuera de él. La introducción de IA en la contratación pública puede llegar a ser un potente acelerador de la eficiencia y la transparencia, pero siempre y cuando vaya acompañada de un conjunto de salvaguardas normativas y técnicas a fin de proteger los derechos de los administrados. La pregunta que se formula y que preside la investigación que aquí se expone es: ¿Cómo conseguir equilibrar de forma perfecta eficiencia algorítmica y garantías de procedimiento en la contratación pública peruana?
2. Marco teórico conceptual
Es importante establecer una distinción conceptual antes de empezar a analizar la eficiencia algorítmica en la contratación pública. Tal como señala Carbajal, la sistematización se define como “un proceso teórico y metodológico que a partir del ordenamiento, reflexión crítica, evaluación, análisis e interpretación de la experiencia, pretende conceptualizar y construir conocimiento a través de su comunicación, orientar otras experiencias para mejorar las prácticas sociales” (citado en Banguero et al., 2020).
Por otro lado, según la OCDE (2019), la IA es “un sistema basado en máquinas que, tanto explícito como implícito infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenido, recomendaciones o decisiones que pueden influir en lo físico o entornos virtuales”. El tener claro ambos conceptos es importante para poder entender la diferencia entre estos, toda vez que los riesgos jurídicos estudiados en esta investigación, por ejemplo, la falta de transparencia en las decisiones, los sesgos algorítmicos y las dificultades para atribuir responsabilidades, no se refieren a cualquier tipo de sistematización administrativa, sino más bien a la sistematización de procesos con el empleo de la IA como herramienta.
2.1. Eficiencia Algorítmica en la Contratación Pública
El término eficiencia digital en la contratación pública se refiere a la habilidad del Estado para llevar a cabo procedimientos de adquisición con mayor rapidez, reducción de costos y mejor seguimiento, a través de la implementación de tecnologías que automatizan labores, reducen fallos y potencian la claridad. En este escenario, la automatización administrativa alude a la asignación parcial o completa de ciertas tareas del procedimiento administrativo a sistemas algorítmicos que manejan datos y realizan acciones de acuerdo con normas preestablecidas o patrones adquiridos.
2.1.1. Tipos de algoritmos aplicables
Los sistemas de IA que pueden aplicarse a la contratación pública abarcan diversas tecnologías, clasificables según su nivel de complejidad, tales como:
a) Reglas fijas (Rule-based systems): Algoritmos que ejecutan lógicas deterministas del tipo “si-entonces”. Son útiles para tareas estandarizadas, como validar la presentación de documentos obligatorios.
b) Aprendizaje automático (Machine Learning (ML)): Modelos que identifican patrones en grandes volúmenes de datos históricos, por ejemplo, para detectar proveedores sospechosos o evaluar comportamientos atípicos en licitaciones.
c) Procesamiento de Lenguaje Natural (NLP): Algoritmos que permiten a los sistemas comprender y analizar textos legales o técnicos, facilitando la revisión de pliegos, contratos y bases administrativas.
d) IA generativa (Generative AI): Sistemas como los modelos de lenguaje de gran escala (LLM), que pueden redactar documentos como RFP (Request for Proposals), resúmenes ejecutivos o predicciones de precios con base en información histórica y en tiempo real (Kuo, 2025). Cada uno de estos enfoques ofrece ventajas distintas y también plantea riesgos jurídicos diferenciados, lo que justificará posteriormente la necesidad de un modelo normativo y técnico estratificado.
2.1.2. Casos de uso reales: del piloto a la práctica institucional
Uno de los casos más reveladores y, por qué no decirlo, también alentadores en el panorama nacional es el de Perú Compras, una entidad que ha empezado a dar pasos firmes hacia el uso inteligente de la tecnología. ¿Cómo? Aplicando IA para identificar patrones atípicos en los precios dentro de su Catálogo Electrónico.
Puede sonar técnico, pero el impacto es tangible: gracias a esta herramienta, hoy se detectan inconsistencias que antes podían pasar completamente desapercibidas. Según información oficial, la IA ha mejorado notablemente el buscador de fichas técnicas y ha generado alertas que nutren y no reemplazan la labor de los analistas humanos encargados de vigilar estas operaciones (Oficina de Comunicaciones de la Central de Compras Públicas, 2023).
Esta experiencia no ha pasado desapercibida. De hecho, fue uno de los temas centrales de la clase magistral dictada por la Escuela de Gobierno PUCP (2022) sobre IA y contratación pública, donde se presentaron casos concretos: algoritmos entrenados para rastrear posibles riesgos de fraccionamiento o patrones de colusión, todo a partir del cruce automatizado de bases de datos. Suena ambicioso, y lo es, pero también es un ejemplo concreto de cómo lo digital puede apoyar sin sustituir la mirada experta del funcionario público.
Y si ampliamos el enfoque más allá de nuestras fronteras, la imagen se enriquece aún más. La empresa Botpress, por ejemplo, ha documentado cómo la IA generativa se está usando en distintas partes del mundo para resolver tareas muy puntuales que, en otro tiempo, eran sinónimo de desgaste: redactar documentos licitatorios en minutos, generar matrices de riesgo-país para evaluar proveedores, clasificar propuestas o incluso automatizar respuestas frecuentes durante el proceso de adquisición.
No es magia, pero se le parece. Estas soluciones permiten agilizar los ciclos de contratación, centralizar la información y mejorar la trazabilidad sin comprometer, al menos en principio, la calidad de las decisiones (Kuo, 2025).
Entonces, ¿qué nos dicen todos estos ejemplos? Que la eficiencia algorítmica ya no es una promesa futura. Está ocurriendo, ahora mismo, tanto en el Perú como fuera de él. Lo importante es entender que, detrás de cada alerta generada, debe seguir habiendo alguien que la interprete. Porque un algoritmo puede señalar algo extraño, pero solo un ser humano con criterio, experiencia y sentido común puede decir si eso, en efecto, representa un problema real.
¿Qué significa eso, en palabras simples? Que los procesos se están haciendo más ágiles, que los equipos no están tan saturados como antes, que se pueden detectar errores o irregularidades a tiempo antes de que escalen y que la trazabilidad, esa capacidad de seguirle el rastro a cada decisión, ya no es una utopía. Es posible. Y está ocurriendo.
2.1.3. Condiciones previas para una automatización efectiva
Como bien advierte el European Institute of Public Administration [EIPA] (2023), los beneficios de la automatización no se producen de manera automática. La tecnología, por sí sola, no soluciona nada si no se dan ciertas condiciones mínimas. De lo contrario, todo ese entusiasmo por la “transformación digital” puede terminar chocando, de frente, con la dura realidad del aparato estatal.
¿Y cuáles son esas condiciones? Pues la primera y probablemente la más crítica es la calidad de los datos. Porque, por muy sofisticado que sea un algoritmo, si lo alimentas con información incompleta, desactualizada o mal registrada, los resultados serán tan erróneos como el insumo que los originó. Es como querer hornear un buen pan con harina vencida: No importa cuán moderno sea el horno, el resultado va a ser mediocre o incluso peligroso. En el mundo de lo público, esto puede traducirse en decisiones injustas, ineficientes o incluso discriminatorias.
Luego está la infraestructura técnica. No basta con tener una laptop potente. Hablamos de sistemas interoperables, plataformas que puedan conversar entre sí, almacenamiento seguro, servidores estables y acceso a herramientas que permitan probar, ajustar y validar los modelos algorítmicos antes de que salten al ruedo.
Y, por supuesto, el tercer pilar: El capital humano. Aquí no solo se necesitan programadores o ingenieros. Se requiere algo mucho más complejo y raro: equipos multidisciplinarios integrados por juristas, expertos en datos y funcionarios públicos capaces de interpretar, cuestionar y si es necesario corregir al algoritmo, dado que ningún sistema es completamente infalible.
En otras palabras, tener IA sin estos tres elementos es como tener un auto deportivo sin gasolina, sin mecánico y sin mapa. Puede lucir impresionante, pero no va a ninguna parte. O, peor aún, puede llevarnos directo al precipicio.
2.1.4. Eficiencia dentro de un marco de legitimidad
Desde el punto de vista jurídico, conviene no perder de vista una verdad fundamental: la eficiencia no es un fin en sí mismo, sino un medio. Un principio instrumental, subordinado como debe ser a valores mucho más grandes y sensibles como la legalidad, la transparencia, la motivación y la equidad.
Porque, vamos, ¿de qué sirve que una decisión se tome en segundos si nadie puede entender cómo se llegó a ella?. Una decisión algorítmica que es veloz pero ininteligible puede terminar vulnerando el derecho a la defensa, o peor aún, replicando sesgos que generen discriminaciones indirectas sin que nadie lo note a tiempo.
Y por eso, la eficiencia no puede verse solo desde el reloj o la planilla de costos. Hay que descomponerla, mirar sus capas. Podemos hablar, por ejemplo, de:
- Eficiencia formal: aquella que se enfoca en reducir tiempos, recursos y trámites innecesarios. Algo muy necesario, sin duda.
- Eficiencia material: que apunta a mejorar la calidad de las decisiones. No basta con decidir rápido; hay que decidir bien, con información sólida y lógica clara.
- Eficiencia garantista: quizá sea la más importante de todas. Es la que vela porque, incluso en un procedimiento digitalizado de principio a fin, no se pierdan los pilares básicos del debido procedimiento. ¿Qué implica eso? Que toda decisión esté debidamente motivada, que las personas tengan la oportunidad real de ser escuchadas, y que exista siempre la posibilidad de cuestionar lo resuelto, de pedir una revisión con ojos humanos.
Este enfoque, esta manera más completa y realista de entender la eficiencia, va a ser clave en lo que veremos más adelante. Porque si algo está claro a estas alturas es que no se trata de automatizar por automatizar, como si todo lo nuevo fuera automáticamente bueno. De lo que se trata es de construir, con cuidado y criterio, un modelo normativo que abrace la tecnología, sí, pero sin renunciar jamás a lo que hace legítima una decisión del Estado. La idea no es reemplazar principios por códigos, sino lograr que ambos se potencien.
2.2. Garantías Procedimentales y Derecho Administrativo Digital
La introducción de algoritmos en los procedimientos administrativos no es una mejora técnica aislada. Es, en el fondo, un parteaguas. Una transformación que despierta oportunidades, sí, pero también genera tensiones profundas, sobre todo cuando se toca lo más delicado del Derecho Administrativo: el equilibrio entre hacer las cosas más rápido y hacerlo con legitimidad.
Y es que, cuando hablamos de eficiencia algorítmica, no podemos olvidar al menos en el contexto peruano que hay límites jurídicos claros. El primero está en nuestra propia Constitución Política, concretamente en el artículo 139, inciso 3, que consagra el derecho al debido procedimiento. Y, el segundo, se encuentra en la Ley 27444 - Ley del Procedimiento Administrativo General (en adelante, LPAG), la cual desarrolla con bastante claridad principios esenciales como la motivación de los actos, el derecho de defensa y la posibilidad de revisión.
2.2.1. El debido procedimiento como freno y guía de la automatización
Ahora bien, previo al análisis del debido procedimiento como freno y guía de la automatización, resulta necesario definir dicho concepto jurídico. Al respecto, Rojas (2011) define el debido procedimiento como una garantía que asegura al administrado el cumplimiento de todas las etapas legales exigidas en un procedimiento para que una decisión sea jurídicamente válida; no limitándose a un aspecto formal, sino que también protege el ejercicio efectivo de los derechos del administrado dentro del ámbito administrativo. Esto implica un control no solo formal, sino también material, que evalúa si el contenido de la decisión se ajusta a los principios y valores del ordenamiento jurídico.
Entonces, por definición, el debido procedimiento exige tres cosas muy concretas, pero absolutamente esenciales: que toda decisión administrativa esté debidamente motivada, que quien la recibe pueda ser escuchado, y que siempre exista una vía clara para cuestionarla. Suena básico, incluso de sentido común. Pero cuando entra en juego un algoritmo, todo se vuelve menos obvio. En este punto, Ponce advierte que se debe examinar los hechos determinantes y los datos utilizados, también que los sistemas algorítmicos de IA (SIA) cumplan con el requisito de explicabilidad, es decir, si ofrece razones comprensibles para su resultado (citado en Orlando, 2025).
Imaginemos, por ejemplo, que un sistema de IA recomienda excluir a un postor por razones técnicas. Ahora bien, si esa exclusión no viene acompañada de una explicación clara, no solo para programadores, sino para cualquier ciudadano, se está violando el principio de motivación. Y si no hay forma de impugnar esa recomendación, entonces también está en riesgo el derecho de defensa.
Y es justo en este punto donde la LPAG cobra todo su sentido normativo. Sus artículos 3, 6 y 10 lo dicen sin rodeos: Los actos administrativos deben ser motivados, adecuarse a su finalidad pública y susceptibles de revisión. En otras palabras, ninguna decisión puede quedar escondida dentro de una “caja negra” digital. No importa cuán sofisticado sea el algoritmo si lo que produce no puede entenderse ni cuestionarse.
Por ello, cuando una entidad pública decide incorporar IA a sus procesos, no basta con que el sistema funcione. Tiene que hacerlo respetando reglas claras. Tiene que permitir que se trace, paso a paso, el razonamiento detrás de cada resultado. Y, además y esto es clave, la entidad sigue siendo responsable, incluso si compró el algoritmo a un proveedor privado. No se puede delegar el juicio, ni mucho menos, el deber de rendir cuentas.
En el fondo, el mensaje no cambia: La tecnología puede y debe ser una aliada, pero nunca debe desplazar el criterio jurídico ni diluir la responsabilidad del Estado frente a los ciudadanos.
2.2.2. Riesgos principales: caja negra, sesgos y delegación ciega
La verdad es que uno de los mayores peligros de usar IA en procedimientos administrativos no está en lo que hace, sino en cómo lo hace y qué tan entendible resulta para los demás. Es lo que se conoce como la temida “caja negra algorítmica”. ¿Qué significa? Que la lógica interna del sistema es tan compleja o tan poco documentada que ni los funcionarios públicos ni los ciudadanos pueden explicar por qué se tomó una determinada decisión.
Este riesgo se multiplica cuando hablamos de algoritmos de aprendizaje profundo (deep learning), concebido como un subconjunto del aprendizaje automático que utiliza redes neuronales multicapa. Es más, son llamadas redes neuronales profundas, para simular la compleja capacidad de toma de decisiones del cerebro humano (Holdsworth et al., 2024).
En esa línea, Baig et al. (2024) señalan que el aprendizaje profundo es una versión más avanzada del aprendizaje automático, especialmente útil para procesar una gama más amplia de recursos de datos (texto y datos no estructurados, incluidas imágenes), que requiere incluso menos intervención humana y, a menudo, puede producir resultados más precisos que el aprendizaje automático tradicional.
En consecuencia, el aprendizaje profundo permite detectar patrones con un nivel de precisión extraordinario; sin embargo, dicha habilidad se manifiesta a costa de una falta de interpretabilidad, siendo que, en muchos casos, ni siquiera los propios desarrolladores pueden ofrecer una justificación clara y comprensible del resultado. Esta falta de transparencia, que ya resulta problemática en otros contextos, adquiere mayor relevancia en el Derecho Administrativo, donde la comprensibilidad del razonamiento es una condición indispensable para su control, cuestionamiento y mejora.
De modo que, si no se puede entender cómo se llega a una decisión, tampoco se puede ejercer adecuadamente el derecho a impugnarla ni garantizar su legitimidad. Y eso, en este ámbito, es dinamita pura.
A esto se suma otro problema igual de serio: Los sesgos. El sesgo en la IA puede definirse como la tendencia de un algoritmo a generar resultados que favorecen injustamente a ciertos grupos o categorías de datos, generalmente como consecuencia de datos históricos sesgados o de prácticas inadecuadas en la recolección y tratamiento de la información (Bailin, 2025).
En ese sentido, una de las principales causas del sesgo proviene del uso de datos defectuosos, es decir, aquellos que no son representativos, contienen vacíos de información o replican prejuicios históricos, de modo que, cuando estos datos alimentan los algoritmos, pueden generar resultados injustos y crear un ciclo de retroalimentación en el que el sistema aprende y refuerza continuamente los mismos patrones sesgados, amplificando progresivamente la distorsión en sus decisiones (Jonker & Rogers, 2024).
Así, los algoritmos aprenden de datos del pasado; pero si esos datos están contaminados, el sistema no solo los repetirá, los validará. Por ejemplo, si en una región determinada casi nunca ganan proveedores pequeños, el sistema podría empezar a considerarlos menos competitivos, incluso si hoy están mejor preparados. Es decir, puede terminar convirtiendo las excepciones injustas del pasado en reglas automáticas del presente.
Y, por si fuera poco, todavía hay un riesgo más sutil, pero muy real: el de la “delegación ciega”. Cuando se usa una herramienta automática sin revisión humana real, el Estado deja de ejercer su deber de juzgar caso por caso. Es como poner el piloto automático sin supervisar el camino. Esto no solo va contra el principio de razonabilidad administrativa, sino que también debilita la confianza ciudadana en el sistema.
2.2.3. Derechos emergentes en el contexto algorítmico
Frente a todos estos desafíos, hay algo importante que no debemos olvidar: no estamos solos, ni estamos empezando desde cero. Desde hace ya varios años, distintas corrientes doctrinarias y organismos internacionales vienen esbozando lo que podríamos llamar sin exagerar una nueva generación de derechos en la era digital. Y no lo hacen como una moda pasajera, sino como una respuesta directa y necesaria a los dilemas que plantea el uso de algoritmos en la vida pública.
La verdad es que estos derechos no son un lujo. Tampoco son un plus que las entidades puedan adoptar si tienen tiempo o presupuesto. Son una extensión natural del debido procedimiento, adaptada a los tiempos que corren. Y, si se quiere ver así, son una manera de asegurarnos que el Estado no pierda el rostro humano en medio de tanta automatización.
Entre los más urgentes y olvidados hay tres que ya deberían estar en el radar de cualquier entidad pública que use IA:
- El derecho a la explicabilidad. Parece de sentido común, pero no siempre se respeta. Toda persona tiene derecho a saber por qué se tomó una decisión que le afecta. No hablamos de un tecnicismo abstracto, sino de una explicación clara, comprensible, sin jerga opaca. Porque si no puedes entender una decisión, tampoco puedes cuestionarla. Y eso rompe el equilibrio del sistema.
- El derecho a la trazabilidad. Toda decisión automatizada debería dejar huella. No una huella fantasma, sino un rastro claro, visible, que permita reconstruir cómo se llegó a ese resultado. Como seguir migas de pan para volver sobre tus pasos. Porque sin ese rastro, es imposible auditar, revisar o corregir.
- El derecho a la revisión humana. Este, quizás, sea el más crucial. Porque en el fondo, todos queremos lo mismo: Que haya alguien del otro lado. Que no todo dependa de una fórmula matemática. Que, si el sistema se equivoca y puede equivocarse, haya una persona que escuche, que mire el contexto, que corrija si es necesario. Es el derecho a pedir que tu caso no quede atrapado en una máquina que nadie puede cuestionar.
Como bien recuerda la OCDE (2019), estos no son solo principios retóricos o recomendaciones técnicas. Son estándares jurídicos, y cada vez más, condiciones mínimas para que un sistema de gobierno digital sea legítimo y confiable. Ignorarlos no es modernizarse: es perder de vista el corazón del Estado de Derecho.
2.2.4. Críticas al entusiasmo ciego por la IA
La verdad es que, frente a la IA, a veces nos dejamos llevar por el entusiasmo. Y no es para menos: promesas de eficiencia, automatización, decisiones más rápidas, suena tentador. Pero ese entusiasmo, si no va acompañado de reglas claras y bases sólidas, puede convertirse en un problema serio.
El EIPA lo dice sin rodeos: Hay un riesgo real en caer en lo que llaman el hype tecnológico. Es decir, en esa fiebre por subirse a la ola de lo nuevo solo porque suena moderno. ¿El resultado? Proyectos que se anuncian como “transformadores”, pero que en la práctica no funcionan. O peor aún, terminan siendo contraproducentes porque no están respaldados por infraestructura adecuada, capacitación real o principios jurídicos sólidos que los contengan (2024).
Este llamado de atención no es teórico. En el caso peruano, ya tenemos señales claras. Por ejemplo, Perú Compras ha empezado a usar algoritmos para generar alertas en sus procesos de adquisición. Suena bien. Pero todavía no se ha creado un protocolo formal que asegure la revisión humana o la posibilidad efectiva de impugnar esas alertas. Y eso, en un sistema que administra recursos públicos, no es un detalle menor.
En otras palabras, si no cuidamos la legitimidad del proceso, la eficiencia sola no basta. Puede incluso volverse en contra. Como un tren de alta velocidad sin rieles firmes: por muy rápido que vaya, lo que importa es si sabe a dónde va y si puede frenar cuando toca.
Por eso, no basta con digitalizar. La contratación pública necesita más que algoritmos bien entrenados: necesita rediseñar su procedimiento administrativo desde una lógica compatible con el derecho constitucional. Esa es la verdadera transformación. Y ese será el foco de la siguiente sección: entender qué dice y qué calla el marco normativo actual sobre todo este asunto. Porque ahí, en esas lagunas legales, es donde se juegan las verdaderas garantías.
3. Marco normativo y vacíos regulatorios
3.1 Régimen Legal Vigente
El marco legal peruano en materia de contratación pública y transformación digital ha dado pasos importantes; pero, lo ha hecho a tropezones. Si bien contamos con normas que empujan la modernización del Estado, cuando hablamos del uso de IA en procedimientos públicos especialmente en contrataciones el panorama se vuelve mucho más difuso. Hay avances, sí, pero también muchos silencios.
3.1.1. Principios de la LPAG aplicables a decisiones automatizadas
En el corazón del procedimiento administrativo peruano sigue latiendo la LPAG. Aunque fue concebida en un contexto predominantemente analógico, sus principios son tan esenciales que hoy en plena era digital siguen marcando el compás de lo que el Estado puede y no puede hacer frente al ciudadano.
Al respecto, el artículo IV del Título Preliminar establece, entre otros, los principios de legalidad, razonabilidad, predictibilidad y debido procedimiento. Asimismo, el artículo III refuerza esta lógica, recordando que toda actuación administrativa debe tener como norte la protección del interés general y los derechos fundamentales. Por su parte, el artículo 6 del Título I, Capítulo I, probablemente el más invocado, nos recuerda que toda decisión debe estar debidamente motivada, en lenguaje claro y accesible, con fundamentos fácticos y jurídicos sólidos.
Todo bien hasta aquí. Pero ahora pensemos en un escenario real, en el que un algoritmo programado por un tercero evalúa automáticamente las propuestas de una licitación pública. Una de ellas queda descalificada. ¿Quién explica esa decisión? ¿Cómo se motiva? ¿Qué puede hacer el proveedor afectado? La LPAG impone obligaciones claras, pero no dice cómo cumplirlas cuando el “decisor” no es humano, sino un sistema automatizado.
¿Cómo se motiva lo que decide un algoritmo? La motivación, según la LPAG, tiene que ser suficiente, congruente y comprensible (art. 6). No basta con un resultado final o una cifra arrojada por el sistema. Si el postor queda fuera por “no cumplir el criterio técnico 3.4”, esa fórmula debe traducirse en una justificación concreta y verificable.
Algo que pueda ser entendido por el administrado y, en caso necesario, discutido en una instancia de revisión. El problema es que muchos algoritmos especialmente los más complejos, como los de machine learning no explican sus decisiones de forma directa. Lo que se genera, en muchos casos, es una suerte de “decisión sin autor”, donde el Estado actúa, pero nadie firma.
Un ejemplo, si un algoritmo decide rechazar todas las ofertas que excedan en 10% el promedio histórico, pero no considera contextos inflacionarios o regiones alejadas, podría terminar generando exclusiones masivas sin base real. Y eso, aunque suene técnico, puede tener consecuencias muy humanas: licitaciones desiertas, obras paralizadas, servicios postergados. El marco de la LPAG tiene las herramientas, pero le falta el puente hacia lo digital.
Es como tener una brújula, pero sin un mapa actualizado. Por eso, urge definir protocolos, umbrales de automatización y criterios mínimos para el uso de IA en procedimientos administrativos. De lo contrario, lo que hoy parece eficiencia puede terminar siendo opacidad con traje de innovación.
3.1.2. Ley 32069 y su Reglamento: Una omisión que pesa
La Ley 32069 - Ley General de Contrataciones Públicas, es hoy la columna vertebral del sistema de adquisiciones estatal. Esta norma consagra principios valiosos: eficiencia, transparencia, libre competencia, entre otros. Pero hay algo que llama la atención, esta ley no dice nada sobre el uso de tecnologías automatizadas en el proceso de contratación. Y lo mismo ocurre con el reglamento de la Ley General de Contrataciones Públicas, en el cual ni siquiera en etapas sensibles como la evaluación de ofertas o la formulación de bases.
¿Y por qué debería importarnos esta omisión? Porque ya hay algoritmos en uso. Por ejemplo, Perú Compras ha empezado a aplicar herramientas de IA para identificar alertas en su Catálogo Electrónico (Oficina de Comunicaciones de la Central de Compras Públicas, 2021). Suena moderno, pero aquí viene la pregunta incómoda: si mañana un sistema automatizado descalifica una oferta sin explicar por qué, ¿Cómo puede el proveedor defenderse? ¿A quién reclama? ¿Dónde está el procedimiento?
La norma no responde. Y eso no solo genera inseguridad jurídica, sino que pone en juego el principio de debido procedimiento y expone a la Administración a posibles cuestionamientos. Al no prever salvaguardas, termina normalizando una automatización sin reglas, donde las decisiones se delegan a sistemas que operan fuera del radar legal.
3.1.3. Decreto Legislativo 1412 y el Decreto Supremo 029-2021-PCM
En el universo más amplio del gobierno digital, el Decreto Legislativo 1412 marca una hoja de ruta con principios modernos y necesarios: interoperabilidad, neutralidad tecnológica, seguridad digital, inclusión y gestión por procesos, siendo ello muy importante.
El problema es que, aunque esta norma impulsa el uso de tecnologías emergentes incluida la IA, lo hace sin fijar límites claros ni obligaciones concretas sobre su uso. Es como abrir la puerta a una herramienta poderosa, pero sin dejar instrucciones de uso pegadas en la pared.
En esa misma línea, el Decreto Supremo 029-2021-PCM, el cual dictamina el Reglamento de la Ley de Gobierno Digital, promueve el diseño de servicios digitales centrados en el ciudadano, lo cual es una buena noticia. Pero otra vez, el silencio es estruendoso cuando se trata de decisiones algorítmicas. No hay reglas sobre revisión humana, explicabilidad, ni protocolos para impugnación. Y eso, en contextos donde se juegan derechos o recursos públicos, no es un detalle menor.
Uno de los pocos artículos que menciona algo útil para este tema es el artículo 27, que habla del enfoque de datos como base para los servicios digitales. Eso es clave: los algoritmos se alimentan de datos. Pero el problema no es solo con qué se alimentan, sino quién los supervisa, quién los regula, quién responde si se equivocan.
Si lo decimos en sencillo, es como tener un auto con GPS de última generación, pero sin reglas que te digan cuándo puedes activar el piloto automático y cuándo deberías mantener las manos firmes en el volante. Porque no todo puede dejarse en manos de una máquina, por más precisa que parezca.
3.2. Vacíos Normativos y Tensiones
Más allá de todos los discursos bonitos sobre modernización del Estado y transformación digital, lo cierto es que en el Perú todavía no tenemos un marco legal claro que diga cómo debe usarse la IA en la contratación pública.
Y eso no es solo un detalle técnico. Es una laguna seria, que genera inseguridad jurídica y deja la puerta abierta a tensiones fuertes entre dos mundos. Por un lado, el impulso por automatizar procesos y, del otro lado, las exigencias del viejo y rígido formalismo administrativo que todavía rige gran parte de nuestro aparato estatal.
3.2.1. Falta de regulación específica sobre el uso de IA
Mientras en otras partes del mundo como en la Unión Europea ya se discuten marcos legales avanzados como el Reglamento de Inteligencia Artificial, en el Perú no tenemos una política pública integral sobre IA en el sector público.
No hay normas que indiquen, por ejemplo, cuándo debe intervenir un funcionario humano, qué tan explicable debe ser un algoritmo que toma decisiones, o cómo validar que el sistema no está introduciendo sesgos injustificados. No hay estándares técnicos. No hay registros públicos de uso de algoritmos. Y, por supuesto, no hay canales de rendición de cuentas claros cuando algo sale mal.
Todo esto convierte el escenario en una especie de partido sin árbitros, sin reglas y con las líneas del campo borrosas. Las entidades públicas, muchas veces con buenas intenciones, pueden innovar; pero sin saber bien si están pisando terreno firme o un campo minado. Algunas optan por no hacer nada por miedo a equivocarse. Otras se lanzan sin mirar atrás, creyendo que lo digital siempre es mejor, aunque no sepan muy bien cómo funciona lo que están implementando.
3.2.2. Formalismo vs. automatización: Una tensión no resuelta
La LPAG, como es lógico en un Estado de Derecho, exige formalidades claras y específicas: firma digital, notificación válida, motivación razonada, todo un marco pensado para garantizar la validez y legitimidad de los actos administrativos. Pero la lógica de la IA va por otro carril: busca simplificar, agilizar, automatizar. Y claro, cuando estos dos mundos se encuentran, las fricciones no tardan en aparecer.
Pongamos un ejemplo concreto, si un sistema automatizado asigna puntajes a las ofertas de una licitación sin explicar claramente el porqué de cada calificación, ¿Ese resultado es jurídicamente válido? ¿Debe respaldarse con un informe técnico redactado por una persona? ¿O basta con confiar en lo que diga la “máquina”? Son preguntas reales, no hipotéticas, que necesitan una respuesta normativa urgente. De lo contrario, el riesgo es terminar con actos anulados, procesos cuestionados o recursos públicos mal adjudicados.
Es, en el fondo, como un matrimonio descoordinado: Uno, la automatización, avanza a toda velocidad; el otro, el procedimiento administrativo, camina con paso firme y ceremonioso. Sin reglas que armonicen sus ritmos, el choque es inevitable.
3.2.3. Dificultades contractuales al adquirir sistemas de IA
La verdad es que comprar IA no es como adquirir una fotocopiadora. El EIPA lo ha dicho con claridad. Los gobiernos están enfrentando serios problemas cuando intentan contratar soluciones de IA (2024). ¿Por qué? Porque se topan con especificaciones opacas, dificultades para auditar el código, una dependencia excesiva del proveedor y quizá lo más delicado contratos que no dicen nada sobre quién asume la responsabilidad si algo sale mal.
Y es que no estamos hablando de comprar un producto cerrado, sino de incorporar herramientas que pueden tomar decisiones sensibles dentro del Estado. En ese contexto, no basta con que “funcione”. Es imprescindible saber qué hace, cómo lo hace, y qué pasa si se equivoca.
En el Perú, lamentablemente, este panorama se repite con demasiada frecuencia. Hoy, no hay una exigencia legal para que los algoritmos que se contraten sean auditables, trazables o revisables por un tercero independiente. Es decir, las entidades pueden comprar una solución tecnológica sin saber si realmente podrán entenderla, controlarla o corregirla.
Es como comprar una caja cerrada, sin instrucciones, y confiar en que nunca se va a malograr. Pero si un día deja de funcionar, nadie sabrá cómo abrirla, ni mucho menos cómo repararla. Y en una administración pública, ese nivel de opacidad no es solo un riesgo técnico. Es un riesgo jurídico, político y ético.
3.2.4. Riesgo de abuso, falta de auditoría y delegación incontrolada
Por eso, cuando hablamos de IA en la contratación pública, el entusiasmo tecnológico no puede nublar lo esencial: la responsabilidad, la transparencia y el control democrático. El CAF lo ha dejado claro con el caso ucraniano: automatizar sin reglas es caminar sobre hielo delgado (2021).
Lo mismo se remarcó en la clase magistral ofrecida por la Escuela de Gobierno PUCP, donde se discutió con preocupación el fenómeno de la “delegación ciega”. Es decir, cuando una entidad pública deja que un sistema algorítmico tome decisiones sin validar jurídicamente su razonabilidad, sin verificar los criterios técnicos que lo sustentan, y tal vez lo más grave sin estar dispuesta a asumir responsabilidad si el sistema falla. Como si la tecnología pudiera reemplazar el juicio, la ética o la obligación de rendir cuentas (2024).
En ese escenario, la IA deja de ser una herramienta y se transforma en una caja negra. Una caja en la que no sabemos quién apretó el botón, ni por qué. Pero sí sabemos quién sufre las consecuencias: el ciudadano. Y cuando se quiere buscar al responsable, todos se esconden tras excusas técnicas. El proveedor señala que solo entregó el software. El funcionario dice que el sistema decidió por él. Y la entidad guarda silencio.
Por eso, la verdad es que no se trata de frenar la innovación, sino de encauzarla. Desarrollar un marco normativo no es ponerle trabas a la tecnología: es construir un sistema de frenos y contrapesos, de esos que permiten avanzar con velocidad, sí, pero sin perder el control en la curva.
4. Derecho comparado: Modelos de equilibrio
El desarrollo normativo y tecnológico en torno al uso de IA en la contratación pública muestra una notable heterogeneidad global. Si bien algunos países han optado por automatizar procedimientos con marcos regulatorios rigurosos, otros han preferido modelos híbridos o incluso han innovado en contextos institucionales frágiles.
4.1 Experiencias Internacionales
En el desarrollo de este apartado se busca analizar las experiencias comparadas con el fin de extraer lecciones útiles para un eventual modelo peruano. Estos tipos de IA se van a comparar según el beneficio que obtengan; tales como, transparencia y agilidad en el procedimiento.
Los países analizados han sido seleccionados al ser referentes en la materia y su reconocimiento por su gran desarrollo en la implementación de la IA; así como por la disponibilidad documental oficial sobre esta implementación.
4.1.1. Automatización con Control Fuerte
En ese tipo de modelo, siempre veremos la intervención humana en distintas formas. Muestra de ello es la manifestación del obligatorio entendimiento de las partes involucradas en el procedimiento de contratación, la administración y los administrados, o también la revisión de la tarea encomendada al algoritmo.
Estonia se ha convertido en un referente al implementar una automatización -casi total- de sus procesos de contratación pública. La implementación del e-Procurement permite tramitar licitaciones de forma electrónica, sin dejar de estar incluida la intervención humana, ya que existen ciertas situaciones que pueden conllevar a que se solicite una revisión la cual se encuentra a cargo exclusivamente de humanos, estas situaciones pueden darse en caso de una exclusión de un postor o rechazo de una oferta (Ministerio de Finanzas de Estonia, 2023). Todo ello, la ha llevado a que se posicione entre uno de los países con mejor desempeño de gobierno digital (OECD, 2024).
En el caso de Francia, la legislación garantiza el derecho del administrado a conocer cómo se llega a una decisión cuando la misma es proviene del resultado de un proceso automatizado. Según el artículo L311-3-1 del Code des relations entre le public et l’administration, los ciudadanos pueden exigir explicaciones sobre el funcionamiento esencial de los algoritmos. Lo anterior se interpreta integralmente con el artículo R. 3123-5 de la ley de contratación pública francesa donde se establece que los criterios para la evaluación de la oferta y la descripción de estos se comunican con el anunció de la licitación (Bergès & Delaigue, 2025). Estos enfoques normativos sirven para próximos modelos normativos de países en desarrollo, ello dado a que fue reconocido como modelo por organismos internacionales como la OCDE.
4.1.2. Modelos Híbridos Maduros
Para este tipo de casos divisaremos como diversas naciones implementan efectivamente ciertos encargos a la IA para el mejor desarrollo del procedimiento, empero, el resultado aún se encuentra a cargo de los humanos.
Singapur ha desarrollado un enfoque estructurado a través de su Model AI Governance Framework donde se establece el marco para el desarrollo de la implementación de la IA en la administración pública. Para el caso de contrataciones con el Estado ha implementado su portal integral de adquisiciones electrónicas GeBIZ, el cual permite la centralización de oportunidades para potenciales proveedores y envió de invitaciones para cotizar y ofertar (Gobierno de Singapur, 2025). Este modelo combina eficiencia técnica, arquitectura normativa y ética que ha servido de referencia para otros países del sudeste asiático (OECD, 2024).
En el caso de Portugal, esta se viene realizando en instituciones públicas de forma progresiva. Según Hlacs y Wells (2025), actualmente es utilizado por el Tribunal de Cuentas (en adelante, TDC) con la finalidad de evaluar el riesgo y mejorar la contratación pública; esto es posible con la información que les otorga la IA sobre donde identificar y analizar factores que requieran una revisión humana, para poder alcanzar los resultados. Siendo ello así, son importantes las fuentes que componen el TDC, el cual utiliza un sistema de interoperabilidad con otras instituciones, alimentándose de información interna y externa (p.17).
4.1.3. Innovación en contextos desafiantes
Ucrania, al igual que el resto del mundo, estuvo sumergido en la pandemia del COVID-19 y hoy en día en un conflicto militar con su país vecino Rusia. Esto no ha sido óbice para que la modernización de la administración pública se detenga. Tal es así que Mykola Tkachenko ,CEO de Prozorro, indica que la automatización de procesos en la contratación pública y la publicidad genera confianza en la población; pero, sobre todo, ayudarán a una célere recuperación del país por la celeridad de los procesos gracias a los sistemas implementados (Yhiah, 2025).
En virtud de lo expuesto por el CAF (2021), la contratación pública ucraniana combina tecnología, transparencia y ciudadanía; su sistema DoZorro emplea IA para detectar patrones irregulares en las contrataciones, esta tiene como base para su razonamiento las respuestas otorgadas por especialistas en la materia. En Ucrania, toda esta mecánica de contratación y control de licitaciones públicasson de carácter público a través del estándar Open Contracting Data Standard (en adelante, OCDS) el que consiste en la divulgación de datos y documentación en cada una de las etapas del procedimiento de contratación. Esta práctica logra permitir el control por parte de la sociedad, a través de canales oficiales.
4.2. Lecciones Aprendidas
Habiendo analizado las experiencias comparadas de distintos países, principalmente de aires europeos, es oportuno volcar dichas experiencias en nuestra realidad nacional, con el fin de identificar el balance entre las ventajas que traería su implementación con los desafíos conexos que se puedan presentar. Para ello, divisaremos, en primer lugar, las ventajas que traería la implementación de IA en el sistema de contrataciones públicas peruano y los retos que afronta su implementación.
4.2.1. Implementación de la IA en procesos de la contratación pública peruana, ventajas y desafíos en la realidad peruana
Perú no ha sido un país ermitaño en este tópico. Al contrario, desde el año 2021, la Central de Compras Públicas - Perú Compras viene utilizando IA en la gestión interna de los procesos para detectar algún tipo de irregularidad en los valores de los productos provenientes de Catálogos Electrónicos. Ello a fin de garantizar la transparencia y calidad de contrataciones; además, agilizó una de las etapas de su procedimiento de 68 días a 1 día (Oficina de comunicaciones de la Central de Compras Públicas, 2021). Por las características presentadas, este programa se asemeja al DoZorro, utilizado en Ucrania, ya que permite la transparencia en las contrataciones públicas y fiabilidad social. Por otro lado, también alcanzó las competencias del GeBIZ de Singapur, puesto que facilitó etapas del procedimiento de contrataciones.
Actualmente, la contratación pública en el Perú es regulada por la Ley 32069 y su reglamento, recoge las fases del proceso de contratación de la siguiente manera: (i) actuaciones preparatorias, (ii) selección y (iii) ejecución Contractual. En las dos primeras ya podrían automatizarse actividades como la etapa de requerimiento e indagación en el mercado, absolución de consultas, calificación, entre otros, lo que permitiría niveles de transparencia similares a los europeos y celeridad en los procesos de contratación sin descuidar la eficacia y eficiencia de los mismos, ello se puede alcanzar, mediante un sistema decisorio artificial o un modelo híbrido maduro.
Esto generaría nuevas vacantes de especialización técnica en las instituciones de licitación pública, con un enfoque científico y jurídico, pues las decisiones de la IA no siempre serán definitivas, sino por el contrario van a requerir el entrenamiento, acompañamiento y revisión humana(1).
Aunque las ventajas de la modernización sean notorias, siendo imposible bifurcarla de los desafíos que también se presentan, cuando se realiza un balance no se debe olvidar la realidad nacional. Nuestro país, y en especial la administración pública, ha mantenido prácticas ímprobas que no permitirían que programas diseñados para aumentar la transparencia prosperen, pues con ello se podría inhibir el riesgo de lesión a bienes jurídicos estatales.
Otro tópico escasamente examinado, el cual será un desafío y modelo para otros países de la región, ha sido el nuevo sistema de apelaciones que deberá ser desarrollado por el legislador y el reglamentador. Las próximas causales que se configuren habrán de ser guiadas por quienes conozcan las deficiencias de esta herramienta tecnológica, con el acompañamiento de letrados que las elaboren con la mejor técnica legislativa posible, sin permitir fallas ni abusos contra los administrados, desde un enfoque antropocéntrico que no genere atrasos ni dilataciones en la contratación pública.
Aunado a lo anterior, surge el estudio de las “algorithmic accountability” (responsabilidad algorítmica) que tendrá que ser estudiado por todos los operadores administrativos y de justicia ordinaria-especial; puesto que, tenemos que preguntarnos ¿en quién recae la responsabilidad de las decisiones de la IA? Al respecto, Deborah Johnson ha concluido que:
Para establecer la responsabilidad algorítmica, se debe centrar la atención en los actores humanos que diseñan y utilizan los algoritmos y en las normas que deben guiar su comportamiento [énfasis agregado]. La responsabilidad algorítmica aún está en proceso de desarrollo, y el esfuerzo por convertirla en algo efectivo y significativo requiere el desarrollo de un conjunto de prácticas que tengan en su corazón la idea de que los actores tienen la obligación de explicar su comportamiento a foros (2022, pp.16-17).
Por su parte, Horneber y Laumer han sostenido que:
En general, se puede resumir que la responsabilidad algorítmica es mucho más que la simple cuestión de quién asume la responsabilidad por los impactos de los sistemas de aprendizaje automático (ML). Más bien, se trata de cómo las instituciones, organizaciones e individuos pueden gobernar los sistemas de ML y cómo los desarrolladores y proveedores de sistemas de ML pueden cumplir con sus obligaciones de responsabilidad (2023, p.7).
Podemos observar que, ambos autores hacen entrever que la responsabilidad algorítmica recae tanto sobre quienes utilizan estos modelos de lenguaje automatizado como quienes lo han desarrollado, dando a entrever una suerte de responsabilidad mancomunada. Sin perjuicio de lo anterior, esta doctrina será de mucha ayuda para las futuras generaciones de juzgadores en distintas sedes.
4.3. Conclusiones
Durante el desarrollo de todas las líneas que comprenden este capítulo el lector ha podido evidenciar que el uso de IA no es anodino ni perjudicial para entes gubernamentales, al contrario, resuelve diferentes problemas como la carga administrativa o la fiabilidad en el procedimiento contractual, según el tipo de misión que se le encomiende(2).
No obstante, esta herramienta también presenta inconvenientes con el marco regulatorio y legislativo en vigor. Puesto que, la adopción de decisiones automatizadas o asistidas por IA requieren asegurar, no necesariamente la multiplicidad de instancias como un derecho fundamental, sino la presencia de una vía de impugnación efectiva, rápida y técnicamente adecuada. Esta última debe estar basada en una motivación suficiente y comprensible que posibilite cuestionar de manera razonable la decisión tomada. En ese sentido, en nuestra jurisdicción aún hay aspectos que necesitan desarrollo normativo, como la impugnación de decisiones tomadas con sistemas de IA y su eventual control legal.
Ahora bien, en el siguiente capítulo se propondrá un esquema híbrido adaptado al caso peruano, recogiendo estas lecciones e incorporando salvaguardas legales, técnicas e institucionales”.
5. Propuesta de modelo híbrido
La incorporación de la IA en la contratación pública representa una oportunidad sin precedentes para aumentar la eficiencia, transparencia y capacidad de supervisión del Estado en dichos procedimientos. No obstante, también plantea desafíos jurídicos significativos, especialmente en lo que respecta a la protección del debido procedimiento, la rendición de cuentas y la igualdad ante la administración. Ante estos retos, resulta imprescindible diseñar un modelo de implementación que evite tanto la automatización incorrecta y desfase entre una nueva realidad y la normativa. Este capítulo propone la implementación de un modelo híbrido algorítmico para la administración pública en el Perú.
La propuesta se fundamenta en experiencias internacionales como las de Estonia, Francia, Singapur, Portugal y Ucrania, así como en documentos técnicos emitidos por organismos como la OCDE y la CAF que promueven una arquitectura de gobernanza algorítmica capaz de funcionar con una realidad institucional y jurídica sin vulnerar derechos al administrado.
5.1. Arquitectura del Sistema Propuesto
El modelo híbrido que se propone para la contratación pública algorítmica en el Perú responde a una lógica de intervención escalonada, que permite adaptar el grado de automatización a la complejidad y el riesgo jurídico de cada paso del procedimiento administrativo.
Esta arquitectura no parte de una discusión simplista entre automatizar o no automatizar, sino que reconoce la necesidad de distribuir funciones entre sistemas algorítmicos y operadores humanos, en función del impacto y efectos jurídicos de la decisión, el grado de discrecionalidad requerido y la posibilidad de control ex post.
a) El primer nivel de esta arquitectura es la automatización total, que se justifica exclusivamente para procedimientos administrativos de naturaleza estructurada, rutinaria, de baja discrecionalidad, con irrelevantes efectos jurídicos, así como escaso impacto en derechos fundamentales.
Sin embargo, como nos señala Bock (2023) incluso las decisiones pueden carecer de efectividad si los datos están desactualizados, si existen errores en los parámetros o si el sistema permanece sin revisión. Por ello, el modelo exige que los algoritmos sean sometidos a procesos periódicos de verificación técnica y que se establezcan auditorías ex post que verifiquen el comportamiento del sistema en función de resultados obtenidos. precisa que es esencial contar con un marco regulatorio actualizado, que responsabilice a quienes configuran las condiciones y la información, evitando la discrecionalidad, manteniendo la objetividad y previniendo favoritismos en las adjudicaciones.
Además, dichas fiscalizaciones son esenciales para evitar actos de corrupción y prácticas indebidas, tales como la manipulación deliberada de datos, asegurando la transparencia y trazabilidad en la toma de decisiones. La intervención humana se limita aquí a la supervisión general del sistema para el correcto funcionamiento de este, sin participación en cada caso individual.
b) El segundo nivel corresponde a lo que la doctrina denomina automatización supervisada, donde la IA formula una propuesta de decisión que está supeditada a la validación humana, dado que involucra criterios de carácter normativo e interpretativo, que requieren la intervención de un especialista, la cual resulta fundamental para garantizar la correcta interpretación y aplicación.
Este modelo se aplica en contextos donde la decisión administrativa puede generar efectos jurídicos relevantes, con participación relevante de la interpretación normativa o donde el procedimiento involucra una carga de discrecionalidad que excede lo programable.
Ejemplos típicos son los sistemas de análisis de riesgos como los que se utilizan para detectar posibles prácticas de fraccionamiento o colusión en procesos de selección, como ocurre con el sistema DoZorro en Ucrania o el caso de Portugal y su Tribunal de Cuentas, en ambos casos la IA les permite identificar situaciones que requieren una revisión humana.
En este esquema, el operador público debe revisar la recomendación del sistema, valorarla críticamente, para posteriormente aceptar o rechazar su contenido de manera fundamentada. Esta estructura de intervención humana obligatoria genera lo que se denomina “decisión asistida”, y fortalece el requerimiento de motivación del acto administrativo establecido en el artículo 6 de la LPAG.
La trazabilidad de esta interacción humano-máquina debe ser completa, documentando el análisis realizado por el operador humano y, en caso corresponda, detallando su razonamiento para apartarse del dictamen realizado por el algoritmo. La aplicación de este tipo de modelo va a permitir mayor seguridad sobre la decisión emitida, pues como sabemos existen ciertas circunstancias (datos desactualizados, sesgos, etc.), los cuales pueden conllevar a una emisión de alerta errónea por parte del algoritmo; pero con la implementación de un trabajo constante y coordinado entre humano-máquina se busca evitar una decisión errada.
Asimismo, la exigencia de la validación humana no solo facilita futuras auditorías y rendición de cuentas, sino que incrementa la transparencia administrativa. De esta manera, se garantiza que el ciudadano pueda conocer el resultado como también el razonamiento que sustentó la decisión, reforzando así la confianza en las instituciones. Asimismo, se reconoce que la tecnología puede mejorar la eficiencia, pero se reafirma que la responsabilidad última recae en la persona investida de autoridad, quien debe garantizar la legitimidad, legalidad y justicia en cada decisión.
c) El tercer nivel es el de asistencia algorítmica, donde la IA no toma decisiones ni propone soluciones vinculantes, sino que actúa como herramienta de apoyo cognitivo. De hecho, el CAF, subraya que la experiencia y la práctica internacional hacen dicha distinción: los datos y la IA son valiosos insumos que permiten mejorar la toma de decisiones, pero no sustituyen el juicio humano (2021). Más aún, sin los adecuados controles que corroboren la transparencia de su uso.
En este nivel, se encuentran los agentes inteligentes, como los chatbots que, de acuerdo con García (2018), son programas informáticos que poseen la habilidad de interactuar con personas utilizando interfaces basadas en el lenguaje cuyo propósito es simular una conversación humana inteligente para responder consultas. De igual manera, pueden ser empleados para generar borradores de documentos contractuales, resumir ofertas o calcular variables de riesgo, lo cual, permite alcanzar mejores resultados y una mayor eficiencia en los procesos.
Plataformas como Botpress, Rasa y Dialogflow se catalogan como tecnologías de código abierto que permiten crear flujos conversacionales, y, a partir de ellos, desarrollar chatbots personalizados con datos orientados a procesos de contratación estatal De manera coherente con ello, estas herramientas se emplean en este nivel para facilitar la creación de chatbots que, en paralelo, apoyan la labor de los operadores públicos sin sustituir su criterio.
Un agente de IA que redacta preliminarmente las bases de una licitación no emite una decisión, pero sí puede condicionar su estructura futura, por lo que se requiere identificar cuándo el uso de estas herramientas afecta materialmente el contenido de una actuación administrativa.
Si bien este tipo de aplicaciones no genera un impacto jurídico significativo, su implementación exige regulaciones claras respecto a la integridad del documento generado, la responsabilidad de quien lo utiliza, la protección de datos personales y la transparencia del funcionamiento del sistema. ya que, en este nivel, el componente humano no solo es imprescindible, sino que asume plena responsabilidad legal y política por cada acto derivado del uso del sistema.
De hecho, el CAF (2021) enfatiza que la confianza ciudadana depende de que exista claridad sobre el uso de los datos aportados, lo cual resulta clave para legitimar y sostener en el tiempo la implementación de estos sistemas en el sector público.
Los modelos descritos requieren distinguir entre el uso interno y la adquisición externa de sistemas de IA. En el primer caso, el estado es quien desarrolla sus propias soluciones algorítmicas o adapta los softwares libremente lo cual le permite mantener control sobre el modelo, modificar parámetros, auditar resultados y actualizar su lógica conforme a cambios regulatorios.
La adquisición de soluciones de IA implica que el Estado incorpore bienes, servicios o sistemas desarrollados por terceros proveedores, lo cual conlleva riesgos específicos. En particular, la OECD (2024), advierte que uno de los mayores retos a la hora de adquirir TIC, es garantizar y mantener la neutralidad tecnológica, evitando que alguna institución pública se vuelva dependiente de un solo proveedor más allá del plazo del contrato de adquisición.
Esta dependencia puede traducirse en pérdida de transparencia, falta de acceso al código fuente, ausencia de cláusulas de reversión y escasa documentación técnica, lo que compromete la soberanía tecnológica del sector público. La CAF y la OCDE han subrayado la necesidad de marcos responsables para el uso de la IA en el sector público, enfatizando que los riesgos éticos y de implementación son los principales impulsores en la construcción de esquemas de gobernanza que garanticen sistemas de IA justos, confiables y transparentes.
En síntesis, al adquirir IA de terceros, los gobiernos deben estructurar marcos de gobernanza anticipadora, inclusiva, adaptable y orientada al interés común, de modo que el uso de la tecnología se alinee con los principios de integridad, responsabilidad y confianza ciudadana.
Por otra parte, un reto adicional que enfrentan los gobiernos al adquirir soluciones de IA a proveedores externos es el riesgo de comprometer la soberanía tecnológica del Estado. En la práctica, esta situación puede limitar su capacidad de supervisar y controlar adecuadamente las decisiones automatizadas, sobre todo cuando el proveedor mantiene un rol exclusivo en la modificación, actualización o mantenimiento del sistema.
Por ello, el modelo normativo que se propone exige que toda contratación de soluciones de IA incluya cláusulas contractuales obligatorias que aseguren la auditoría externa del algoritmo, el acceso estatal a la base de datos utilizada, la documentación del proceso de entrenamiento, el régimen de propiedad intelectual sobre el software y los mecanismos de reversión del contrato en caso de fallos técnicos o incumplimientos éticos.
Este enfoque ha sido respaldado por el tribunal de justicia de la Unión Europea, a través de la iniciativa EU model contractual AI Clauses, debido a que ha elaborado cláusulas estandarizadas y específicas para la adquisición de sistemas de IA por parte de autoridades públicas, incluyendo exigencias explícitas sobre transparencia algorítmica, responsabilidad, auditabilidad y acceso a los datos utilizados, estableciendo así un marco contractual equilibrado entre la entidad pública y el proveedor externo.
En la misma dirección, la OECD ha señalado que los gobiernos deben garantizar, en los procesos de contratación digital, el acceso a la información esencial sobre el funcionamiento de los sistemas de IA y la introducción de cláusulas contractuales que permitan auditar, supervisar y modificar los algoritmos adquiridos, a fin de preservar la transparencia y la rendición de cuentas en el sector público. Es responsabilidad del Estado incluir cláusulas contractuales al momento de realizar adquisiciones externas de IA, ello con la finalidad de proteger la soberanía tecnológica del Estado (2024).
En suma, esta arquitectura de tres niveles automatización total, automatización supervisada y asistencia algorítmica no solo es coherente con los principios del derecho administrativo peruano, sino que responde a una tendencia global de regulación proporcional de la IA en el sector público.
Más que promover una digitalización acrítica, el modelo plantea que la IA debe concebirse como una herramienta de alto valor para fortalecer la eficiencia del aparato estatal, siempre que su incorporación siga un enfoque de gradualidad técnica, responsabilidad institucional y control jurídico constante.
En consonancia con esta visión, el CAF nos señala que la modernización digital del Estado mediante el uso de datos e IA impulsa a gobiernos más ágiles, abiertos e innovadores con mejoras significativas, tanto en la eficiencia administrativa como en la calidad de los servicios. Asimismo, estas tecnologías contribuyen a reforzar la confianza ciudadana al transparentar la acción pública, fortalecer los controles internos y consolidar la rendición de cuentas frente a la sociedad (2021).
El reto no está en programar decisiones eficientes, sino en garantizar que esas decisiones, por más automatizadas que sean, sigan siendo legítimas, explicables y sujetas al control posterior. En el siguiente apartado se desarrollarán los criterios de clasificación jurídica de los procedimientos y las salvaguardas legales que deben implementarse para operacionalizar este modelo híbrido de manera segura y compatible con el Estado de Derecho.
5.2. Criterios de Clasificación y Salvaguardas
Para poder aplicar un modelo híbrido de automatización en la contratación pública, es necesario establecer unos criterios técnicos y jurídicos que nos sirvan para saber en qué términos pueden poner a disposición de la contratación soluciones algorítmicas y en qué condiciones se ejecutarán.
No puede decidirse de forma intuitiva, sino que debe ser la expresión de una decisión sistemática que califique los riesgos que pueden ser articulados considerando el nivel de discrecionalidad permitido, el impacto jurídico y la complejidad del procedimiento administrativo. En este sentido, la OCDE ya señala que todos los marcos de gestión de riesgos de IA’s han de seguir un proceso homogéneo, esto es, identificar los riesgos, evaluarlos y aplicar controles proporcionales a las características del contexto para lograr una gobernanza interoperable y responsable (2024).
La propuesta parte de que no hay procedimientos que impliquen los mismos riesgos jurídicos ni tienen la misma relevancia institucional. En este sentido, propone una matriz de riesgo algorítmico que valora cada procedimiento administrativo a partir de tres variables: (i) El importe económico implicado, (ii) el nivel de discrecionalidad admitido y (iii) el potencial impacto sobre los derechos subjetivos. La primera de estas variables, el importe, permite una función de filtro primario.
El nivel de riesgo financiero del contrato (a mayor valor contractual, mayor riesgo financiero y, por tanto, mayor responsabilidad por las decisiones que se adopten en el procedimiento) y el grado de discrecionalidad (si hay posibilidad de que el empleado público o el sistema tengan que llevar a cabo valoraciones subjetivas o valoraciones técnicas). Es decir, si se emprende un procedimiento que requiere llevar a cabo juicios complejos o interpretaciones normativas, se considera que la intervención de la capacidad humana tiene carácter insustituible.
El tercer criterio que se propone, el impacto jurídico, se refiere a si la decisión que se adopte tiene consecuencias sobre derechos fundamentales de los administrados, si puede llevar a la imposición de sanciones o excluir a proveedores o alterar situaciones jurídicas consolidadas o que pretendan consolidarse.
A partir de esta matriz se establecen ciertos umbrales que determinan el nivel de automatización que puede aceptarse y el número de salvaguardias obligatorias que deben incluirse en cada caso. Por ejemplo, un procedimiento que tenga bajo valor contractual, que no presente discrecionalidad y que tampoco produzca efectos directos puede ser objeto de una automatización sin ningún tipo de requerimiento adicional.
En cambio, un procedimiento muy complejo, que presente un grado de juicio técnico importante y una gran afectación de los derechos otorgará una intervención humana considerable ya sea en automatización supervisada, ya sea mediante la aplicación de herramientas que asisten mediante el uso de algoritmos que no son vinculantes.
La clasificación aquí utilizada sirve no solo para dar lugar a arquitecturas tecnológicas apropiadas, sino para concretar los deberes jurídicos correspondientes a cada fase del procedimiento, lo que contribuye a ofrecer seguridad jurídica a los administrados y a la administración pública.
Sin embargo, más allá de dicha clasificación, cualquier activación de la IA pública debe garantizar una serie de principios del Derecho administrativo y del debido proceso administrativo.
En primer lugar, debe ser garantizado el derecho de la persona a obtener una explicación, concepto que se encuentra tanto en el documento de Wachter, Mittelstadt y Floridi (2017), como en las cláusulas de Ámsterdam. Además, se puede interpretar como el derecho de todo administrado de conocer la lógica que ha dado lugar a una decisión que le afecta. Aunque sea una decisión que sea dictada por un sistema automatizado (incluso es la motivación que plantea el artículo 54 de la ley), tiene que ser explicada.
Esta explicación tiene que ser explícita, fácil de comprender y sin los tecnicismos inasumibles ni opacos. No significa que se expliquen detalles del código, esto es, lo que hay detrás de la tecnología de la IA, pero sí una explicación funcional, entendible a todos los efectos por el ciudadano medio, de los elementos que han llevado al resultado en la decisión.
En segundo lugar, la decisión administrativa, aun cuando está basada en herramientas algorítmicas, tiene que estar motivada. La suficiencia de la motivación no solo consiste en un imperativo normativo, enunciado en su caso, en la LPAG, sino que garantiza el control jurisdiccional sobre la legalidad del acto, el cual no puede quedar a la libre interpretación de las palabras, quedando la administración totalmente a merced del algoritmo opaco que se utilice ni debe ser capaz de fundamentar su decisión en la inexistente sabiduría del ordenamiento administrativo, pues debe ser capaz de traducir, al lenguaje jurídico, las razones en que la misma se basa, entre otras.
Éste último derecho a la revisión humana repercute especialmente en un contexto donde los sistemas de IA pueden, en ciertas circunstancias, reproducir y amplificar desigualdades si no son diseñados con criterios de equidad e inclusión. También debe hacerse efectivo un derecho a la revisión humana, lo que no debe ser entendido únicamente como una posibilidad de reclamar formal o simbólicamente, sino que deberá contestar a la existencia de una instancia imparcial que revise, impugne o modifique las decisiones automatizadas.
Un procedimiento sustantivo debe permitir reabrir el expediente, reexaminar los hechos y aplicar criterios de razonabilidad y equidad. Esto adquiere relevancia porque podría tratarse de decisiones automatizadas, en las que los mismos estuviesen invertidos en razonamiento automático, errores materiales, sesgos estadísticos, interpretaciones muy rígidas, etc.
Dicha salvaguarda debe ser incorporada en el diseño habitual de los algoritmos (by design) y no a modo de parche, además de estar inserta en el marco normativo que regula la aplicación de la tecnología digital en los procedimientos administrativos. Tal necesidad de normativa permitirá que las soluciones tecnológicas sean auditables, reversibles y sostenibles jurídicamente.
En este sentido resulta importante aludir a los marcos de gobernanza internacionales, como el AI Act de la Unión Europea, que anticipa una categorización por niveles de riesgo y con obligaciones correspondientes. Este primer instrumento normativo de carácter mundial establece una distinción en función de sistemas inadmisibles, riesgosos, limitados y mínimos.
En la contratación pública, muchos sistemas algorítmicos pudieran ser considerados como de alto riesgo implicando tener que cumplir requisitos de transparencia, trazabilidad, supervisión humana constante y evaluación de impacto ex ante y ex post. Estas categorías constituyen un buen referente para el caso peruano, puesto que si bien no existe todavía una regulación sectorial específica que lo contemple, ya existen componentes que hayan incorporado principios relevantes como la interoperabilidad, la eficiencia digital y la seguridad de la información previstos en el Decreto Legislativo 1412 - Ley de Gobierno Digital, y su reglamento.
En esa misma línea, las recomendaciones formuladas por organismos de referencia como la Asociación de Órganos de Control Externo Autonómicos (en adelante, ASOCEX), la OCDE y EIPA, que coinciden en subrayar la importancia de adoptar una IA robusta, trazable, con control humano significativo y mecanismos de rendición de cuentas. La OCDE también impulsa sistemas innovadores y fiables, y promueve la transparencia y la trazabilidad como herramientas que son clave para la responsabilidad pública. El EIPA integra guías y cláusulas modelo para estructurar las adquisiciones de IA en el sector público.
Por su parte, ASOCEX además pone el acento en la importancia de una evaluación sistemática de los riesgos en la contratación pública, así como en la manera de encontrar y entender debilidades a todo lo largo del proceso del aprendizaje. La propuesta de ASOCEX de implementar matrices sectoriales específicas para ponderar el riesgo algorítmico en cada fase del proceso de la contratación pública es especialmente interesante. Esto sería posible a través de matrices en las que se toman decisiones sobre medidas concretas de mitigación; por ejemplo, la exigencia de una doble revisión, la obligatoriedad de documentar el entrenamiento del modelo o la restricción de determinados sistemas a cumplir funciones meramente auxiliares. En esta línea, López y Martínez (2019) señalan que la gestión sistemática del riesgo en la contratación pública permite elaborar una base de lecciones aprendidas que puedan dar lugar a futuras propuestas ancladas en el principio de la mejora continua.
5.3. Mecanismos de Control y Supervisión Pública
La eficacia de la implementación de un modelo híbrido de automatización en la contratación pública no depende exclusivamente del diseño algorítmico, sino que este va acompañado del marco normativo y del establecimiento de un sistema de control institucional que permita supervisar el flujo de las decisiones automatizadas.
Este sistema debe ser capaz de prevenir riesgos antes de que ocurran, detectar desviaciones durante su ejecución y corregir fallos o sesgos tras su aplicación. En consecuencia, se propone una arquitectura de control de 3 tipos: i) previa, ii) paralelo, y iii) posterior, todos ellos aplicados de una manera activa y eficaz.
El control previo es un eje importante para poder realizar una correcta implementación de la IA en los procesos de contratación pública, pues este control sería en el encargado de verificar el “terreno”. Es decir, debe validar que todo se encuentre jurídica y técnicamente apto para la implementación de la IA en el procedimiento de contratación.
Esta etapa básicamente se busca la adecuación de los principios de la LPAG y la verificación del cumplimiento de los estándares técnicos mínimos establecidos por marcos internacionales de gobernanza algorítmica, como son la explicabilidad, legalidad, trazabilidad, entre otros; una vez verificado lo anterior proceder con una implementación.
Como hemos visto, no se trata únicamente de garantizar que el algoritmo funcione, se trata de asegurar que sus decisiones sean comprensibles, auditables y legítimas desde una perspectiva técnica y legal. Para lograr ello, resulta indispensable la incorporación de evaluaciones de impacto algorítmico (AIA), auditorías de verificación de la inexistencia de sesgos y verificaciones de calidad y actualización constante de los datos.
El control paralelo, debe emplearse de manera continua durante la operación del algoritmo. En este caso, la tecnología no solo serviría como ejecutora de actividades, sino como una herramienta de autorregulación.
Se propone la implementación de mecanismos de monitoreo en tiempo real, que permitan detectar comportamientos anómalos o patrones sospechosos en las decisiones automatizadas. Por ejemplo, podrían configurarse alertas automáticas ante desviaciones estadísticas inusuales, respuestas incoherentes, cambios abruptos en los tiempos de procesamiento o indicios de manipulación algorítmica.
Las alertas que se generen deben ser derivadas a unidades técnicas especializadas con la capacidad de revisar de forma inmediata la operación del sistema, y así poder determinar si se trata de un error o de una falla estructural, y decidir, de ser necesario, la suspensión temporal del sistema, hasta la subsanación error o falla.
Esta instancia de control en tiempo real resulta indispensable en contextos de alta complejidad contractual o alto impacto jurídico, como en procesos de selección de gran complejidad, procesos que definitivamente no podrían ser automatizados en la totalidad, por el riesgo que ello podría representar.
El tercer tipo de control es el posterior, el cual consiste en ser una fase de revisión y rendición de cuentas. A diferencia del control previo, que es preventivo, o del paralelo, que es correctivo en tiempo real, el control posterior tiene como finalidad revisar acciones ya ejecutadas.
Su objetivo es auditar el desempeño general del sistema, evaluar el cumplimiento de los objetivos de eficiencia técnica y legal, e identificar puntos de mejora. Este control debe incluir auditorías externas, tanto técnicas como jurídicas, que revisen la trazabilidad de las decisiones, es decir, la posibilidad de reconstruir el proceso decisional del algoritmo desde la entrada de datos hasta la decisión final.
Para ello, se propone la creación dentro de un Registro de Decisiones Automatizadas en la Plataforma Digital de Contrataciones Públicas - Pladicop, que documente y visualice todas las resoluciones administrativas generadas total o parcialmente por sistemas de IA, detallando información como la fecha, el procedimiento, el nivel de automatización aplicado y la lógica utilizada.
Este registro sería accesible para órganos de fiscalización como la Contraloría General de la República, el Tribunal de Contrataciones del Estado del Organismo Especializado para las Contrataciones Públicas Eficientes, quienes deberían emitir lineamientos específicos sobre auditoría de sistemas automatizados en materia de contratación pública, y para los administrados participantes en el procedimiento donde se haya empleado la automatización, pues esto les permitirá conocer y documentar datos necesarios en caso quieran ejercer algún recursos ante dicho acto.
En cuanto al diseño institucional del sistema de supervisión, se plantea la necesidad de asignar competencias específicas al Organismo Especializado para las Contrataciones Públicas Eficientes (en adelante, OECE) y funciones al Tribunal de Contrataciones del Estado. Por su experiencia técnica y rol normativo, estarían en condiciones de ejercer funciones reguladoras, supervisoras y de capacitación.
El OECE podrá emitir directrices de cumplimiento obligatorio sobre las características técnicas, jurídicas y éticas que debe reunir todo sistema de IA aplicable a la contratación pública, así como establecer un sistema de certificación previa para garantizar estándares mínimos de explicabilidad, legalidad y trazabilidad.
Finalmente, esto podría ser aplicado de manera piloto en entidades públicas que ya han iniciado el uso de IA, como Perú Compras, a fin de validar en la práctica la arquitectura propuesta. Perú Compras ha demostrado avances importantes mediante la incorporación de algoritmos para detectar irregularidades de precios en sus catálogos electrónicos, generando alertas que luego son revisadas por analistas humanos.
Esta experiencia constituye una base valiosa sobre la cual puede ensayarse un modelo de gobernanza más elaborado, documentando los aciertos y dificultades de su aplicación. El piloto permitiría además generar evidencia empírica sobre el funcionamiento de los sistemas de control propuestos en nuestra realidad nacional, ajustarlos según los resultados observados y escalar progresivamente su implementación a otras entidades públicas.
Así concebido, el esquema de control y supervisión pública busca evitar tanto la delegación ciega de responsabilidades como la paralización por temor a lo desconocido. Se trata de avanzar con firmeza hacia una contratación pública más eficiente y transparente, pero sin afectar la seguridad jurídica que debe resguardar estos procedimientos y/o vulnerar algún derecho del administrado.
Como bien lo ha recordado la doctrina comparada, automatizar no significa deshumanizar, y el uso de algoritmos en la gestión pública debe entenderse como un instrumento para fortalecer, no reemplazar, el juicio profesional, la rendición de cuentas y el respeto al debido procedimiento; en contrario, es una nueva realidad que va a traer nuevas oportunidades, quizá nuevas especializaciones, pero no estamos ante un reemplazo humano, sino un trabajo conjunto.
5.4. Conclusión
La propuesta de modelo híbrido, desarrollada en este capítulo observa los beneficios que aportaría la implementación de la IA, siempre que esta vaya acompañada de una determinación técnica y legal adecuada. A través del modelo propuesto, se podrá alcanzar un procedimiento de contratación más ágil, sin dejar de lado los derechos del administrado y los deberes de la administración, con un procedimiento justo y transparente.
Este enfoque evita los extremos del automatismo ciego y sin posibilidad objeción, y en su lugar ofrece una hoja de ruta técnica y jurídica que podría ser viable para el contexto peruano.
Como hemos podido observar las experiencias internacionales analizadas, es posible innovar sin sacrificar derechos y poner en riesgo el sistema. Ello se puede lograr, con un diseño de implementación responsable, gradual y bien supervisado. Así, la IA no será un fin en sí mismo, sino un instrumento en la gestión pública.
6. Implementación y aspectos operativos
La adopción de un modelo híbrido de IA en la contratación pública peruana no se limita a una propuesta conceptual; requiere una hoja de ruta normativa y técnica clara, así como condiciones prácticas de implementación que garanticen su viabilidad.
La experiencia comparada evidencia que la falta de planificación normativa y de capacidades institucionales puede convertir la automatización en un riesgo más que en una oportunidad (Criado, 2021; Tejedor, 2021). En ese sentido, el proceso de implementación debe articularse en dos niveles: primero, la definición de un marco legal y regulatorio que proporcione seguridad jurídica; y segundo, el desarrollo de capacidades técnicas, institucionales y sociales que permitan el funcionamiento efectivo del sistema.
6.1 Hoja de Ruta Normativa y Técnica
La primera condición para la implementación del modelo híbrido es la adecuación normativa. El marco legal vigente en el Perú está compuesto principalmente por la Ley 32069, su Reglamento aprobado por el Decreto Supremo 009-2025-EF, y el Decreto Legislativo 1412 sobre Gobierno Digital, que no contienen disposiciones específicas respecto al uso de sistemas de IA en los procesos de contratación pública.
Esto genera un vacío jurídico que debe ser abordado mediante una regulación sectorial especializada, tal como ha sucedido en la Unión Europa y la reciente aprobación del Reglamento de Inteligencia Artificial, el cual para una línea de partida para todos sus países miembro.
En el caso peruano, esta hoja de ruta debe partir de la reforma de la Ley de Contrataciones del Estado para incorporar un capítulo especial sobre el uso de herramientas algorítmicas. Tal reforma tendría como objetivos: (i) Establecer la habilitación legal expresa para el uso de IA en procesos administrativos vinculados a la contratación, (ii) fijar principios rectores como transparencia, explicabilidad y control humano, y (iii) definir las competencias de las entidades de supervisión como el OECE y el Tribunal de Contrataciones. Este marco debe complementarse con la emisión de un reglamento específico de IA en contratación pública, que regule los criterios técnicos mínimos, estándares de seguridad y mecanismos de control.
En cuanto a estándares internacionales, resulta pertinente la adopción del OCDS, que permite la estructuración de los datos de contratación bajo parámetros de interoperabilidad y apertura, facilitando su procesamiento algorítmico (García, 2018). Asimismo, los principios de gobernanza de la IA propuestos por la EIPA y la OCDE en particular, la exigencia de trazabilidad y evaluación de AIA constituyen referentes valiosos para diseñar una regulación local sólida.
Otro aspecto esencial de la hoja de ruta normativa y técnica es la definición de criterios de validación previa de algoritmos. Cada sistema que pretenda ser adquirido o implementado por entidades públicas debe pasar por un proceso de certificación institucional, que incluya: (i) Auditorías de sesgo y calidad de datos, (ii) análisis de riesgos de impacto sobre derechos fundamentales, y (iii) protocolos de reversibilidad en caso de mal funcionamiento. Este enfoque es consistente con el “principio de precaución” que la doctrina europea ha reconocido como central en la gestión de riesgos de la IA (Laus, 2024).
Finalmente, el proceso de implementación debe contemplar el desarrollo de una infraestructura digital interoperable, que evite la fragmentación de datos y procesos. El problema de la atomización de sistemas ha sido una de las principales limitaciones en experiencias como la española, donde la transformación digital se caracterizó por su descoordinación y falta de estrategia previa (Tejedor, 2021).
En el caso peruano, la integración de plataformas como Perú Compras y la Plataforma Digital para las Contrataciones Públicas (en adelante, PLADICOP) bajo estándares unificados constituye una condición indispensable para el éxito del modelo híbrido.
6.2 Condiciones Prácticas de Implementación
El éxito de la hoja de ruta normativa depende de su articulación con condiciones prácticas de implementación que hagan posible la operatividad del modelo híbrido. Estas condiciones pueden agruparse en tres dimensiones: (i) Capacidades humanas, (ii) cooperación institucional y (iii) viabilidad técnica.
- Capacitación legal y técnica: La transición hacia un sistema de contratación pública apoyado en IA exige que los operadores jurídicos y técnicos del sector público cuenten con competencias suficientes para comprender, supervisar y auditar las decisiones algorítmicas. La literatura especializada ha advertido que la “delegación ciega” al algoritmo es una de las mayores amenazas a la legitimidad administrativa (Capdeferro, 2020). Por ello, resulta indispensable implementar programas de formación interdisciplinaria para funcionarios del OECE de los comités de selección y de las áreas de control interno, combinando nociones de derecho administrativo digital con fundamentos de ciencia de datos e IA.
- Colaboración con academia, sector privado y sociedad civil: La experiencia internacional muestra que la implementación de IA en la contratación pública ha sido más exitosa cuando se ha articulado con actores externos. En Ucrania, la plataforma DoZorro ha permitido integrar participación ciudadana y análisis algorítmico para detectar irregularidades en licitaciones, fortaleciendo la confianza pública (Zuleta, 2021). En el Perú, sería recomendable impulsar alianzas con universidades, organizaciones de transparencia y empresas tecnológicas para diseñar pilotos controlados y proyectos de co-creación institucional. Este enfoque, además de fortalecer la legitimidad democrática del sistema, contribuye a mitigar riesgos de opacidad y sesgo.
- Pilotos institucionales y adopción incremental: La implementación no debe ser súbita ni generalizada, sino gradual y experimental. Un camino viable es iniciar con pilotos institucionales en Perú Compras y el OECE, aplicando IA generativa en tareas de bajo riesgo como la redacción de pliegos o la identificación de inconsistencias formales en expedientes.
- Infraestructura tecnológica y seguridad de datos: Las aplicaciones de IA requieren un entorno tecnológico robusto, que garantice tanto la protección de datos personales como la continuidad del servicio. El Decreto Supremo 029-2021-PCM - Reglamento de la Ley de Gobierno Digital, ya establece lineamientos de interoperabilidad y seguridad informática que deben ser reforzados con protocolos específicos de ciberseguridad algorítmica. La confidencialidad y trazabilidad de los datos procesados resultan cruciales, dado que la corrupción y el fraude en contratación pública suelen encontrar espacios en la manipulación de información sensible (Wachter & Mittelstadt, 2018).
- Supervisión y cultura organizacional: Más allá de los aspectos normativos y técnicos, la implementación efectiva del modelo híbrido depende de un cambio cultural en la administración pública. Se requiere fomentar una cultura organizacional que combine la confianza en las herramientas algorítmicas con una actitud crítica y supervisora. Tal como advierte la doctrina, la IA no puede ser vista como un sustituto del funcionario público, sino como un instrumento de apoyo cuya eficacia está condicionada por la calidad de la supervisión humana (Vestri, 2021).
6.3. Conclusión
En suma, la implementación del modelo híbrido demanda una doble estrategia: por un lado, una hoja de ruta normativa y técnica que regule expresamente el uso de la IA en la contratación pública peruana, asegurando estándares de transparencia, explicabilidad y trazabilidad; y, por otro, el desarrollo de condiciones prácticas de implementación que incluyan capacitación, cooperación interinstitucional, pilotos graduales, infraestructura digital y cultura organizacional crítica.
Solo de esta manera se podrá compatibilizar el aprovechamiento de la eficiencia algorítmica con la salvaguarda de las garantías procedimentales, evitando el riesgo de una automatización sin control.
7. Análisis crítico y limitaciones
La sugerencia de un tipo mixto de IA en la contratación pública del Perú no estaría ausente de tensiones y contrapuntos. Lo que puede lograr para conseguir la condición de un sistema con mayor eficiencia, tiene que ser medido con lo que pueda implicar áreas de riesgo en la automatización de los procesos de decisión que se ejecuten en el Estado constitucional de derecho.
El objetivo de esta sección es proporcionar evidencias de los principales riesgos y retos y plantear estrategias de mitigación que permitan conseguir una eficiente automatización algorítmica y las garantías de los procedimientos de la misma. Finalmente, se realizará una breve conclusión sobre este apartado.
7.1. Riesgos y Retos del Modelo
- Opacidad y Black Box algorítmica: Uno de los problemas más graves de la implementación de sistemas de IA es la falta de explicabilidad de las decisiones que se adoptan. Los algoritmos de machine learning y, de forma más intensa, los algoritmos de deep learning actúan como “cajas negras” que producen resultados sin reconocer de una forma clara el cálculo interno de los resultados adaptados (Capdeferro, 2020). La opacidad choca de una forma frontal con el principio de motivación de los actos administrativos que recoge el artículo 6 de la LPAG. La falta de motivación del argumento algorítmico puede debilitar las decisiones y abrir la puerta a impugnaciones.
- Riesgos de sesgo y discriminación indirecta: Los sistemas de IA reproducen los sesgos contenidos en los datos con los que fueron entrenados. En contratación pública, esto puede traducirse en la exclusión de determinados proveedores, la asignación desigual de riesgos contractuales o la detección errónea de supuestas irregularidades (Criado, 2021). Casos como el algoritmo de la Agencia Tributaria de Países Bajos (SyRI), declarado ilegal por generar discriminación estructural en función de datos socioeconómicos, evidencian los riesgos de sesgo en sistemas públicos (Cerrillo et al., 2024).
- Brechas tecnológicas y desigualdades estructurales: La instauración de la IA podría profundizar la esfera existente entre las entidades que tienen más dominio en la tecnología, es decir, los ministerios u otras entidades reguladoras y los Gobiernos regionales o locales que tienen escasez de recursos. Es decir, podría instaurar una desigualdad de acceso, propiciada por una modernización asimétrica, lo que haría que el acceso a una administración pública no fuera sin duda la misma. La cuestión es cómo garantizar que el modelo híbrido no se implemente sólo con ciertos organismos privilegiados, sino que a partir de esta modalidad se acabe extendiendo hacia el resto de las entidades contratantes.
- Delegación sin control y responsabilidad difusa: La utilización de IA podría desembocar en dejar a los/las funcionarios públicos en una actitud de delegación del algoritmo, viendo sus resultados como verdades inamovibles. Este fenómeno, denominado automation bias, puede conducir a que los usuarios acepten acríticamente las sugerencias del sistema automatizado, relegando o ignorando información relevante que podría conducir a una decisión distinta (Hoffman, 2024). A ello se suma la persistente ambigüedad respecto de la atribución de responsabilidad cuando la IA comete errores, en particular sobre si esta debe recaer en el proveedor del sistema o en la entidad que lo adquiere e implementa (Ordoñez, 2023).
- Críticas al “hype” tecnológico y riesgos institucionales: El fracaso de las iniciativas de transformación digital en Europa -como la administración electrónica española, cuyas características son la descoordinación y la fragmentación (Tejedor, 2021) - pone de manifiesto que la tecnología, por sí sola, no resuelve los problemas de gestión pública. En el Perú, el riesgo de debilidad institucional del OECE podría consolidarse como un factor de riesgo si no hay un refuerzo de su capacidad para supervisar.
7.2. Estrategias de Mitigación
- Auditorías algorítmicas externas e independientes: Con el fin de combatir la opacidad e impedir que el algoritmo sea una caja negra, se recomienda otorgar la realización de auditorías algorítmicas periódicas realizadas por entidades distintas a las que han diseñado y en las cuales se combina la auditoría del diseño del sistema con la auditoría de resultados conforme a principios de transparencia, de igualdad, de motivación administrativa (Cerrillo et al., 2024). La auditoría del algoritmo debe incluir pruebas del sesgo que contengan controles de la calidad de los datos y un análisis de impactos en derechos fundamentales.
- Revisión humana estructurada (“human-in-the-loop”): La inclusión obligatoria de control humano en momentos críticos también es a la vez una salvaguarda necesaria. Esto va en línea con lo que actualmente regula el Reglamento de IA de la UE, respecto a la necesidad de control humano en sistemas de alto riesgo.
- Protocolos de reversión y mecanismos de trazabilidad: El reverso de decisiones erróneas o injustas tomadas de forma algorítmica debe ser reconocido explícitamente en la norma peruana de derechos fundamentales. Para ello, se requieren protocolos de trazabilidad bien definidos que permitan “reconstruir” el proceso de decisión algorítmica. En este sentido, el caso del DoZorro en Ucrania es muy ilustrativo, pues combina trazabilidad tecnológica con el control popular de las alertas generadas (Zuleta, 2021).
- Responsabilidad institucional clara: El marco normativo tiene que distribuir responsabilidades concretas a las entidades públicas que usan IA, sin tener difusamente repartidas las culpas entre proveedores y funcionarios. El OECE y el Tribunal de Contrataciones tendrían que adquirir competencias administrativas de supervisión concretas; una arquitectura de responsabilidades claramente definidas no sólo acredita la legitimidad del sistema, sino que también puede reducir los riesgos de abuso.
- Participación ciudadana y co-creación de modelos: Por último, implicar a la sociedad civil, de la academia y del sector privado en el diseño y la evaluación de sistemas algorítmicos se considera una forma útil para reducir los riesgos de la opacidad y de la desconfianza. Modelos de co-creación institucional, como los que impulsa el CAF en diferentes naciones.
7.3. Conclusión
La IA híbrida para la contratación pública proporciona claros beneficios en términos de eficiencia y transparencia, pero también grandes peligros relacionados con la opacidad, los sesgos, la delegación de responsabilidades no controlada y el debilitamiento institucional; tales amenazas no hay que entenderlas como argumentos en contra de su implementación, sino como advertencias que obligan a poner en marcha estrategias de mitigación sólidas.
Auditorías externas, supervisión humana estructurada, trazabilidad, responsabilidades definidas y participación ciudadana son los principios que permitirán que la IA en la contratación pública peruana no erosione el Estado de derecho, sino que lo consolide.
8. Reflexiones generales
La adopción de IA dentro de la contratación pública peruana es, sin duda, una oportunidad estratégica para modernizar la gestión de lo público. La evidencia comparada demuestra que la implementación de algoritmos puede derivar en mejoras importantes en eficiencia, trazabilidad y control de la contratación pública, siempre que se lleve a cabo una implementación responsable y controlada.
Sin embargo, también se ha mostrado que una implementación facilista o acrítica puede generar riesgos muy relevantes como la opacidad, la discriminación indirecta o la erosión de garantías constitucionales. En ese sentido, el análisis efectuado en el presente artículo permite llegar a varias conclusiones fundamentales:
- La eficacia algorítmica no podrá ser considerada como un fin en sí, sino como un medio subordinado a la legalidad, la transparencia y el respeto al debido procedimiento. Una decisión rápida, pero incomprensible para el ordenamiento estatal es incompatible con el Estado de derecho.
- El ordenamiento jurídico peruano vigente no resulta suficiente para regular el uso de IA en la contratación pública y ello genera inseguridad jurídica tanto para el sujeto encargado de aplicar la ley como para la administrado. Por ello, urge el dictado de un reglamento específico y la modificación de la Ley de Contrataciones Públicas para incorporar la regulación sobre el uso, el control y la responsabilidad algorítmica.
- Los países de referencia en hogares y automatización son aquellos donde se han cruzado la automatización con el control humano significativo. Esta forma híbrida que se propone aquí sigue esta misma lógica, ya que se distinguen tres niveles de automatización: total, supervisada y de asistencia, en función del riesgo jurídico y del impacto en derechos fundamentales. Esta forma escalonada permite extraer las ventajas de la IA sin la necesidad de las decisiones administrativas que muchas veces, en determinadas circunstancias, han condenado a los ciudadanos a la muerte civil.
- Los riesgos de la caja negra algorítmica, los sesgos de los datos, la delegación ciega o la difusión de las responsabilidades están presentes desde el principio, y dada esta combinación se tienen que afrontar con medidas mitigadoras claras: auditorías externas, revisiones humanas estructuradas, protocolos de reversión, trazabilidad obligatoria y la participación de la ciudadanía en la fiscalización de los sistemas. Estos mecanismos no solo mitigan riesgos, sino que también permiten recuperar la confianza pública en el proceso de digitalización de la administración pública.
En todo caso, el futuro de la contratación pública en el Perú exige anticipación regulatoria, significando que el OECE y el Tribunal de Contrataciones deban emitir lineamientos específicos, normas que remitan a estándares internacionales como el OCDS y las guías de la OCDE, así como el impulso de pilotos institucionales donde participe la entidad Perú Compras, como pasos ineludibles de un proceso de ejecución.
Este será viable únicamente con un ordenamiento normativo robusto, un conjunto de capacidades institucionales para encaminar procesos y una cultura institucional crítica que haga posible compatibilizar la eficiencia algorítmica y las garantías procedimentales; por lo cual, la tecnología tiene que ser entendida como un medio de reforzar y no de desbancar la función administrativa. El verdadero desafío no está en encontrar la forma de programar algoritmos para que sean eficientes, sino en que los resultados que estos generen sean legítimos, explicables y sujetos a control.
La contratación pública en el Perú tiene la oportunidad de convertirse en un referente regional para el uso responsable de IA, siempre que se entienda que la modernización digital no es un objetivo por sí, sino un medio a favor del Estado de derecho. En palabras de cierre: la IA tiene que estar al servicio de la democracia administrativa y nunca en su lugar.
Referencias bibliográficas
Baig, A., Singla, A., Blumberg, S., Chui, M., Sukharevsky, A., & Wiseman, B. (2024, 30 de abril). What is deep learning?. McKinse & Company. https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-deep-learning
Bailin, F. (2025, 5 de marzo). Sesgo en la IA: Cómo evitar la discriminación en los modelos. Skillnest. https://www.skillnest.com/blog/sesgo-en-la-ia-como-evitar-la-discriminacion-en-los-modelos/
Banco de Desarrollo de América Latina y el Caribe (CAF). (2021). Experiencia: Datos e Inteligencia Artificial en el sector público. CAF. https://scioteca.caf.com/handle/123456789/1793
Banguero, M., Mancilla, L. & Zuñoga, K. (2020). Sistematización de la Experiencia del Proyecto Fortalecimiento de la Organización e Incidencia Política de las Mujeres del Distrito de Aguablanca, Realizado por la Asociación Casa Cultural del Chontaduro entre el año 2015 y el 2019. [Trabajo de grado presentado para optar el título de profesional en trabajo social]. Antonio José Camacho Institución Universitaria. Biblioteca Digital UNIAJC. https://repositorio.uniajc.edu.co/server/api/core/bitstreams/98e44ad5-2f44-4de2-aacc-c22a3e80430d/content
Bergès, S. & Delaigue, M. (2025, 8 de abril). Public Procurement 2025. Chambers and Partners. https://practiceguides.chambers.com/practice-guides/public-procurement-2025/france
Bock, M. (2023, 28 de agosto). Toma de decisión asistida con inteligencia artificial. Conexión ESAN. Universidad ESAN. https://www.esan.edu.pe/conexion-esan/toma-de-decision-asistida-con-inteligencia-artificial
Capdeferro, O. (2020). La inteligencia artificial del sector público: desarrollo y regulación de la actuación administrativa inteligente en la cuarta revolución industrial. IDP, (30), 1–23.https://doi.org/10.7238/idp.v0i30.3219
Cerrillo, A., Di Lascio, F., Martín, I., & Velasco, C. (Direc.). (2024). Inteligencia artificial y administraciones públicas: una triple visión en clave comparada. Iustel. https://www.iustel.com/editorial/90024094-IA-y-Administraciones-P%C3%BAblicas.pdf
Chudleigh, S. (2024, 31 de mayo). What is an AI agent. Botpress. https://botpress.com/blog/what-is-an-ai-agent
Coglianese, C., & Lai, A. (2022). Algorithm vs. Algorithm. All faculty scholarship, 72, 1281–1340. https://scholarship.law.upenn.edu/faculty_scholarship/2795/.
Constitución Política del Perú [Const.]. Artúculo 139, inciso 3. 29 de diciembre 1993 (Perú).
Criado, I. (2021). Inteligencia artificial (y administración pública). Eunomía. Revista en Cultura de la Legalidad, (20), 348–372. https://doi.org/10.20318/eunomia.2021.6097
Decreto Legislativo 1412 [Poder Ejecutivo]. Decreto Legislativo que aprueba la Ley de Gobierno Digital. 13 de setiembre de 2018.
Decreto Supremo 029-2021-PCM [Presidencia del Consejo de Ministros]. Decreto Supremo que aprueba el Reglamento de la Ley de Gobierno Digital. 19 de febrero de 2021.
Decreto Supremo 009-2025-EF [Ministerio de Economqía y Finanzas]. Decreto Supremo que aprueba el Reglamento de la Ley No. 32069, Ley General de Contrataciones Públicas. 22 de enero de 2025.
Escuela de Gobierno PUCP. (3 de mayo de 2022). Aplicaciones de la inteligencia artificial en la contratación pública peruana [Video]. YouTube. https://youtu.be/52cN_eO2h3Y
European Institute of Public Administration (EIPA). (2024). AI-Powered Interoperability: Lessons Learned from the European Public Sector Awards. https://www.eipa.eu/wp-content/uploads/2025/01/EPSA-Briefing_AI.pdf?hsCtaAttrib=205094397139
García Rodríguez, G., Fuertes-Alpiste, M. & Molas Castells, N. (2018). Briefing paper: chatbots in education. Universitat Oberta de Catalunya (UOC). https://hdl.handle.net/10609/80185
Government of Singapore. (2025, 27 de mayo). About Us. GeBIZ
Hlacs, A., & Wells, H. (2025). Using digital technology to strengthen oversight of public procurement in Portugal. The use of data analytics and machine learning by the Tribunal de Contas. OECD Working Papers on Public Governance, (83), 9-34. https://www.tcontas.pt/pt-pt/MenuSecundario/Noticias/Documents/ocde-wppg-83.pdf
Hoffman, B. (2024, 10 de marzo). Automation Bias: What It Is And How To Overcome It. Forbes. https://www.forbes.com/sites/brycehoffman/2024/03/10/automation-bias-what-it-is-and-how-to-overcome-it/
Holdsworth, J., Stryker, C., Lee, F., Bergmann, D. & Scapicchio, M. (2024, 17 de junio). The 2025 Guide to Machine Learning: What is deep learning? IBM. https://www.ibm.com/think/topics/deep-learning
Horneber, D. & Laumer, S. (2023). Algorithmic Accountability. Business & Information Systems Engineering, (65), 723–730. https://doi.org/10.1007/s12599-023-00817-8
Instituto Nacional de Administración Pública (2024). El derecho administrativo en la era de la inteligencia artificial. Actas del XVIII Congreso de la Asociación Española de Profesores de Derecho Nacional Administrativo. Instituto Nacional de Administración Pública. https://www.aepda.es/wp-content/uploads/2025/02/Actas-del-18-Congreso-AEPDA.pdf
Johnson, D. (2022). Algorithmic accountability in the making. Social Philosophy and Policy, 38 (2), 111–127. https://doi.org/10.1017/S0265052522000073
Jonker, A., & Rogers, J. (2024, 20 de septiembre). ¿Qué es el sesgo algorítmico?. IBM. https://www.ibm.com/es-es/think/topics/algorithmic-bias
Kuo, C. (2025, 3 de junio). Use Cases. AI in Procurement: Tools & Tactics That Work in 2025. Botpress. https://botpress.com/blog/ai-in-procurement
Laus, F. (2024). Organizzazione amministrativa e gestione del rischio nei sistemi de IA. En Cerrillo, A., Di Lascio, F., Martín, I. & Velasco, C. (Direc.), Inteligencia artificial y administraciones públicas. Una triple visión en clave comparada. Iustel. https://dialnet.unirioja.es/servlet/libro?codigo=990286
Ley 27444. Ley del Procedimiento Administrativo General. 11 de abril de 2001.
Ley 32069. Ley General de Contrataciones Públicas. 22 de enero de 2025.
López, A. & Martínez, G. (2019). La gestión sistemática del riesgo en la contratación pública. Una oportunidad para la mejora. Auditoria Pública, (73), 17-28. https://asocex.es/la-gestion-sistematica-del-riesgo-en-la-contratacion-publica-una-oportunidad-para-la-mejora/
Ministerio de Finanzas de Estonia. (2023, enero 11). Comité de Revisión de Compras Públicas. Rahandusministeerium.
Miranzo, J. (2020). La contratación pública como elemento de control, garantía e impulso de la IA pública. Revista Española de Derecho Administrativo, 210, 1–20. https://www.researchgate.net/publication/342865868
Morandín-Ahuerma, F. (2023). Recomendación del Consejo sobre Inteligencia Artificial de la OCDE: Desigualdad e inclusión. En. Principios Normativos para una Etica de la Inteligencia Artificial. Consejo de Ciencia y Tecnología del Estado de Puebla. https://legalinstruments.oecd.org/es/instruments/OECD-LEGAL-0449
Organisation for Economic Co-operation and Development (OECD). (2024). 2023 OECD Digital Government Index: Results and key findings. OECD Public Governance Policy Papers, (44), 7-38. https://doi.org/10.1787/1a89ed5e-en
Ordoñez, A. (2023, 16 de agosto). Los grandes riesgos de la inteligencia artificial para la humanidad y para las empresas. CESCE. https://www.cesce.es/es/w/asesores-de-pymes/riesgos-inteligencia-artificial
Organización para la Cooperación y el Desarrollo Económicos (OCDE). (2019). Recomendación del Consejo sobre Inteligencia Artificial. https://legalinstruments.oecd.org/en/instruments/%20OECD-LEGAL-0449
Organisation for Economic Co-operation and Development (OECD). (2023). Common guideposts to promote interoperability in AI risk management. OECD,(5). https://doi.org/10.1787/ba602d18-en.
Oficina de Comunicaciones de la Central de Compras Públicas (5 de junio de 2023). Perú Compras refuerza la lucha anticorrupción mediante la vigilancia en los Catálogos Electrónicos. https://www.gob.pe/institucion/perucompras/noticias/773092-peru-compras-refuerza-la-lucha-anticorrupcion-mediante-la-vigilancia-en-los-catalogos-electronicos
Oficina de Comunicaciones de la Central de Compras Públicas (18 de noviembre de 2021). Perú Compras aplica la inteligencia artificial con enfoque anticorrupción. Plataforma del Estado Peruano. https://www.gob.pe/institucion/perucompras/noticias/561433-peru-compras-aplica-la-inteligencia-artificial-con-enfoque-anticorrupcion
Orlando, F. (2025). Reseña del libro “El Reglamento de Inteligencia Artificial de la Unión Europea de 2024, el derecho a una buena administración digital y su control judicial en España” de Juli Ponce Solé. Revista Argentina de Teoría Jurídica, 25(2), 86-96. https://www.marcialpons.es/media/pdf/resee.pdf
Paca Zuleta, M. (2021, 23 de agosto). ¿Cómo la inteligencia artificial puede mejorar la contratación pública en América Latina? Ucrania, un caso inspirador. CAF. https://www.caf.com/es/blog/como-la-inteligencia-artificial-puede-mejorar-la-contratacion-publica-en-america-latina-ucrania-un-caso-inspirador/
Papanikou, X. (2025, 5 de marzo). Updated EU AI model contractual clauses now available. Public Buyers Community. https://public-buyers-community.ec.europa.eu/communities/procurement-ai/news/updated-eu-ai-model-contractual-clauses-now-available
Presno Linera, M., & Meuwese, A. (2024). La regulación de la inteligencia artificial en Europa. Teoría y Realidad Constitucional, (54), 131–161. https://doi.org/10.5944/trc.54.2024.43310
Rojas, E. (2011). El debido procedimiento administrativo. Revista de la Facultad de Derecho, (67), 177–188. https://doi.org/10.18800/derechopucp.201102.008
Sanchez-Graells, A. & O’Connell, E. (2024, 16 de setiembre). Demystifying AI in public procurement: Following a beginner’s curiosity. European Institute of Public Administration. https://www.eipa.eu/blog/demystifying-ai-in-public-procurement-following-a-beginners-curiosity
Tejedor Bielsa, J. (2021). Transformación digital, blockchain, inteligencia artificial. Referencias y experiencias en Aragón. European Review of Digital Administration & Law, 2(2), 59–74. https://www.erdalreview.eu/free-download/97912599475298.pdf
Timusk, A., Kivistik, T., & Reiments, U. (2023, 11 de enero). Public Procurement Review Committee. Republic of Estonia: Ministry of Finance. https://www.fin.ee/en/public-procurement-state-aid-and-assets/public-procurement-policy/public-procurement-review
Vestri, G. (2021). La inteligencia artificial ante el desafío de la transparencia algorítmica. Una aproximación desde la perspectiva jurídico-administrativa. Revista Aragonesa de Administración Pública, (56), 368–398. https://doi.org/10.71296/raap.62
Wachter, S., Mittelstadt, B., & Floridi, L. (2017). Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation. International Data Privacy Law, 7(2), 76–99. https://doi.org/10.1093/idpl/ipx005
Wachter, S, & Mittelstadt, B. (2018). A right to reasonable inferences: Re-thinking data protection law in the age of big data and AI. Columbia Business Law Review, 2019(2). https://ssrn.com/abstract=3647414
Yhiah. (28 de julio de 2025). Una escuela en la región de Poltava anunció accidentalmente una licitación por 20 billones - Declaraciones del CEO de Prozorro, Mykola Tkachenko. UNIAN. https://www.unian.ua/economics/finance/shkola-na-poltavshchini-vipadkovo-ogolosila-tender-na-kupivlyu-mandariniv-na-20-trilyoniv-gendirektor-prozorro-mikola-tkachenko-13077963.html#google_vignette 
(*) Nota del Equipo Editorial: Este artículo fue recibido el 5 de septiembre de 2025 y su publicación fue aprobada el 10 de diciembre de 2025.
(**) Abogado por la Pontificia Universidad Católica del Perú (Lima, Perú). Máster en Dirección en Gestión de Proyectos por la Universidad Rey Juan Carlos. Profesor del curso de MARC’S en la Universidad Científica del Sur. Egresado de la Maestría en Derecho Administrativo Económico por la Universidad del Pacífico. ORCID: https://orcid.org/0009-0001-3369-3259. Correo electrónico: rfreitas@cientifica.edu.pe.
(***) Abogado por la Universidad Científica del Sur (Lima, Perú). ORCID: https://orcid.org/0000-0003-2683-9667. Correo electrónico: pedroeduardosantillancrosby3@gmail.com.
(1) Véase que, en Ucrania, la IA es entrenada por expertos en irregularidades, los mismos que pueden diferir entre ellos aceptadas por todos los administrados, requiriendo su evaluación constitucional y el resguardo de derechos fundamentales y del debido proceso ante eventuales sesgos o fallos iniciales.
(2) Véase, la automatización casi total de Estonia, la positivizada transparencia digital de Francia; la semi-automatización en Singapur y Portugal; o la seguridad artificial de Ucrania