El impacto del Caso Bosco: Análisis evolutivo y crítico de un pronunciamiento que consolida la transparencia algorítmica, en un contexto de reconocimiento de derechos sociales y vulnerabilidad
The Impact of the Bosco Case: An Evolutionary and Critical Analysis of a Ruling that Consolidates Algorithmic Transparency in a Context of Recognition of Social Rights and Vulnerability
Diana Carolina Wisner Glusko
Universidad CEU Fernando III, CEU Universities (Sevilla, España)
https://doi.org/10.18800/iusetveritas.202502.007
El impacto del Caso Bosco: Análisis evolutivo y crítico de un pronunciamiento que consolida la transparencia algorítmica, en un contexto de reconocimiento de derechos sociales y vulnerabilidad(*)(**)
The Impact of the Bosco Case: An Evolutionary and Critical Analysis of a Ruling that Consolidates Algorithmic Transparency in a Context of Recognition of Social Rights and Vulnerability
Diana Carolina Wisner Glusko(***)
Universidad CEU Fernando III, CEU Universities (Sevilla, España)
Resumen: La sentencia del Tribunal Supremo –órgano jurisdiccional superior de España- del 11 de septiembre de 2025, ha obligado a la Administración del Estado a facilitar a la Fundación Ciudadana CIVIO el acceso al código fuente de la aplicación informática Bosco destinada a la comprobación del cumplimiento de los requisitos necesarios para ser beneficiarios del bono social en materia de energía eléctrica. El pronunciamiento de la Sala de lo Contencioso-Administrativo del Alto Tribunal es en sí mismo un punto de inflexión en la reafirmación de los principios de transparencia, explicabilidad, auditabilidad, trazabilidad y rendición de cuentas cuando las Administraciones Públicas emplean sistemas informáticos de toma de decisiones automatizadas. En ese sentido, es tan importante la propia resolución (Sentencia 1119/2025), considerada por la más prestigiosa Doctrina como un hito, como el camino recorrido por la Fundación y el alcance de las decisiones adoptadas en las diferentes instancias, tanto administrativas como judiciales. Y tiene aún más trascendencia cuando estamos ante la aplicación de la inteligencia artificial para el reconocimiento de derechos sociales.
El estudio persigue analizar, en el denominado “Caso Bosco” y en base a un análisis descriptivo, evolutivo y crítico, cuál es el alcance de la decisión algorítmica y sus garantías administrativas cuando reconoce una situación de vulnerabilidad social, en qué medida se consolida el derecho de acceso a la información pública cuando se trata de información algorítmica y cómo han oscilado la configuración del código fuente como información pública y la necesaria ponderación de la propiedad intelectual ante este tipo de algoritmos públicos, en un Estado Social y Democrático de Derecho.
Palabras clave: Inteligencia Artificial - Administración Pública - Código Fuente - Derechos Sociales - Ciudadanos Vulnerables - Algoritmo - Acceso a la Información Pública - Transparencia Algorítmica – Derecho Administrativo - España
Abstract: The Supreme Court ruling - Spain’s highest court- of September 11, 2025, has compelled the State Administration to grant the CIVIO Citizen Foundation access to the source code of the Bosco software application, designed to verify compliance with the requirements for receiving the social electricity tariff. The decision by the Administrative Chamber of the Supreme Court is itself a turning point in reaffirming the principles of transparency, explainability, auditability, traceability, and accountability when Public Administrations employ automated decision-making systems. In this respect, the ruling itself (Judgment No. 1119/2025), considered a landmark by leading legal scholars, is as important as the path taken by the Foundation and the scope of the decisions adopted at the various administrative and judicial levels. Its significance is even greater given the application of artificial intelligence to the recognition of social rights.
The study aims to analyze, in the so-called “Bosco Case” and based on a descriptive, evolutionary and critical analysis, what is the scope of the algorithmic decision and its administrative guarantees when it recognizes a situation of social vulnerability, to what extent the right of access to public information is consolidated when it is algorithmic information and how the configuration of the source code as public information and the necessary balancing of intellectual property before this type of public algorithms have fluctuated, in a Social and Democratic State of Law.
Keywords: Artificial Intelligence - Public Administration - Source Code - Social Rights - Vulnerable Citizens - Algorithm - Access to Public Information - Algorithmic Transparency - Administrative Law - Spain
1. Introducción
En el marco de su transformación digital, la Administración Pública ha ido implantando y aplicando las nuevas tecnologías en el ejercicio de las potestades públicas y en la prestación de servicios públicos. El proceso transformador del Sector Público es imparable, con la propia evolución de la normativa administrativa que lo fundamenta y le otorga seguridad jurídica, garantizando los derechos de las personas en sus relaciones con las Administraciones públicas (Cerrillo i Martínez, 2024b, p.102). Desde la digitalización de los documentos y la administración electrónica hacia la administración inteligente y digital(1), los datos estadísticos y los informes sectoriales -que incluyen la aplicación de Inteligencia Artificial Generativa(2) - avalan esta afirmación(3). España se ha convertido, según Roca Hernández de Armijo (2025, p.145-146) en un referente tanto a nivel europeo como mundial.
En esa dirección, y en virtud del uso de la Inteligencia Artificial (en adelante, IA), las Administraciones Públicas están sentando las bases de un nuevo modelo: el de la administración digital basado en el uso intensivo e innovador de la tecnología para la apertura a la ciudadanía, la recopilación y el análisis de datos y la prestación de servicios eficientes, inclusivos, sostenibles y centrados en las personas (Cerrillo i Martínez (2024a, p.74). Y frente a este panorama, tal como recuerda Bauzá Martorell (2024, p.43), resulta imprescindible que los derechos y garantías de los ciudadanos, en su relación jurídico-administrativa con los poderes públicos, no se vea minorada por el hecho de que se implemente la IA. Precisamente la puesta a disposición de una aplicación informática a las empresas comercializadoras de referencia de energía eléctrica –por parte del Ministerio de Transición Ecológica del Gobierno de España [MITECO]– para comprobar si los solicitantes del Bono Social cumplían con los requisitos establecidos en la normativa es una muestra de ello.
Es menester poner en contexto la situación suscitada que finalmente ha desembocado en la Sentencia número ١١١٩/٢٠٢٥ del Tribunal Supremo y que motiva este trabajo. Recordemos, brevemente, que en el año 2018 la Fundación Ciudadana CIVIO solicitó al referido Ministerio -a través del Portal de Transparencia de la Administración del Estado- la especificación técnica de la aplicación, su código fuente, el resultado de las pruebas realizadas para comprobar que la aplicación implementada cumplía con los requisitos funcionales, así como cualquier otro entregable que permitiera conocer el funcionamiento de la aplicación. Ante el silencio administrativo, presentó una reclamación en el Consejo de Transparencia y Buen Gobierno [CTBG] quien estimó parcialmente la misma -a través de su Resolución 701/2018 de 18 de febrero de 2019- instando al Ministerio a la entrega de la documentación técnica anteriormente mencionada, rechazando el acceso al código fuente.
A partir de la misma se inicia la vía judicial. Tanto el Juzgado Central de lo Contencioso -Administrativo Sección 8 —Sentencia 143/2021 (30 de diciembre de 2021) - como la Audiencia Nacional —Sentencia de 30 de abril de 2024— desestimaron sendos recursos confirmando la negativa a facilitar el código fuente de la aplicación de acuerdo con la Ley 19/2013, de Transparencia, acceso a la información pública y buen gobierno [LTAIGB]. Finalmente, la Fundación Ciudadana CIVIO recurrió en casación dictándose, en consecuencia, la sentencia que anula las resoluciones previas y reconoce la procedencia del acceso al código fuente de la aplicación informática BOSCO. El reciente pronunciamiento del Alto Tribunal ha sido denominado por algunos como un “hito” (Ponce Solé, 2025) o “más ruido que nueces” (Huergo Lora, 2025), pero que en modo alguno ha dejado indiferente a la doctrina administrativa. Son varios los autores que han abordado el denominado “Caso Bosco” desde los inicios hasta la Sentencia 143/2021 del Juzgado Central de lo Contencioso-Administrativo (Gutiérrez David, 2021; Vestri, 2022) o hasta la Sentencia de la Audiencia Nacional de 30 de abril de 2024 (Ponce Solé, 2024; Cotino Hueso, 2024; Huergo Lora, 2024), por mencionar algunos.
El presente estudio pretende dar un paso más y analizar, críticamente, la evolución del “Caso Bosco”, considerando todas las instancias judiciales que abarcan el periodo de 2021 a 2025, desde una triple perspectiva. La primera, en relación con el derecho de acceso a la información pública; la segunda, respecto de la configuración del código fuente como información pública; y la tercera, relativa a la ponderación de los intereses en conflicto en torno al límite de la propiedad intelectual, bajo el prisma de la situación de vulnerabilidad -defendida por la Fundación Ciudadana CIVIO- y el consecuente reconocimiento de derechos sociales. Todo ello con la finalidad de comprobar y visibilizar las modulaciones que se han ido produciendo en torno a la transparencia algorítmica -en especial de los algoritmos públicos- tanto en virtud de los pronunciamientos de la justicia, del posicionamiento del CTBG y de la Agencia Española de Protección de Datos [AEPD]. En este cometido es necesario contextualizar el marco jurídico vigente, con una referencia a la normativa aplicable en la materia, especialmente a partir del año 2020.
2. Contexto normativo en el que se ha desarrollado el “Caso Bosco”
El ordenamiento jurídico regula la adopción de decisiones automatizadas por parte de las Administraciones Públicas desde el año 2007(4), redacción que ha mantenido la Ley 40/2015, de 1 de octubre, de Régimen Jurídico del Sector Público [LRJSP]. La misma dispone que la actuación automatizada es “cualquier acto o actuación realizada íntegramente a través de medios electrónicos por una Administración Pública en el marco de un procedimiento administrativo y en la que no haya intervenido de forma directa un empleado público” (Artículo 41.1). Para lo cual deberá establecerse “previamente el órgano u órganos competentes, según los casos, para la definición de las especificaciones, programación, mantenimiento, supervisión y control de calidad y, en su caso, auditoría del sistema de información y de su código fuente” (…) indicando “el órgano que debe ser considerado responsable a efectos de impugnación” (Art.41.2)(5).
Como bien señala la Doctrina, esta es la única previsión legal sobre el régimen jurídico de la actuación administrativa que se ajusta a las particularidades de la IA, por lo que debe ser respetada (Valero Torrijos, 2019, p. 87). Tales así que el simple hecho de que la decisión haya sido adoptada por una máquina de forma automatizada no implica que la actuación se le impute a ella, sino que la autoría del acto recaerá sobre el órgano administrativo que ejerce la potestad y tiene encomendada la competencia (Martín Delgado, 2009, p.360); e inclusive que es exigible la motivación de los actos, como garantía central del Derecho Administrativo (Gamero Casado, 2023) cuyo incumplimiento invalidaría el acto administrativo.
En definitiva, en un Estado de Derecho, tal como expresa Ponce Solé (2019) la regulación de la IA, y de las decisiones administrativas automatizadas en particular, “encuentra acomodo en las categorías clásicas de órgano administrativo y acto administrativo”. Cabe recordar que el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos, por el que se deroga la Directiva 95/46/CE (Reglamento Europeo de Protección de Datos, en adelante RGPD) también contempla, en su artículo 22, la regulación de las decisiones automatizadas.
Dicho esto, son varias las novedades introducidas sobre gobernanza y regulación de la IA desde la primera solicitud del acceso al código fuente de la aplicación informática, en 2018, hasta la Sentencia del Tribunal Supremo acaecida este mismo año. En 2020 veía la luz el Libro Blanco sobre la IA, tendente a desarrollar un ecosistema de confianza -a partir de esta tecnología disruptiva- que acerque sus ventajas a los ciudadanos de manera que mejoren sus vidas y la prestación de los servicios públicos -atención sanitaria, transportes seguros, educación, gestión de residuos, menores costes en los servicios- al mismo tiempo que respetan sus derechos y libertades (Comisión Europea, 2020).
En el mes de julio de 2021, Carta Derechos Digitales del Gobierno de España reconocía los derechos ante la inteligencia artificial (XXV), postulando un enfoque centrado en la persona y su inalienable dignidad, que persiga el bien común y que asegure cumplir con el principio de no maleficencia. Asimismo, en el desarrollo y ciclo de vida de los sistemas de IA, es esencial garantizar el derecho a la no discriminación cualquiera que fuera su origen, causa o naturaleza, en relación con las decisiones, uso de datos y procesos basados en IA; establecer condiciones de transparencia, auditabilidad, explicabilidad, trazabilidad, supervisión humana y gobernanza, a fin de garantizar la accesibilidad, usabilidad y fiabilidad, facilitando a los interesados una información accesible y comprensible. Y, especialmente, la misma Carta que no tiene valor normativo, recoge los Derechos digitales de la ciudadanía en sus relaciones con las Administraciones Públicas (XVIII) estableciendo:
- Que las decisiones y actividades en el entorno digital respeten los principios de buen gobierno y el derecho a una buena Administración digital, así como los principios éticos que guían el diseño y los usos de la inteligencia artificial (2021, p. 20).
- El derecho a la transparencia “sobre el uso de instrumentos de inteligencia artificial y sobre su funcionamiento y alcance en cada procedimiento concreto y, en particular, acerca de los datos utilizados, su margen de error, su ámbito de aplicación y su carácter decisorio o no decisorio”. Las condiciones de transparencia y el acceso al código fuente podrán ser reguladas por ley, “especialmente con objeto de verificar que no produce resultados discriminatorios” (2021, p. 20).
- El derecho a obtener “una motivación comprensible en lenguaje natural de las decisiones que se adopten en el entorno digital, con justificación de las normas jurídicas relevantes, tecnología empleada, así como de los criterios de aplicación de las mismas al caso. El interesado tendrá derecho a que se motive o se explique la decisión administrativa cuando esta se separe del criterio propuesto por un sistema automatizado o inteligente” (2021, p. 20).
- “Que la adopción de decisiones discrecionales quede reservada a personas, salvo que normativamente se prevea la adopción de decisiones automatizadas con garantías adecuadas” (2021, p. 20).
Cabe resaltar, en el marco del presente estudio, que prevé la necesidad de contar con una evaluación de impacto en los derechos digitales en el diseño de los algoritmos en el caso de adopción de decisiones automatizadas o semiautomatizadas.
Un año después, en julio de 2022, la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación dispuso, en su artículo 23, que:
(…) las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio (2022).
De igual modo, deberán priorizar la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos y promover el uso de una IA ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea. Pese a considerarse su aprobación como un gran avance al ser la primera norma en España que aborda los lineamientos que deben seguirse al momento de diseñar los sistemas de IA para tomar decisiones, ha sido objeto de crítica porque sólo lo ha hecho de forma parcial (Simón Castellano, 2023) y no ha aprovechado la oportunidad para establecer una protección más efectiva de derechos mediante medidas concretas que generen derechos subjetivos (Valvidares Suárez, 2025, p. 287).
En el año 2024, finalmente vio la luz el Reglamento Europeo de la IA [RIA] cuyo objeto es “mejorar el funcionamiento del mercado interior y promover la adopción de una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente, frente a los efectos perjudiciales de los sistemas en la Unión así como prestar apoyo a la innovación (Artículo 1 RIA). La normativa europea introduce un enfoque basado en los riesgos claramente definido, que adapta el tipo y contenido de las normas a la intensidad y el alcance de los riesgos que puedan generar los sistemas de IA de que se trate, de forma tal que prohíbe determinadas prácticas de IA que no son aceptables, define los requisitos que deben cumplir los sistemas de IA de alto riesgo y las obligaciones aplicables a los operadores pertinentes, e impone obligaciones de transparencia a determinados sistemas de IA.
Asimismo, establece un marco común aplicable a todos los países de la UE, estableciendo la creación de autoridades de supervisión y de vigilancia del mercado a fin de garantizar su cumplimiento. Es la Doctrina la que recuerda que el RIA no regula específicamente el uso de sistemas de IA en las Administraciones Públicas, sino que el nivel de aplicación de dicha normativa variará en función de que estas sean la que diseñen y desarrollen los sistemas de IA o simplemente, utilicen sistemas de IA desarrollados por terceros (Cerrillo i Martínez, 2024, p.92). Si bien es cierto que nadie puede desconocer el potencial que tiene la IA para mejorar significativamente la Administración Pública (Alba Muñoz, 2025).
Por último, en cuanto a la legislación autonómica, no podemos dejar de citar en orden cronológico, la Ley de Transparencia Valenciana(6), el Decreto-ley 2/2023, de medidas urgentes de impulso a la IA en Extremadura(7) y la Ley 2/2025 para el desarrollo e impulso de la IA en Galicia. Esta última resulta de especial interés porque establece la obligación de transparencia en relación a la información pertinente sobre la arquitectura y el funcionamiento de los sistemas de IA que desarrollen o empleen en su actividad, sin perjuicio de las limitaciones previstas en el artículo 14 LTAIGB y en el artículo 25 de la Ley 1/2016, de 18 de enero, de transparencia y buen gobierno de dicha Comunidad Autónoma, como la propiedad intelectual (artículo 8).
Asimismo, la norma gallega refuerza el derecho de acceso a la información previendo que la información publicada o notificada sea facilitada en un lenguaje claro que permita que todas las personas, independientemente de sus capacidades o su situación socioeconómica, comprendan el procedimiento en el que interviene un sistema de inteligencia artificial y sus resultados, utilizando expresiones concisas y claras, estructuras lingüísticas efectivas e iconos estandarizados y el buen diseño de los documentos (artículo 9. Claridad, incisos 1 y 2). Finalmente, su artículo 10 dispone que en los procesos de diseño, adquisición, implementación y uso de sistemas de inteligencia artificial se adoptarán las garantías necesarias a los efectos de mitigar cualquier resultado discriminatorio o cualquier tipo de sesgo.
Cabe mencionar que las Comunidades Autónomas de Andalucía y Madrid se encuentran inmersas en la tramitación de sus legislaciones pertinentes en materia de Administración Digital e IA(8).
El pasado año la Doctrina especializada (Cotino Hueso, 2024) postulaba que la regulación de la transparencia de los algoritmos públicos era claramente insuficiente y que urgía un mayor desarrollo, precisión e integración normativa. Es evidente que se están dando nuevos pasos, pero aún queda mucho camino por transitar con objeto de ofrecer, de forma generalizada, las mayores garantías en el acceso a la información vinculada a la utilización de sistemas basados en IA por parte de las Administraciones Públicas.
3. La postura de las Administraciones Públicas en el Caso BOSCO
Son tres las Administraciones Públicas que, de forma directa, han manifestado su posición en relación a la aplicación informática Bosco. Todas y cada una de ellas resultan ser relevantes, bien por mantener una defensa férrea de la inaccesibilidad del código fuente hasta la última instancia judicial [MITECO], por modificar su postura inicial llegando incluso a resolver a favor del acceso al código fuente de otras aplicaciones en resoluciones posteriores [CTBG] e incluso sancionando al Ministerio por incumplimiento de la normativa de protección de datos respecto a las decisiones automatizadas. A fin de comprobar el grado de impacto del caso aquí analizado, es menester abordar las posiciones adoptadas tanto por el Consejo de Transparencia y Buen Gobierno como por la Agencia Española de Protección de Datos, atendiendo la importancia que ambas instituciones públicas ha tenido frente a un caso de tanto calado, donde han estado en juego derechos constitucionales.
3.1. Consejo de Transparencia y Buen Gobierno (CTBG)
El Consejo de Transparencia y Buen Gobierno, creado por la LTAIGB, es una Autoridad Administrativa Independiente, con personalidad jurídica propia y plena capacidad de obrar, encargada de promover la transparencia de la actividad pública, velar por el cumplimiento de las obligaciones de publicidad activa, salvaguardar el ejercicio del derecho de acceso a la información pública y garantizar la observancia de las normas de buen gobierno (artículo 34 LTAIGB). De conformidad con lo dispuesto en su Estatuto, aprobado por Real Decreto 615/2024, de 2 de julio y en la propia LTAIGB, sus principales funciones son “garantizar el derecho de todas las personas a acceder a la información pública y controlar el cumplimiento de las obligaciones de transparencia impuestas a los organismos y las entidades públicas”(9).
No es un tema menor, en el contexto del presente estudio, su autonomía orgánica y funcional para el cumplimiento de los fines que le han sido asignados, lo que le permite actuar con plena independencia del Gobierno, de las Administraciones Públicas y de cualquier interés empresarial o comercial (Artículo 4 de su Estatuto). Fue el CBTG quien, el 27 de noviembre de 2018, recibió la reclamación de la Fundación Ciudadana CIVIO, ante la falta de respuesta del Ministerio, y a la que dio contestación mediante la Resolución 701/2018. En la misma, tal como adelantábamos en la introducción de este trabajo, instó al Ministerio a remitir a la Fundación reclamante -en el plazo de 10 días y con copia al propio Consejo- información relativa a la especificación técnica de dicha aplicación, el resultado de las pruebas realizadas para comprobar que la aplicación implementada cumple la especificación funcional y cualquier otro entregable que permitiera conocer el funcionamiento de la aplicación. Sin embargo, no posibilitó el acceso al código fuente.
Con posterioridad modificó su postura y reconoció el acceso al algoritmo como información pública en las Resoluciones 58/2021 de 20 de mayo(10) y 907/2023, de 30 de octubre(11) (ambas para el cálculo de pensiones) y 1071/2024, de 24 de septiembre -modelos de priorización de citas para bajas temporales-(12), por citar algunas.
Asimismo, en este análisis sobre el cambio de postura del Consejo, se debe poner en valor que el propio CTBG, mediante escrito de su nueva representación legal(13), no se opuso a la apelación presentada por la Fundación Ciudadana CIVIO a la sentencia del Juzgado Central de lo Contencioso-Administrativo por entender que la misma no se ajustaba a derecho; apartándose de esta manera como parte recurrida del recurso de casación. No cabe duda del cambio de posicionamiento del CTBG desde el año 2018 hasta la fecha.
3.2. Agencia Española de Protección de Datos (AEPD)
La autoridad pública independiente, encargada de velar por la privacidad y la protección de datos de la ciudadanía española(14), dictó una resolución en el expediente 202211982 como consecuencia de la denuncia presentada por la Fundación Ética Data Society por el incumplimiento de la normativa de protección de datos personales en el funcionamiento del “Sistema de información Bosco”(15). En la misma determinó que el Sistema Bosco se basaba en un tratamiento automatizado de datos teniendo en cuenta el “Diagrama cálculo Bono Social”:
El diagrama refleja que las referidas comprobaciones y cálculos se realizan de forma automática y sin intervención humana (Aspecto reconocido por el MTERD en el escrito de 19 de abril de 2023, elaborado en contestación al requerimiento de información del inspector). Finalmente, en el escrito del MTERD, elaborado en contestación al requerimiento de información del Inspector, se indica que el Sistema BOSCO realiza comprobaciones automatizadas y genera una respuesta de forma automática a la solicitud introducida en el sistema por la COR (comercializadora de referencia) correspondiente (2023).
Por todo ello, y al quedar acreditado que el Sistema BOSCO:
Realiza consultas y cálculos y, como consecuencia de ello, adopta decisiones automatizadas determinando el cumplimiento de las condiciones para ser beneficiario del bono social, emitiendo dicho Sistema un resultado (bandera verde o roja), al que acceden las COR y que trasladan sin efectuar modificaciones al interesado (consumidor que ha solicitado el bono social)”, determinó la comisión de tres infracciones. La primera, por incumplimiento del artículo 22 del RGPD (“Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”) al no constar la adopción de medidas relativas al derecho del interesado a obtener intervención humana por parte del responsable. La segunda, porque en virtud del artículo 35 del RGPD no realizó la evaluación de impacto de las operaciones de tratamiento en la protección de datos personales, ya que el tratamiento utilizaba nuevas tecnologías que por su naturaleza, alcance, contexto o fines sin duda entrañaba “un alto riesgo para los derechos y libertades de las personas físicas”, como finalmente ha resultado. Y, la tercera, respecto del artículo 13 del RGDP, en razón de que no se facilitó a los interesados la información pertinente sobre “la existencia de decisiones automatizadas, incluida la elaboración de perfiles, a que se refiere el artículo 22, apartados 1 y 4, y, al menos en tales casos, información significativa sobre la lógica aplicada, así como la importancia y las consecuencias previstas de dicho tratamiento para el interesado”, a fin de garantizar un tratamiento leal y transparente (2023).
Como consecuencia de estas comprobaciones, la propia Agencia ordenó al Ministerio en cuestión, la realización de las siguientes tres medidas:
- Informar a los interesados -personas físicas solicitantes del Bono Social y sus Eléctrico- que se está frente a una decisión automatizada.
- Efectuar una evaluación de impacto relativa a la protección de datos (EIPD) “sobre la actividad de tratamiento “Bono Social Eléctrico” en la que se preste especial atención al Sistema BOSCO” (resuelve segundo).
- Adoptar medidas adecuadas a al objeto de garantizar el derecho de obtener intervención humana por parte de los interesados.
Es necesario recordar que, en el año 2020, fue la propia Agencia, quien publicó una Guía sobre Tecnologías y protección de Datos en las Administraciones Públicas, en la que dedicaba un capítulo a la IA (2020, pp. 41-42). En la misma determinaba que frente a decisiones automatizadas se recomendaba una serie de medidas -por parte de los organismos públicos- para el análisis de posibles riesgos para los derechos y libertadas de las personas como la constitución de comités de ética y protección de datos, el establecimiento de controles periódicos de calidad del sistema, la realización de “auditorías para comprobar que los componentes utilizados en los sistemas de toma automática de decisiones funcionan según lo previsto”, incluir garantías que expliquen los resultados, implementar mecanismos para impugnar una decisión y, finalmente, la necesidad de supervisión humana a fin de verificar la decisión tomada.
A todas luces se aprecia que, antes de la decisión del Tribunal Supremo, eran evidentes para la AEPD las características propias del Sistema Bosco y los posibles riesgos que entrañaba la decisión automatizada basada en un algoritmo que debía reconocer derechos sociales. Máxime cuando a algunos ciudadanos no se les concedió la ayuda social aun siendo vulnerables, es decir cumpliendo los requisitos establecidos por la normativa.
4. El alcance de la situación de vulnerabilidad determinada por un algoritmo
De la lectura de los diferentes pronunciamientos judiciales a los que hemos hecho referencia en párrafos anteriores vinculados al Caso Bosco, salvo la última sentencia de la Sala de los Contencioso-Administrativo, sección tercera, del Tribunal Supremo, ninguna se detiene en considerar la importancia que verdaderamente posee el hecho de que la aplicación en cuestión reconozca derechos sociales. A estos efectos, la naturaleza del colectivo afectado y de quien les representa es puesta de relieve en la decisión del Alto Tribunal. La situación de vulnerabilidad viene determinada por la figura del consumidor vulnerable definida en el artículo 3 del Real Decreto 897/2017, de 6 de octubre. Por tanto, lo será la persona titular “de un punto de suministro de electricidad en su vivienda habitual que, siendo persona física, esté acogida al precio voluntario para el pequeño consumidor [PVPC]” y cumpla alguno de los siguientes requisitos (Artículo 3.2):
- Que su renta o, en caso de formar parte de una unidad de convivencia, la renta conjunta anual de la unidad de convivencia a la que pertenezca sea igual o inferior a 1,5 veces el Indicador Público de Renta de Efectos Múltiples [IPREM] de 14 pagas.
- Estar en posesión del título de familia numerosa.
- Que el propio consumidor y, en el caso de formar parte de una unidad de convivencia, todos los miembros de la misma que tengan ingresos, sean pensionistas del Sistema de la Seguridad Social por jubilación o incapacidad permanente, percibiendo la cuantía mínima vigente en cada momento para dichas clases de pensión, y no perciban otros ingresos cuya cuantía agregada anual supere los 500 euros.
- Que el consumidor o algún miembro de su unidad de convivencia sea beneficiario del Ingreso Mínimo Vital conforme a lo establecido en la Ley 19/2021, de 20 de diciembre, por la que se establece el ingreso mínimo vital.
En la Estrategia Nacional contra la pobreza Energética 2019-2024, elaborada por el Ministerio de Transición Ecológica [MITECO], se define por primera vez qué se entiende por pobreza energética, y no es otra que:
La situación en la que se encuentra un hogar en el que no pueden ser satisfechas las necesidades básicas de suministros de energía, como consecuencia de un nivel de ingresos insuficientes y que, en su caso, puede verse agravada por disponer de una vivienda ineficiente en energía (2018).
Por lo tanto, es importante considerar como consumidor vulnerable al “consumidor de energía eléctrica o de usos térmicos que se encuentra en situación de pobreza energética, pudiendo ser beneficiario de medidas de apoyo establecidas por las administraciones” (Estrategia Nacional contra la Pobreza energética, 2018, p. 8). No cabe duda de que el bono social es un mecanismo de lucha contra la pobreza energética y que se constituyó como una de esas medidas para paliar la precariedad energética.
A finales de julio 2018, según la Comisión Nacional de los Mercados y la Competencia (2018), solo 650.000 usuarios habían solicitado el nuevo bono social frente a los 2,5 millones de clientes que se beneficiaban del antiguo bono. Y por esta razón, en colaboración con la Fundación CIVIO puso a disposición de los usuarios una aplicación web para comprobar si les correspondía o no el derecho a ser beneficiario del nuevo bono social(16). Estos requisitos estaban absolutamente reglados y establecidos en la normativa y no había margen para la discrecionalidad. Posteriormente, la propia Fundación puso en evidencia cómo determinados errores - fallo en el tratamiento de viudas, familias numerosas- denegaban derechos de subsistencia a ciudadanos vulnerables (Belmonte, 2019) quienes, además de no disponer de uno de los elementos esenciales para el desarrollo de su vida, no tenían capacidad técnica ni jurídica para detectar que el error no era suyo -de su solicitud y del cumplimiento de los requisitos- sino de la misma aplicación informática.
A todas luces es sumamente interesante la importancia que el Tribunal Supremo le otorga al hecho de que la Fundación Ciudadana CIVIO, desempeñe funciones de vigilancia social asociadas a la guarda y custodia del Estado de Derecho y de la democracia al pretender “velar por el correcto funcionamiento de las instituciones públicas y promover información de los ciudadanos acerca del mismo y la gestión de los recursos públicos”, bajo el fundamento de derecho séptimo. 2. Y lo hace corroborando el cumplimiento de los presupuestos que el Tribunal Europeo de Derechos Humanos ha exigido para reconocer el derecho de acceso a la información pública(17). Ellos son: el propósito del acceso -contribuir a la labor de vigilancia de los poderes públicos-; la naturaleza de la información -proporcionar transparencia sobre asuntos públicos o sea relevante para la sociedad en su conjunto-; el rol del solicitante -que desempeñe funciones de vigilancia social asociadas a la guardia y custodia de la democracia-; y la existencia y disposición de la información pública. Nunca debe perderse de vista la perspectiva social de la IA, es decir el impacto a corto, medio y largo plazo de la aplicación de sus sistemas y medidas adoptadas para prevenir o mitigar los daños. Todo ello refuerza, sin ninguna duda el Estado Social y democrático de Derecho (Wisner Glusko, 2022, 543), en tanto y en cuanto las nuevas tecnologías se apliquen para mejorar la vida de los ciudadanos y sean facilitadores del bienestar social general.
Como bien resume, en este sentido, el Profesor Llano Alonso (2024, p.223) al expresar que no basta únicamente con exigir una IA centrada en el ser humano, justa, responsable e inclusiva en sus decisiones automatizadas cuyos sistemas algorítmicos funcionen de manera transparente, confiable y segura; como ciudadanos y como sociedad en su conjunto debemos no sólo no eludir sino reforzar nuestro compromiso ético-jurídico con la defensa de los valores superiores que inspiran la democracia, la constitución y el Estado de Derecho y con pleno respeto a los derechos fundamentales.
5. Algoritmo, código fuente y el acceso a la información pública. La consolidación de la transparencia algorítmica en los pronunciamientos judiciales
Siguiendo la línea investigadora y expositiva de este estudio a continuación se analizan y desarrollan de forma resumida y centrándose en los principales aspectos de los tres pronunciamientos judiciales sobre el Caso BOSCO. A saber, la Sentencia 143/2021 del Juzgado Central de lo Contencioso-Administrativo No. 8, la Sentencia (SAN 2013: 2024) de la Audiencia Nacional, Sección Séptima de la Sala de lo Contencioso-Administrativo y, finamente, la Sentencia 1119/2025 de la Sección Tercera Sala de lo Contencioso-Administrativo del Tribunal Supremo, recordando que la cuestión con interés casacional objetivo para la formación de jurisprudencia ha consistido en: “determinar la procedencia -o no- de facilitar el código fuente de la aplicación informática para determinar si se cumplen los requisitos para ser beneficiario del bono social”.
5.1. Bosco y su aplicación en la actuación administrativa
Se entiende por algoritmo el conjunto definido de reglas o procesos para la solución de un problema en un número finito de pasos (Benjamins y Salazar, 2020, p. 304). Según Mascitti (2020, p. 170-171) los algoritmos se presentan en un lenguaje determinado -lógico matemático- y su comportamiento está determinado inicialmente; describen paso a paso un procedimiento y la acción de cada paso está determinada a partir de la entrada de datos y los resultados de cada paso previo; y cualesquiera que sean los datos de entrada, la ejecución del algoritmo debe terminar después de un número finito de pasos.
Bosco es una aplicación telemática, puesta en funcionamiento por Resolución de 15 de noviembre de 2017 de la Secretaría de Estado de Energía. La aplicación informática “no es más que una herramienta que se integra en el seno de un procedimiento administrativo que seguirá produciendo un acto plenamente sujeto al ordenamiento jurídico, de modo que el control de la legalidad de los actos administrativos sigue estando garantizado, no por el uso de la aplicación informática sino por la adecuación del ordenamiento al acto producido (Fundamento Jurídico Tercero Sentencia Audiencia Nacional).
La Sentencia de instancia, bajo el fundamento jurídico tercero, refuerza la idea de que “la legalidad del acto no está justificada por la aplicación informática que instrumentalmente se utiliza en una fase del correspondiente procedimiento administrativo, sino por la normativa que regula la materia”. Sin embargo, para el Alto Tribunal, esta “herramienta informática-plataforma informática”, no es una “mera herramienta de consulta, sino que adopta una decisión sobre si la solicitud del bono social presentado cumple o no los requisitos normativamente previstos para que el solicitante sea considerado consumidor vulnerable” (pp. 52 y 53).
Es decir que posibilita la adopción de una decisión individual automatizada, emitiendo un resultado -bandera verde o bandera roja- determinando la procedencia de otorgar o no el referido bono social, respectivamente, extremo confirmado por la AEPD que así lo califica. Teniendo en cuenta todo lo anterior, el algoritmo, en ningún caso, debe ser una “caja negra”, máxime en el caso en estudio donde la decisión automatizada reconoce un derecho social a denominados colectivos vulnerables. Razón por la cual debe estar suficientemente motivada. El propio Tribunal Supremo argumenta que las exigencias de motivación de los actos administrativos -motivación parametrizada- son predicables también en las actuaciones administrativas automatizadas y “reside en el diseño de los parámetros que determinan el código fuente”, en aplicación del artículo 35 de la LPAC (Fundamento Jurídico Séptimo STS1119/2025).
El requisito de la motivación consiste, entonces, en demostrar fundamentalmente dos cuestiones esenciales: la primera es que no se ha actuado arbitrariamente; y la segunda, la correcta aplicación y cumplimiento de los dispuesto en el ordenamiento jurídico. El acceso al código fuente posibilitaría la comprobación de la conformidad del sistema Bosco con las previsiones normativas aplicables y de ahí la trascendencia del pronunciamiento objeto de análisis.
5.2. El código fuente y la ponderación de la propiedad intelectual
Uno de los temas más controvertidos de la sentencia del Tribunal Supremo ha sido cuestionar la prevalencia del interés público que encierra el algoritmo de esta aplicación informática por sobre el derecho de propiedad intelectual que sobre el mismo recae, tal como lo afirmaron, en su día, el Juzgado Central y la propia Audiencia Nacional. La propiedad intelectual de un código fuente es un límite oponible al ejercicio del derecho constitucional y subjetivo de acceso a la información, conforme al artículo 14.1.j de la LTAIBG, pero en modo alguno podría serlo de forma absoluta. En ese sentido la protección de la propiedad intelectual decae frente al interés público cuando se vean involucrados derechos sociales.
Ya sostenía Valero Torrijos en el año 2019, que la propiedad industrial e intelectual podían limitar el acceso a la información algorítmica. No obstante, afirmaba que la decisión que deniegue dicho acceso debía estar motivada, ser proporcionada y ponderando las razones que hacen prevalecer unos intereses sobre otros en cada caso concreto; y citando al Profesor Tomás de la Quadra- Salcedo puntualizaba que en dicho razonamiento resulta esencial atender a los problemas y dificultades específicos que plantea la IA, especialmente cuando se trate de derechos fundamentales. En el caso que nos ocupa, la aplicación informática ha sido desarrollada por el propio Ministerio y facilitada a las empresas comercializadoras. El Tribunal Supremo admite la aplicabilidad del derecho de autor “al programa informático litigioso (Fundamento Jurídico Séptimo. 2, p.53) y, a diferencia de los pronunciamientos del Juzgado Central y de la Audiencia Nacional, entiende que debe prevalecer el interés público en acceder al código fuente para conocer cómo se toma la decisión de conceder o rechazar el bono social y comprobar si existen errores en la misma, máxime cuando el titular de la propiedad intelectual es una Administración Pública y el software sirve a la consecución de fines públicos.
El Tribunal Supremo no obvia la protección jurídica que proporciona la propiedad intelectual y las facultades patrimoniales que integran el derecho de autor y que le otorgan un monopolio de disposición y explotación temporal a fin de recuperar los costes incurridos e incentive su continuación como “elemento fundamental del progreso cultural y técnico”. Sin embargo, esas finalidades se ven “atenuadas” cuando el programa de ordenador es creado por la propia Administración Pública, que es la titular de la propiedad intelectual, por mandato de la normativa del sector eléctrico para el ejercicio de competencias públicas y dirigida a servir a intereses públicos, fuera de la lógica competitiva del mercado (Fundamento Jurídico Séptimo 2, p.60).
Por esta razón la Sentencia del Alto Tribunal da prevalencia al interés en el acceso al código fuente de la aplicación telemática BOSCO sobre el derecho a la propiedad intelectual de la Administración del Estado, estableciendo la prohibición de difusión o la utilización del código fuente para otras finalidades sin la autorización expresa de la Administración. Estamos así frente a un uso limitado de la información recibida, inclusive ante un deber de reserva o confidencialidad de la información consultada. Una pregunta sobrevuela en esta reflexión y es en relación a qué sucedería si los sistemas algorítmicos fuesen desarrollados por entidades privadas contratadas por la Administración. La Doctrina reciente afirma que, esto no impediría por sí mismo el acceso al algoritmo o a su código fuente (Álvarez García y González-Juliana Muñoz, 2025), algo que podría justificarse atendiendo a la finalidad última del algoritmo.
5.3. Transparencia, acceso a la información y seguridad
Sostiene la doctrina que el acceso a la información algorítmica es la posibilidad que tiene cualquier persona de solicitar, acceder y conocer la información relativa al conjunto de operaciones y/o instrucciones que permiten al sistema informático arrojar un resultado (Vestri, 2023, p.39). Precisamente esto es lo que desde el año 2018 ha estado solicitando la Fundación Ciudadana CIVIO, lo cual no ha sido posible hasta siete años después. La Sentencia del Tribunal Supremo vincula el derecho constitucional de los ciudadanos al acceso a la información pública (Artículo 105b de la Constitución Española; art. 42 de la Carta de los Derechos Fundamentales de la Unión Europea, artículo 13 de la LTAIBG), que trasciende a su condición de principio objetivo rector de la actuación de las Administraciones Públicas, con las exigencias de democracia y transparencia, e inseparablemente unido al Estado democrático y de Derecho (Fundamento Jurídico Noveno 1). Además, este derecho -como derecho subjetivo- adquiere una especial importancia cuando se utilicen sistemas informáticos de toma de decisiones automatizadas que tengan por objeto reconocer derechos sociales, ya que en estos casos resulta esencial brindar a los ciudadanos la información necesaria para conocer y comprender el funcionamiento de esta aplicación informática (Fundamento Jurídico Noveno 2.).
El reconocimiento del derecho de acceso al código fuente de la aplicación informática CIVIO -algo a los que se negaron sistemáticamente el Juzgado de lo Central y la Audiencia Nacional- vincula ese principio de transparencia algorítmica en el sector público, con la rendición de cuentas y con la comprobación del correcto funcionamiento del programa informático, lo cual sirve “a la efectividad de relevantes bienes jurídicos como los principios de legalidad e igualdad y otros derechos constitucionales, la participación en la toma de decisiones, el fortalecimiento de la democracia y la generación de confianza en las instituciones” (Fundamento Jurídico Octavo).
En definitiva, como afirma Vestri (2021, p. 372), un sistema es transparente cuando es conocible y descifrable. Conocer la lógica de procesamiento del código permitirá verificar también la legalidad de la actuación administrativa. Lo contrario a la transparencia es la opacidad, y evitar la opacidad del algoritmo o del código fuente es, según el Tribunal Supremo, consustancial al Estado democrático de Derecho -sujeto al derecho de transparencia- que viene a reforzar la confianza de los ciudadanos en el correcto funcionamiento de las Administraciones Públicas.
La opacidad del programa utilizado en la toma de las decisiones al momento de conceder el bono social no sólo dificulta la detección de posibles errores en la operativa del programa -que de hecho sucedieron y de ahí la reclamación de la Fundación CIVIO- sino que también obstaculiza cualquier tipo de reclamación en materia de consumo. De esta manera, uno de los mayores logros de la propia sentencia del Supremo es configurar el principio de transparencia algorítmica como un derecho de los administrados. Y esto es así porque se debe proporcionar a los ciudadanos la información necesaria para conocer y comprender su funcionamiento. Y en ocasiones ello significa acceder al código fuente para comprobar que los sistemas algorítmicos se sujetan a los parámetros y requisitos normativos.
Finalmente, y en lo que respecta a la seguridad informática, el Juzgado Central, basándose en los Informes del Centro Criptológico Nacional, concluyó que revelar el código fuente aumentaba de una manera objetiva la “severidad de las vulnerabilidades de cualquier aplicación informática” (Fundamento Jurídico Cuarto. Sentencia Juzgado de lo Central 143/2021), llegando a incrementar el riesgo de que la explotación de las vulnerabilidades pueda afectar a la seguridad nacional, la seguridad pública o la seguridad de los administrados.
Además de todo ello, y basándose en el Informe del Subdirector General de Tecnologías de la Información y las Comunicaciones del Ministerio de Industria, Comercio y Turismo, la Audiencia Nacional puso de relieve otras cuestiones vinculadas a la seguridad informática como la dificultad de detectar ataques por parte de los encargados de la administración técnica si se revelaba el código fuente (Fundamento Jurídico Tercero).
Sin embargo, el Alto Tribunal considera, por el contrario, que “la sola invocación de que la revelación del código fuente aumenta de una manera objetiva la severidad de las vulnerabilidades de cualquier aplicación informática es, en sí misma, insuficiente para excluir el acceso al mismo”. De hecho, la transparencia sobre el programa podría contribuir a “la mejora del código y fortalecimiento de su seguridad puesto que, por un lado, incentiva a la Administración a extremar las cautelas de seguridad en el propio diseño y control del programa informático y, por el otro, su escrutinio por actores diversos e independientes permite aflorar vulnerabilidades inicialmente advertidas y posibilitar su corrección temprana” (Fundamento Jurídico Octavo. 2 STS 1119/2025).
Asimismo, y en cuanto a los datos personales, el Tribunal Supremo en la sentencia 1119/2025 señala que el código al cual se solicitó el acceso no contiene o no incluye este tipo de datos pues quedan completamente al margen del acceso a la información pública, todo ello evidentemente “sin perjuicio de que en la evaluación de los riesgos para la seguridad pública se pueda contemplar un eventual riesgo de acceso fraudulento a datos de esa naturaleza” (Fundamento Jurídico Octavo). En esa dirección, también afirma que esta transparencia puede mejorar el código y fortalecer su seguridad, tanto desde el diseño como en el control del programa informático.
En definitiva, todo el iter procesal revela una clara evolución desde una visión restrictiva de la administración digital (Juzgado Central y Audiencia Nacional) hacia una concepción más garantista de la transparencia algorítmica del Tribunal Supremo, basada también en el Derecho a una buena administración, consagrado en al artículo 41 de la Carta de los Derechos Fundamentales de la Unión Europea, conforme a los principios de democracia y del Estado de Derecho.
6. Conclusiones
Analizados todos los extremos previstos en el objeto del presente estudio, es posible concluir lo siguiente:
a) Primero: La trascendencia de la Sentencia del Tribunal Supremo de 11 de septiembre de 2025 al declarar que el código fuente de un algoritmo público constituye información pública, conforme lo dispone la LTAIBG, viene a reforzar el fundamento de que la transparencia algorítmica es un principio estructural y necesario en un Estado Social y Democrático de Derecho, basado en la garantía a los ciudadanos de conocer cómo adoptan la Administraciones Públicas las decisiones que les afectan. Si bien es cierto que se reconoce este derecho de acceso al código fuente a la Fundación Ciudadana CIVIO, en virtud de su función de vigilancia social asociadas a la guarda y custodia del Estado de Derecho y de la democracia -que vela por el correcto funcionamiento de las instituciones públicas y promueve el acceso a la información de los ciudadanos acerca del mismo y la gestión de los recursos públicos- con este pronunciamiento se inicia una nueva senda en la transparencia algorítmica que los poderes públicos y los ciudadanos seguirán transitando y que tiene un amplio margen de mejora; precisamente porque habrá que determinar caso a caso si procede o no el acceso al código fuente.
b) Segundo: Tal como ha quedado comprobado a partir del análisis de los diferentes pronunciamientos, frente a la propiedad intelectual del código fuente o a las razones de seguridad informática esgrimidas por el Juzgado Central y la Audiencia Nacional, es ajustado a derecho la ponderación de otras razones aún más imperiosas para transparentar las decisiones automatizadas, máxime tratándose de algoritmos públicos.
No se puede estar más de acuerdo con la postura de la doctrina mayoritaria y la jurisprudencia en torno a la idea de que, bajo ningún concepto, la utilización de aplicaciones informáticas o cualquier tecnología disruptiva puede justificar la existencia de las llamadas “cajas negras”, en virtud de resultar incompatible con los principios de legalidad, transparencia, explicabilidad, motivación, trazabilidad y rendición de cuentas, reconocidos en el RIA y en la normativa analizada a lo largo de este estudio.
c) Tercero: Las Administraciones Públicas tienen en sus manos la obligación de diseñar e implementar mecanismos suficientemente garantistas y efectivos para la supervisión y revisión humana en los procesos de adopción de decisiones automatizadas, tal como lo corroboran la normativa, la doctrina y la jurisprudencia. Como también lo tienen respecto de la realización de auditorías técnicas, informáticas y jurídicas periódicas -tanto internas como externas- basadas en criterios evaluables que permitan controlar y supervisar los sistemas inteligentes, así como de evaluaciones de impacto y controles de calidad periódicos, con objeto de prevenir sesgos y discriminaciones.
d) Cuarto: En el ámbito administrativo cabe destacar que, mientras el Ministerio siempre ha mantenido una postura intransigente en relación a no permitir el acceso al código fuente, el CTBG ha evolucionado desde una postura intermedia -estimando la solicitud de acceso a la documentación técnica (funcional), rechazando los argumentos del Ministerio respecto de los límites de seguridad nacional y defensa aunque denegando el acceso al código fuente- hacia un posicionamiento aperturista fundamentado en la necesidad de acceso a algoritmos públicos en aplicación de la LTAIBG. Esto refuerza el andamiaje garantista que consagra el principio de transparencia en la actividad de las Administraciones Públicas.
e) Quinto: No es menor la importancia que tiene la resolución de la AEPD en el procedimiento sancionador que reconoce el incumplimiento del RGPD, por parte de la aplicación informática BOSCO, en lo que respecta al deber de información de que se está frente a una decisión automatizada, a la necesidad de supervisión humana y de una evaluación de impacto relativa a la protección de datos personales. Una vez más la AEPD ha abierto el camino o ha arrojado luz sobre una situación que estaba pendiente de decisión judicial; situación que finalmente ha sido objeto del principal pronunciamiento que se ha analizado y que, indirectamente, corrobora la falta de transparencia, supervisión e información que ya advertía la autoridad independiente en materia de protección de datos.
f) Sexto: La ciudadanía tiene derecho a comprender cómo decide un algoritmo público, no cabe aquí la opacidad del programa en la toma de una decisión administrativa. En ese sentido, la relevancia pública de la información es máxima cuando afecta a la protección de los sectores más frágiles de la sociedad. Y por ello deviene fundamental postular la necesidad de contar con mecanismos más garantistas cuando un algoritmo se aplique con objeto de reconocer derechos sociales, teniendo en cuenta los posibles riesgos en que pudiera incurrir y las consecuencias de su ineficiencia e ineficacia en términos de servicio público. Atendiendo también al efecto multiplicador que los eventuales errores en la operativa del programa podrían tener dada su naturaleza automática.
En definitiva, podemos concluir que, en la evaluación y ponderación de los intereses existentes por parte del Tribunal Supremo, la prevalencia del acceso al código fuente de la aplicación informática BOSCO sobre el derecho a la propiedad intelectual de la Administración del Estado no puede imponerse como una obligación con carácter general. Las circunstancias que rodean o caracterizan el caso en estudio -descritas a lo largo de este trabajo- son las que justifican y dan fundamento a dicho acceso, cuya finalidad no es otra que comprobar que el sistema algorítmico cumple las previsiones normativas.
La concreción real y efectiva de una IA antropocéntrica y antropogénica debe estar en el centro de la transformación digital de las Administraciones Públicas, especialmente cuando se trate de decisiones automatizadas -aunque no únicamente-, cuando verse sobre derechos sociales esenciales como es el acceso a la energía; y máxime cuando estamos frente un derecho constitucional ejercitable como es el derecho al acceso a la información pública, derivado de las exigencias de la democracia y la transparencia y, como ha puntualizado el Tribunal Supremo, inseparablemente unido al Estado democrático y de Derecho.
Referencias bibliográficas
Agencia Española de Protección de Datos (2020). Tecnologías y protección de Datos en las AA.PP. https://www.aepd.es/guias/guia-tecnologias-admin-digital.pdf
Alba Muñoz, Ignacio (2025). Administración electrónica, Reglamento de IA y protección de datos. Reflexiones desde el entusiasmo cauteloso. Revista Compliance en el Sector Público.
Álvarez García, V. y González-Juliana Muñoz (2025). The right of free and unrestricted access to algorithms used by public authorities. Revista General de Derecho Administrativo, IUSTEL, (68). https://laadministracionaldia.inap.es/noticia.asp?id=1516625
Bauzá Martorell, F. (2024). Los derechos y garantías de los particulares ante el uso de la inteligencia artificial por la Administración Pública. En Gabriele Vestri (Dir.) Inteligencia artificial en el sector público. Retos pendientes (pp.27-46). El Consultor de los Ayuntamientos. La Ley.
Belmonte, E. (2019, 16 de mayo). La aplicación del bono social del Gobierno niega la ayuda a personas que tienen derecho a ella. CIVIO https://civio.es/transparencia/2019/05/16/la-aplicacion-del-bono-social-del-gobierno-niega-la-ayuda-a-personas-que-tienen-derecho-a-ella/
Benjamins, R. y Salazar, I. (2020). El mito del algoritmo. Cuentos y cuentas de la inteligencia artificial. Anaya.
Carta de los Derechos Fundamentales de la Unión Europea. 2000/C 364/01.18 de diciembre de 2000. https://www.europarl.europa.eu/charter/pdf/text_es.pdf
Cerrillo i Martínez, A. (2024a). El impacto del Reglamento de Inteligencia Artificial en las Administraciones públicas. Revista Jurídica de Les Illes Balears, 26, 73-105. https://doi.org/10.36151/RJIB.2024.26.03
Cerrillo i Martínez, A. (2024b). Retos y oportunidades de la regulación española de la inteligencia artificial. En Agustí Cerrillo i Martínez, Francesca Di Lascio, Isaac Martín Delgado y Clara I. Velasco Rico (Dirs.). Inteligencia Artificial y Administraciones Públicas: una triple visión en clave comparada (pp.101-117) IUSTEL. https://www.iustel.com/editorial/90024094-IA-y-Administraciones-P%C3%BAblicas.pdf
Comisión Europea (2020). Libro Blanco sobre inteligencia artificial -un enfoque europeo orientado a la excelencia y a la confianza. https://commission.europa.eu/document/download/d2ec4039-c5be-423a-81ef b9e44e79825b_es
Comisión Europea (2025a). Annex 27 to the Communication from the Commission to the European Parliament, the Council and the European Economic and Social Committee and the Committee of the Regions. State of the Digital 2025: Keep building the EU`s sovereignty and digital future. https://digital-strategy.ec.europa.eu/en/library/state-digital-decade-2025-report
Comisión Europea (2025b). Generative AI Outlook Report. Exploring the Intersection of Technology, Society, and Policy.
Comisión Europea (2025c). SPAIN 2025 Digital Public Administration Factsheet. Supporting document. Main developments is digital public administrations and interoperability. https://interoperable-europe.ec.europa.eu/sites/default/files/custom-page/attachment/2025-11/iopeu-monitoring_2025-supporting-document_spain_vfinal.pdf
Comisión Nacional de los mercados y la Competencia (10 de septiembre de 2018). Solo 650.000 clientes están apuntados al nuevo bono social eléctrico. Comprueba aquí si puedes solicitarlo. https://blog.cnmc.es/2018/09/10/solo-650-000-clientes-estan-apuntados-al-nuevo-bono-social-electrico-comprueba-aqui-si-puedes-solicitarlo/
Constitución Española [Const.]. 29 de diciembre de 1978.https://www.boe.es/eli/es/c/1978/12/27/(1)/con
Cotino Hueso, L. (17 de mayo de 2024). Caso Bosco, a la tercera tampoco va la vencida. Mal camino en el acceso los algoritmos públicos. Diario La Ley, No 84, Sección Ciberderecho, La Ley. https://ir.uv.es/bLgBg0x
Decreto-ley 2/2023, de 8 de marzo, de medidas urgentes de impulso a la IA en Extremadura. BOE, núm. 84, de 8 de abril de 2023. https://www.boe.es/eli/es-ex/dl/2023/03/08/2
Gamero Casado, E. (2023). Sistemas automatizados de toma de decisiones en el Derecho Administrativo Español. Revista General de Derecho Administrativo. IUSTEL, 63. https://laadministracionaldia.inap.es/noticia.asp?id=1514110
Gobierno de España. (julio de 2021). Carta de Derechos Digitales. Plan de Recuperación Transformación y resiliencia. https://www.lamoncloa.gob.es/presidente/actividades/Documents/2021/140721-Carta_Derechos_Digitales_RedEs.pdf
Gutiérrez David, M.E. (2021). El derecho de acceso al código fuente y a los algoritmos públicos. El “Caso Civio”. Esperando a Godot. En Joaquín Meseguer Yebra (Coord.) Once relatos sobre cómo el acceso a la información impacta sobre nuestras vidas (pp. 81-98). Federación Española de Municipios y Provincias. https://redtransparenciayparticipacion.es/wp-content/uploads/2021/10/once-relatos-sobre-como-el-acceso-a-la-informacion.pdf
Huergo Lora, A. (10 de mayo de 2024). Por qué las sentencias sobre el “algoritmo” del bono social eléctrico. Almacén de Derecho. https://almacendederecho.org/por-que-aciertan-las-sentencias-sobre-el-algoritmo-del-bono-social-electrico
Huergo Lora, A. (22 de septiembre de 2025). “Juicio final” sobre “Bosco”: la sentencia del Tribunal Supremo. Almacén de Derecho. https://almacendederecho.org/juicio-final-sobre-bosco-la-sentencia-del-tribunal-supremo
Instituto Nacional de Administración Públicas (27 de noviembre de 2025). La Comunidad de Madrid inicia la tramitación de su primera Ley de Administración Digital e Inteligencia Artificial para un uso ético y seguro de esta tecnología. https://laadministracionaldia.inap.es/noticia.asp?id=1518941
Joint Research Centre. (2025). Generative AI Outlook Report - Exploring the Intersection of Technology, Society and Policy. En E. Navajas Cawood, M. Vespe, A. Kotsev and R. van Bavel (eds.). Publications Office of the European Union. https://data.europa.eu/doi/10.2760/1109679.
Junta de Andalucía (10/10/2024) Borrador del Anteproyecto de Ley Andalucía Digital. https://www.juntadeandalucia.es/servicios/normativa/normas-elaboracion/detalle/537160.html
Llano Alonso, F. (2024). Homo ex Machina. Ética de la inteligencia artificial y Derecho Digital ante el horizonte de la singularidad tecnológica. Tirant lo blanch.
Ley 1/2022. Ley de Transparencia y Buen Gobierno de la Comunitat Valenciana. 13 de abril de 2022.
Ley 11/2007. Ley de acceso electrónico de los ciudadanos a los Servicios Públicos. 22 de junio de 2007.
Ley 15/2022. Ley integral para la igualdad de trato y la no discriminación. 12 de julio de 2022.
Ley 19/2013. Ley de transparencia, acceso a la información pública y buen gobierno. 9 de diciembre de 2013.
Ley 2/2025. Ley para el desarrollo e impulso de la inteligencia artificial en Galicia. 2 de abril de 2025.
Ley 39/2015. Ley del Procedimiento Administrativo Común de las Administraciones Públicas. 1 de octubre de 2015.
Ley 40/2015. Ley de Régimen Jurídico del Sector Público. 1 de octubre de 2015.
Ley Orgánica 3/2018. Ley de Protección de Datos Personales y garantía de los derechos digitales. 5 de diciembre de 2018.
Martín Delgado, I. (2009). Naturaleza, concepto y régimen jurídico de la actuación administrativa automatizada. Revista de Administración Pública, 180, 353-386. https://www.cepc.gob.es/sites/default/files/2021-12/27614isaacmartindelgadorap180.pdf
Mascitti, M. (2020). La función conjetural del Derecho reforzada por los algoritmos en la era del big data. Ius et Sciencia, 6(2), 162-185.https://revistascientificas.us.es/index.php/ies/article/view/13358/12776
Ministerio para la Transición Ecológica (2018). Estrategia Nacional contra la pobreza energética (2019-2024).
Ponce Solé, J. (2019). Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico, en Revista General de Derecho Administrativo, 50. https://laadministracionaldia.inap.es/noticia.asp?id=1509505
Ponce Solé, J. (2024). La transparencia algorítmica y los entes locales: lecciones de las sentencias recaídas en el Caso Bosco, con especial atención a la de la Audiencia Nacional de 30 de abril de 2024. Consultor de los Ayuntamientos y de los juzgados: Revista técnica especializada en administración local y justicia municipal, (3).
Ponce Solé, J. (2025). La sentencia “Bosco”: un punto -importante- y seguido. Almacén de Derecho. https://almacendederecho.org/la-sentencia-bosco-un-punto-importante-y-seguido
Real Decreto 897/2017. Real Decreto por el que se regula la figura del consumidor vulnerable, el bono social y otras medidas de protección para los consumidores domésticos de energía eléctrica. 6 de octubre de 2017.
Real Decreto 203/2021. Real Decreto por el que se aprueba el Reglamento de actuación y funcionamiento del sector público por medios electrónicos. 30 de marzo de 2021.
Real Decreto 615/2024. Ley por el que se aprueba el Estatuto del Consejo de Transparencia y Buen Gobierno. 2 de julio de 2024.
Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento General de protección de Datos). 27 de abril de 2016.
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo. Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) nº 300/2008, (UE) nº 167/2013, (UE) nº 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial). 13 de junio de 2024.
Resolución de la Agencia Española de Protección de Datos (2023, 6 de noviembre) Procedimiento sancionador (PS/00324-2023). https://www.aepd.es/documento/ps-00324-2023.pdf
Resolución del Consejo de Transparencia y Buen Gobierno 701/2018 (2019, 18 de febrero).
Resolución del Consejo de Transparencia y Buen Gobierno 371/2024 (2024, 24 de septiembre).
Roca, C. (2025). La Administración digital y el servicio al ciudadano y a las empresas. Información Comercial Española (ICE), Revista de Economía, (938), 145-159. https://doi.org/10.32796/ice.2025.938.7893
Sentencia 18030/11 (2016, 8 de noviembre). Tribunal Europeo de Derechos Humanos. Asunto Maygar Helsinki Bizottság c. Hungría. https://hudoc.echr.coe.int/eng#{%22itemid%22:[%22001-167828%22]}
Sentencia 143/2021 (2021, 30 de diciembre). Juzgado Central de lo Contencioso-Administrativo Nº8. https://www.iberley.es/jurisprudencia/sentencia-administrativo-n-143-2021-an-juzgados-centrales-contencioso-sec-8-rec-18-2019-30-12-2021-48415795
Sentencia (2024, 29 de abril) Audiencia Nacional, Sección Séptima, Sala de lo Contencioso-Administrativo.https://www.iberley.es/jurisprudencia/sentencia-contencioso-administrativo-30-4-24-48582680
Sentencia 1119/2025 (2025, 11 de septiembre). Tribunal Supremo, Tercera Sala de lo Contencioso-Administrativo. https://www.poderjudicial.es/search/openDocument/27d0d44d33b0dd21a0a8778d
75e36f0d
Simón Castellano, P. (2023). La evaluación de impacto algorítmico en los derechos fundamentales. Aranzadi.
Valero Torrijos, J. (2014). De la digitalización a la innovación tecnológica: valoración jurídica del proceso de modernización de las administraciones públicas españolas en la última década (2004-2014). IDP. Revista de Internet, Derecho y Política, (19), pp. 117-29, https://doi.org/10.7238/idp.v0i19.2466
Valero Torrijos, J. (2019). Las garantías jurídicas de la inteligencia artificial en la actividad administrativa desde la perspectiva de la buena administración. Revista Catalana de Dret Públic, (58), 82-96. https://doi.org/10.2436/rcdp.i58.2019.3307
Valvidares Suárez (2025). El derecho a la igualdad y la no discriminación en el marco del Estado de Bienestar digital. En Alazne Irigoyen Domínguez, Juana Goizueta Vértiz y Maggy Barrerè Unzueta (Dirs). La Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación Aportaciones multidisciplinares y teórico-críticas (pp. 281-306). Dykinson.
https://retina-der.uniovi.es/wp-content/uploads/2025/09/Maria-Valvidares-Suarez-1.pdf
Vestri, G. (2021). La inteligencia artificial ante el desafío de la transparencia algorítmica. Una aproximación desde la perspectiva jurídico-administrativa. Revista Aragonesa de Administración Pública, núm. 56, pp. 368-398. https://doi.org/10.71296/raap.62
Vestri, G. (2022). El acceso a la información algorítmica a partir del Caso Bono Social vs. Fundación Ciudadana CIVIO. Revista General de Derecho Administrativo, 61, IUSTEL.
Vestri, G. (2023). Acceso a la información algorítmica. En Gabriele Vestri, Diccionario de términos para comprender la transformación digital (pp.39-41). Aranzadi.
Wisner Glusko, D.C. (2022). Breves reflexiones sobre la importancia del Estado de Derecho en el desarrollo del marco legal sobre los sistemas de inteligencia artificial en la Unión Europea. En Fernando H. Llano Alonso (Dir.) Inteligencia artificial y Filosofía del Derecho (pp. 529-548). Laborum Ediciones.https://doi.org/10.5281/zenodo.10562552
Wisner Glusko, D.C. (2024). Transformación digital de las Administraciones Públicas en España. De la Administración electrónica a la Administración proactiva. En Diana Carolina Wisner Glusko y Juan Manuel Ruz Lobo (Coords.), Estudio Multidisciplinar del Derecho Tecnológico y Digital. (pp. 23-66). Tecnos. https://doi.org/10.5281/zenodo.13142121 
(*) Nota del Equipo Editorial: Este artículo fue recibido el 30 de noviembre de 2025 y su publicación fue aprobada el 10 de enero de 2025.
(**) Este artículo es resultado de investigación de los siguientes proyectos: Proyecto “Eficiencia tecnológica, dignidad y derechos humanos ¿Quo vadis, humanidad, en la era de la IA?” Entidad y Convocatoria: Coordinación de Universidades CEU (Fundación Universitaria San Pablo CEU) 2024-2025 y del Proyecto del Grupo de Investigación IAJ “IA, humanidad, Derecho y Justicia: tópicos y realidades para un mañana que ya ha llegado. G24/1-10, Universidad CEU Fernando III, CEU Universities.
(***) Doctora en Derecho por la Universidad Carlos III de Madrid (Madrid, España). Magister en Finanzas Públicas Provinciales y Municipales por la Universidad Nacional de La Plata (La Plata, Argentina). Profesora de Derecho Administrativo y Derecho de las Nuevas Tecnologías e Investigadora acreditada de la Universidad CEU Fernando III, CEU Universities. Vicedecana de la Facultad de Ciencias Empresariales y Jurídicas y Coordinadora del Máster Universitario en Derecho Tecnológico y Digital en dicha universidad. Miembro del Observatorio del Sector Público e Inteligencia Artificial (OSPIA). ORCID: https://orcid.org/0000-0003-2723-6112. Correo electrónico: cwisner@ceu.es.
(1) La transformación digital de las Administraciones Públicas es mucho más que el paso de lo analógico a lo digital, de que un servicio se reduzca a minimizar o eliminar el uso del papel o la implantación de una determinada tecnología; es un proceso crucial que tiene por objetivo, entre otros, mejorar la eficiencia y modernizar los servicios ofrecidos a los ciudadanos, así como facilitar su acceso (Wisner Glusko, 2024, p. 24). Lo que supone un cambio de perspectiva, como propuso en su momento el Profesor Julián Valero Torrijos (2014, p.119), en la regulación general sobre régimen jurídico de las Administraciones Públicas y procedimiento administrativo común.
(2) Para mayor profundización, véase la sexta sección “Deep Dives” del reporte de Joint Research Centre (2025, pp. 121-122).
(3) Así lo sostienen los siguientes documentos de la Comisión Europea “Annex 27 to the Communication from the Commission to the European Parliament, the Council and the European Economic and Social Committee and the Committee of the Regions. State of the Digital 2025: Keep building the EU`s sovereignty and digital future” (2025a, p. 2) y “Generative AI Outlook Report. Exploring the Intersection of Technology, Society, and Policy” (2025b, p. 4 y siguientes).
(4) En la Ley 11/2007, de 22 de junio, de acceso electrónico de los ciudadanos a los Servicios Públicos, se profundiza el artículo 39 y Anexo, como las definiciones “(a) Actuación administrativa automatizada: Actuación administrativa producida por un sistema de información adecuadamente programado sin necesidad de intervención de una persona física en cada caso singular. Incluye la producción de actos de trámite o resolutorios de procedimientos, así como de meros actos de comunicación”.
(5) En igual sentido se ha pronunciado el Real Decreto 203/2021, de 30 de marzo, por el que se aprueba el Reglamento de actuación y funcionamiento del sector público por medios electrónicos, en su artículo 13.
(6) Artículo 16. Información de relevancia jurídica. “1. Las administraciones públicas del artículo 3.2 deben publicar:(l) La relación de sistemas de inteligencia artificial de alto riesgo de acuerdo con el reglamento de inteligencia artificial que desarrollen o implanten. Asimismo, se incluirá la relación de sistemas automatizados y sistemas de inteligencia artificial de uso general cuyo empleo impacte de manera significativa en los procedimientos administrativos o la prestación de los servicios públicos. Sin perjuicio de su desarrollo reglamentario, y de acuerdo con los principios de transparencia y explicabilidad, la información a facilitar incluirá la descripción, en un lenguaje claro y sencillo, del diseño, funcionamiento y lógica del sistema, su finalidad, su incidencia en las decisiones públicas, el nivel de riesgo que implica, la importancia y consecuencias previstas para la ciudadanía, el punto de contacto al que poder dirigirse, y en su caso, el órgano u órganos competentes a efectos de impugnación. Asimismo, se informará de los criterios generales de impacto y riesgo adoptados para delimitar los sistemas a los que se debe dar publicidad”.
(7) Artículo 3. Principios generales.“1. La Administración pública autonómica fomentará el uso de una inteligencia artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea, de acuerdo con lo previsto en el artículo 23.4 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación. 2.La Administración pública autonómica promoverá la calidad en el uso de inteligencia artificial, favoreciendo, entre otras medidas, el empleo de sistemas de IA que incorporen sellos o certificados de calidad y acrediten su conformidad a las exigencias de seguridad exigidas por la Unión Europea. Además, velará por el cumplimiento de estos estándares de calidad certificada cuando sean obligatorios en sistemas de alto riesgo”.
(8) Para mayor detalle, véase “La Comunidad de Madrid inicia la tramitación de su primera Ley de Administración Digital e Inteligencia Artificial para un uso ético y seguro de esta tecnología; Junta de Andalucía (10/10/2024) Borrador del Anteproyecto de Ley Andalucía Digital” del Instituto Nacional de Administración Públicas (2025).
(9) Para una mayor ampliación sobre cómo se encuentra actualmente conformado el Consejo de Transparencia y Buen Gobierno, se puede acceder a su sitio oficial en el siguiente enlace https://consejodetransparencia.es/consejo-transparencia/que-es.
(10) Por ejemplo, el resuelve segundo de esta Resolución indica “Sobre el algoritmo con el que el programa de cálculo de la pensión realiza los porcentajes de cálculo correspondientes a los años completos de servicio efectivo (C1, C2; C3), indicando como realiza la conversión de días a años, y como los trata cuando hay días de cotización superpuestos”.
(11) El resuelve segundo de la resolución 907/2023 señala: “Los siguientes documentos de la aplicación o sistema PROGES PRESS-CARPA-ALFA, que se utiliza para el cálculo de la pensión:
Funcionalidades y especificaciones técnicas.
Casos de uso.
Cualquier otro documento que permita saber cómo funciona la aplicación y qué informaciones contiene o puede contener”.
(12) El resuelve segundo de 1071/2024 señala que “Los archivos que contengan el código fuente utilizado para el Modelo de Priorización de Primeras Citas y el Modelo de Citas Sucesivas que utiliza el Instituto Nacional de Estadística (INSS) para la gestión de las bajas laborales por incapacidad temporal (IT)”.
(13) Se puede consultar en: https://civio.app.box.com/s/7pa4n0cyd720edgoiy4lfbsoyjdyam6w
(14) Para mayor detalle, véase el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo de 27 de abril de 2016 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos, por el que se deroga la directiva 95/46/CE (Reglamento General de Protección de Datos) y Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.
(15) Hay un mayor desarrollo de este sistema en la Resolución de la Agencia Española de Protección de Datos, 2023 en el Procedimiento sancionador PS/00324-2023.
(16) Para mayor profundización sobre el bono social, véase la página oficial de Civio en el siguiente enlace https://civio.es/bono-social/.
(17) Tal y como se resuelve con el Asunto Maygar Helsinki Bizottság c. Hungría, bajo la sentencia 18030/11, de 8 de noviembre de 2016.