Alicante, 13-11-2025.
La justicia obliga a publicar los criterios que sigue la IA en el sector público
La Agencia Tributaria ha comenzado a utilizar sistemas algorítmicos e inteligencia artificial (IA) para seleccionar a los contribuyentes –entre ellos, autónomos– que serán objeto de inspección. Lo hace con la promesa de ganar eficiencia, pero ha abierto un debate jurídico sobre las motivaciones y criterios que llevan a poner el foco del fisco sobre unos contribuyentes mientras deja a otros fuera.
La “caja negra” de los algoritmos públicos, advierte el doctor en Derecho y experto en Transparencia Miguel Ángel Blanes Climent, “puede esconder errores, sesgos o incluso decisiones injustas si no se abre a la ciudadanía”.
La reciente sentencia del Tribunal Supremo en el caso del algoritmo BOSCO –utilizado por el Ministerio de Transición Ecológica para gestionar las ayudas energéticas del bono social– marca un precedente decisivo, según los expertos.
Por primera vez, el Alto Tribunal ha reconocido el derecho de los ciudadanos a conocer cómo funciona un sistema de inteligencia artificial empleado por la Administración. “El Supremo ha dicho que el poder público no puede esconderse detrás de la tecnología”, explicó Blanes. “Si una institución utiliza IA, debe garantizar su transparencia”.
Los ciudadanos tienen derecho a saber qué criterios sigue la IA de Hacienda
Aunque la sentencia del Supremo se refería a un programa social, el experto consideró que puede extenderse al ámbito tributario. En el caso de los autónomos, la Agencia Estatal de Administración Tributaria (AEAT) maneja enormes bases de datos y aplica algoritmos para cruzar información fiscal, contable y bancaria, decidiendo a quién investigar y a quién no.
Sin embargo, nadie fuera de la Agencia sabe qué criterios utiliza esa inteligencia artificial. ¿Se priorizan ciertos sectores? ¿Se pondera el tamaño del negocio? ¿El número de facturas? ¿La coincidencia de proveedores? Nadie lo sabe. “Es lógico que los autónomos quieran conocer qué razones existen para que sean ellos, y no otros, los seleccionados para inspección”, señaló el experto en Transparencia. “Porque si esos algoritmos no son auditables, se abre la puerta a la indefensión”, añadió.
A juicio de Blanes, el marco legal actual no ofrece garantías suficientes ya que la Ley de Transparencia de 2013 ni siquiera contempla la existencia de la inteligencia artificial, y la Ley General Tributaria tampoco menciona los sistemas automatizados de decisión.
Transparencia y secreto fiscal son compatibles
Para Blanes, la solución pasa por una reforma legal en dos fases. “Lo primero es que la Agencia Tributaria –y cualquier otra administración– esté obligada a publicar en su portal en qué decisiones utiliza inteligencia artificial”, detalló. “Y lo segundo, ofrecer una explicación mínima de cómo funcionan esos algoritmos, de forma comprensible y accesible”.
Una de las objeciones habituales de la Agencia Tributaria es el riesgo de que la divulgación del código fuente o del funcionamiento del algoritmo comprometa la seguridad de los datos fiscales.
Sin embargo, Blanes subrayó que la confidencialidad tributaria, recogida en el artículo 95 de la Ley General Tributaria, no puede convertirse en un pretexto para mantener la opacidad.
Explicó que transparencia y secreto fiscal son perfectamente compatibles si los algoritmos se diseñan con garantías suficientes. “Si voy a utilizar un algoritmo que luego no voy a poder decir cómo funciona porque lo pueden hackear, no lo debo utilizar”, afirmó.
En su opinión, la Administración solo debería aplicar sistemas que puedan auditarse sin poner en riesgo la información personal de los contribuyentes, diferenciando entre revelar la lógica del programa y exponer datos individuales.
Si bien Blanes reconoció que la información tributaria es especialmente sensible y debe protegerse con el máximo nivel de seguridad, también consideró que no implica que no pueda ser transparente.
“Hoy la tecnología permite conciliar ambas cosas –aseguró–: que un sistema sea auditable y a la vez invulnerable. Lo que no puede ser es que la confidencialidad sirva de excusa para ocultar los criterios de actuación del Estado”.
Los algoritmos también pueden discriminar
El doctor en Derecho fue más allá para exponer que la falta de claridad en los criterios de los algoritmos públicos también afecta al principio de igualdad ante la ley porque todos los contribuyentes, incluidos los autónomos, tienen derecho a ser tratados de forma justa y no discriminatoria.
Por ejemplo, si un algoritmo utiliza variables mal diseñadas (vinculadas a la localización, el tipo de actividad, la edad del contribuyente, etc.) podría estar introduciendo sesgos sin que nadie lo advirtiera.
“Los algoritmos también cometen errores, y pueden discriminar sin quererlo”, advirtió Blanes. “Por eso deben poder ser fiscalizados. De lo contrario, la inteligencia artificial se convierte en un escudo de opacidad”.
El Supremo ya lo subrayó en su reciente fallo al asegurar que los sistemas automatizados no pueden operar al margen del control ciudadano. Y aunque en ese caso el tribunal enfatizó la protección de los colectivos vulnerables, el principio es universal según los expertos consultados pues toda herramienta algorítmica que afecte a derechos o decisiones públicas debe ser auditable.
La Administración exige más a los contribuyentes que a sí misma
Lo paradójico, ilustró Blanes, es que mientras el Gobierno ha legislado con rapidez para que los ciudadanos o las empresas privadas indiquen si una imagen o un texto ha sido generado por inteligencia artificial, la Administración no aplica esa misma exigencia sobre sí misma.
“Es significativo –reflexionó– que el Estado imponga transparencia al sector privado, pero no la practique. No hay ninguna razón que justifique esa desigualdad de trato, más allá de la reticencia de los propios poderes públicos a ser fiscalizados”.
El experto apuntó que esta oposición se traduce en una falta de rendición de cuentas estructural. Las autoridades políticas son reacias a someter su actuación al escrutinio ciudadano, incluso cuando el uso de la tecnología afecta directamente a los derechos fundamentales. “El poder público siempre se controla con dificultad”, ironizó Blanes, “pero si encima se esconde detrás de un algoritmo, el control se hace imposible”.
El debate entre juristas acaba de empezar, pero ya se plantea que el mismo argumento que ha puesto luz sobre el algoritmo que concedía ayudas sociales termine llegando al Supremo y obligue al Fisco a explicar cómo funcionan sus programas para seleccionar a los autónomos que deben ser inspeccionados.
Como concluyó Blanes, “la inteligencia artificial es un hecho que nos ha superado, la Administración la usa y tiene que decir cuándo la está utilizando y rendir cuentas de cómo funciona. No quiero pensar en un escenario en el que pueda emplearla sin rendir cuentas; sería desastroso”.
Fuente; autonomosyemprendedor.es


