Automatizar multas con IA: lo que la Administración sí puede hacer… y lo que prohíbe la ley
La automatización de los procedimientos administrativos mediante inteligencia artificial (IA) ya no es ciencia ficción. Es un fenómeno aún incipiente, pero llamado a crecer con rapidez en las próximas décadas. Sin embargo, su encaje en el Derecho administrativo actual dista mucho de ser sencillo: choca con trámites, garantías y principios básicos del procedimiento, especialmente cuando se trata de ejercer la potestad sancionadora de la Administración.
La pregunta de fondo es clara: ¿hasta qué punto puede la Administración imponer sanciones apoyándose en sistemas de IA? El análisis de esta cuestión —centrado en aspectos como el inicio del expediente, el valor probatorio de las actas, la propuesta de resolución o la forma de terminación del procedimiento— permite extraer conclusiones muy relevantes sobre cómo, cuándo y con qué límites puede utilizarse la IA en el sector público. David Antonio Cuesta Bárcena, profesor ayudante Doctor en la Universidad de Cantabria, ha publicado un extenso artículo en el número 70 de la Revista General de Derecho Administrativo (Iustel, octubre 2025).
Qué entendemos por inteligencia artificial en la Administración
La IA, recuerda el autor, se define como la capacidad de los sistemas informáticos para realizar tareas que antes requerían intervención humana o que consideramos propias de la inteligencia humana, porque necesitan algún tipo de razonamiento.
Un elemento clave es el algoritmo: una secuencia finita de instrucciones que permite resolver un problema. Ese algoritmo se implementa en un software —el código fuente— que ejecuta las órdenes diseñadas por los programadores.
El trabajo distingue, de forma clara, dos grandes tipos de IA relevantes para la Administración:
- Sistemas simbólicos: la máquina funciona como un silogismo. El programador define de antemano, casi por completo, las reglas en lenguaje computacional. Hay una predeterminación muy elevada: el algoritmo es una secuencia precisa de instrucciones.
- Sistemas computacionales: no existe una programación detallada de todas las respuestas. El sistema aprende a partir de datos mediante técnicas estadísticas y matemáticas —machine learning y, en su versión más avanzada, deep learning—, ajustando parámetros internos para minimizar el error en sus predicciones o clasificaciones.
La diferencia no es solo técnica: tiene implicaciones jurídicas. En los modelos de machine learning es posible reconstruir qué variables han influido en la decisión y con qué peso, lo que permite ofrecer justificaciones comprensibles. En cambio, en muchos modelos de deep learning el sistema opera como una auténtica “caja negra”: se conocen los datos de entrada y salida, pero resulta extremadamente difícil explicar por qué se ha llegado a un resultado concreto.
De ahí que el autor advierta que, en su configuración pura, ni el machine learning ni el deep learning están en condiciones de dictar actos administrativos motivados, porque no aplican ni interpretan normas jurídicas ni construyen un razonamiento normativo explícito y controlable.
Por eso plantea una solución intermedia: sistemas mixtos en los que la IA se limite a identificar hechos o patrones, y la aplicación de la norma y la motivación del acto queden reservadas a un módulo basado en reglas jurídicas explícitas. En esa arquitectura híbrida la decisión final puede expresarse en términos estrictamente normativos.
IA y potestades administrativas: regladas, discrecionales y conceptos jurídicos indeterminados
El trabajo subraya que, para valorar el uso de IA, no basta con hablar de Administración en abstracto. Es necesario analizar potestad por potestad y trámite por trámite, atendiendo a factores como:
- Si los efectos del acto se agotan dentro de la propia Administración o afectan a los ciudadanos.
- Si las consecuencias son favorables o desfavorables para los interesados.
- Si hay relación con servicios públicos y el Estado social.
- Si la potestad genera efectos generales y estables en el tiempo (por ejemplo, planificación).
- Si se pretende una automatización total de la decisión o un uso de la IA como apoyo al análisis.
- Y, de forma muy destacada, si se trata de una potestad reglada o discrecional.
En las potestades regladas, la norma determina por completo el supuesto de hecho y la consecuencia jurídica. La Administración se limita a comprobar si concurren los hechos y aplicar la única solución posible. En este terreno la IA encuentra un espacio más cómodo: puede ayudar a gestionar un gran volumen de expedientes relativamente sencillos —por ejemplo, la liquidación de un tributo a partir de una declaración—, siempre que la prueba sea clara y fácilmente verificable mediante documentos, imágenes o mediciones.
El problema está en que no toda la prueba es “legible” por una máquina. Cuando la valoración requiera apreciar declaraciones, matices, contextos o pruebas complejas, la automatización se vuelve mucho más limitada.
En las potestades discrecionales, la norma define el supuesto de hecho, pero deja un margen de apreciación a la Administración para elegir entre varias decisiones válidas o incluso decidir si actúa o no. Aquí el autor recoge una crítica muy sólida a la automatización de la decisión final: la IA carece de empatía y de capacidad para realizar inferencias abductivas, es decir, conjeturas basadas en la comprensión global del mundo y la experiencia humana.
Como señalan los autores citados en el trabajo, la IA solo opera deductiva o inductivamente. De ahí la defensa de una verdadera “reserva de humanidad” en el ejercicio de potestades discrecionales: la decisión administrativa en lo esencial debe seguir siendo humana, por razones jurídicas, políticas y de buen gobierno.
El artículo también diferencia claramente esta discrecionalidad del uso de conceptos jurídicos indeterminados. En estos últimos puede haber una zona de incertidumbre —Begriffhof— donde la Administración dispone de un cierto margen de apreciación, pero:
- La solución correcta sigue siendo única.
- El juez puede ejercer un control más o menos intenso, en función de si el concepto es de experiencia o de valor.
Aquí la IA puede ayudar, sobre todo cuando se trata de conceptos probabilísticos o técnicos que exigen analizar grandes series de datos —por ejemplo, “peligro para la seguridad vial” o “peligro para la solvencia de una entidad financiera”—. La herramienta genera un informe técnico y la decisión sigue correspondiendo al órgano humano, que deberá motivarla y someterla a control judicial. En cambio, para conceptos como “faltas de respeto y consideración” o “actos de exhibición obscena”, la IA resulta abiertamente inadecuada.
El marco normativo europeo: RGPD y Reglamento de Inteligencia Artificial
En el plano europeo, dos normas son esenciales:
- Reglamento General de Protección de Datos (RGPD), que establece el derecho a no ser objeto de decisiones basadas exclusivamente en tratamientos automatizados, incluida la elaboración de perfiles, cuando produzcan efectos jurídicos o afecten significativamente al interesado.
- Reglamento de Inteligencia Artificial, aprobado en 2024, que busca evitar una fragmentación del régimen de la IA en la UE y limitar ciertos usos en función del riesgo.
El artículo explica que el artículo 22 RGPD admite excepciones, entre ellas cuando una norma de la Unión o de los Estados miembros autoriza la decisión automatizada y establece “medidas adecuadas” de salvaguarda. Esto reduce notablemente la eficacia práctica de la protección, porque bastaría con aprobar una norma habilitante genérica.
Por su parte, el Reglamento de IA:
- Cubre prácticamente todos los sistemas de IA computacional, públicos y privados.
- Clasifica los usos por nivel de riesgo, estableciendo prohibiciones, obligaciones y controles especiales para los sistemas de alto riesgo y para determinadas prácticas.
- Incluye, de forma muy estricta, la identificación biométrica remota en tiempo real en espacios públicos con fines de cumplimiento del Derecho.
El uso de IA por la Administración no se configura, en general, como una práctica prohibida, ni los sistemas que utilice en sus procedimientos son necesariamente de alto riesgo —aunque en algunos casos sí lo serán—. La norma tiene un enfoque transversal y, como subraya el artículo, queda mucho margen para que cada Estado regule cómo utilizar la IA en su Administración.
Regulación española: automatización, transparencia y no discriminación
En España, la normativa específica sobre IA en la Administración es todavía muy limitada. El trabajo repasa tres pilares:
Actuación administrativa automatizada
El artículo 41 de la Ley 40/2015 define la “actuación administrativa automatizada” como aquella realizada íntegramente a través de medios electrónicos y sin intervención directa de un empleado público. En estos casos, debe determinarse:
- Qué órgano es competente para definir las especificaciones, programar, mantener, supervisar y auditar el sistema y su código fuente.
- Qué órgano se considera responsable a efectos de impugnación.
El Reglamento de actuación y funcionamiento del sector público por medios electrónicos (RAFME) desarrolla este precepto y exige, entre otras cosas, que se autorice expresamente la automatización y se publiquen las resoluciones correspondientes en la sede electrónica, con indicación de las garantías para los interesados.
En la práctica, señala el artículo, se trata de un marco más formal que sustantivo: habilita a los órganos para automatizar decisiones, pero no fija límites materiales claros sobre qué se puede automatizar y cómo.
Transparencia en el uso de IA
La Ley 19/2013, de Transparencia, junto con el RGPD, obliga a la Administración a difundir un inventario de actividades que impliquen tratamiento de datos personales, lo que incluye el uso de IA. Además, el RAFME impone que las sedes electrónicas publiquen la relación actualizada de actuaciones administrativas automatizadas y la información básica sobre su diseño y funcionamiento.
El propio trabajo advierte, sin embargo, que el incumplimiento de estas obligaciones es generalizado.
Igualdad de trato y no discriminación
Finalmente, la Ley 15/2022, integral para la igualdad de trato y la no discriminación, introduce referencias a la IA con un objetivo muy concreto: evitar tratamientos discriminatorios. La norma habla de:
- Minimización de sesgos.
- Transparencia y rendición de cuentas en los algoritmos.
- Impulso de una IA ética, confiable y respetuosa con los derechos fundamentales.
Son previsiones aún muy genéricas, pero que marcan la dirección: la Administración no puede desentenderse de lo que hace un sistema automatizado al que encargue tareas con impacto en derechos de las personas.
Cómo puede intervenir la IA en el procedimiento sancionador
Una vez delimitado el marco técnico y normativo, el trabajo entra en el corazón del debate: la automatización del procedimiento sancionador. Un campo especialmente sensible por su finalidad punitiva y las garantías reforzadas que protege.
Inicio del procedimiento
El procedimiento sancionador se inicia siempre de oficio, por acuerdo del órgano competente, que debe identificar al presunto responsable, los hechos imputados, su posible calificación y la sanción que se podría imponer, entre otros extremos.
La IA puede intervenir en dos niveles:
- Detección de hechos constitutivos de infracción y elaboración automática del acuerdo de incoación, comunicación al instructor y notificación al presunto infractor, en asuntos repetitivos y poco complejos.
- Elaboración de borradores de acuerdos que un funcionario revisa y completa en casos más delicados, por ejemplo, cuando haya que identificar a más interesados o valorar medidas provisionales.
El artículo aporta ejemplos ilustrativos:
- En tráfico y seguridad vial, la combinación de cinemómetros e imágenes permite automatizar denuncias por exceso de velocidad o acceso indebido a zonas restringidas. El salto siguiente sería que un sistema de IA formule y notifique las denuncias.
- En urbanismo, algunos ayuntamientos ya usan imágenes de Google Maps para detectar obras clandestinas. Un sistema de IA podría confrontar periódicamente estas imágenes con la información urbanística municipal para detectar posibles infracciones de forma automatizada.
También se analiza el uso de identificación biométrica con fines sancionadores, por ejemplo, a partir de grabaciones de manifestaciones no comunicadas. El RGPD y el Reglamento de IA imponen límites fuertes: sólo ciertos supuestos de interés público esencial, restricciones a la identificación remota, obligación de verificaciones humanas y prohibición de basar la sanción exclusivamente en el resultado de la IA.
Actas y valor probatorio
La Administración sanciona muchas veces apoyándose en actas levantadas por funcionarios con condición de autoridad, que gozan de presunción de veracidad sobre los hechos consignados salvo prueba en contrario.
Aquí la conclusión es clara: las actas generadas por un sistema de IA no pueden disfrutar de esa presunción. La máquina no “constata” hechos en el mismo sentido que una persona; se limita a extraerlos de fuentes de información (imágenes, bases de datos, sensores). Por tanto, esas actas automatizadas tendrían el valor de una prueba documental más, y la verdadera prueba estarían en las fuentes de las que se nutren.
Otra cosa son los dispositivos de medición (cinemómetros, cámaras, etc.), cuyo valor probatorio vendrá determinado por la normativa sectorial aplicable, con independencia de que sus datos se integren o no en un sistema de IA.
Propuesta de resolución
La propuesta de resolución sancionadora es uno de los puntos más delicados, porque:
- Debe fijar motivadamente los hechos probados, su calificación jurídica, la infracción, los responsables, la sanción propuesta y la valoración de las pruebas.
- Condiciona la resolución final, con la que debe guardar correlación en hechos y en valoración jurídica.
¿Puede elaborarla una IA? El artículo es muy prudente. Para automatizar completamente este trámite, la máquina tendría que:
- Valorar las alegaciones del interesado.
- Valorar medios de prueba complejos, como declaraciones, reconocimientos o informes técnicos.
- Interpretar conceptos jurídicos indeterminados en algunos casos.
- Graduar la sanción dentro del margen legal, ponderando culpabilidad, perjuicios, reincidencia, etc.
Todo ello choca con varios límites:
- El principio de inmediación, que exige que la prueba se valore por quien la ha presenciado.
- La ya citada reserva de humanidad en decisiones discrecionales.
- El riesgo de “congelar” los criterios administrativos si la IA se limita a reproducir precedentes sin permitir su revisión y actualización conforme evoluciona la jurisprudencia.
Por eso, la conclusión del trabajo es que, hoy por hoy, no es adecuado automatizar por completo las propuestas de resolución, aunque sí podría valorarse el uso de sistemas de IA para elaborar borradores que el instructor revise, corrija o ratifique.
Resolución y formas de terminación del procedimiento
La resolución final del procedimiento sancionador debe pronunciarse sobre hechos, calificación, responsabilidad y sanción, respetando la correlación con la propuesta del instructor.
Las reservas frente a una automatización completa de esta resolución son las mismas que en el caso de la propuesta. Además, el autor plantea un problema añadido: si propuesta y resolución se generasen con el mismo sistema de IA —es decir, con el mismo “modelo mental”—, podría diluirse en la práctica la separación entre fase instructora y sancionadora.
No obstante, el trabajo sí identifica tres supuestos concretos en los que la terminación del procedimiento podría automatizarse con mayor facilidad:
- Reconocimiento de responsabilidad: el infractor admite los hechos, la calificación jurídica y la sanción propuesta, lo que simplifica enormemente la motivación de la resolución y permite aplicar la reducción legal de la multa.
- Reconocimiento + pago voluntario: el infractor puede llegar a obtener una reducción acumulada del 40% de la multa, siempre que acepte la sanción y renuncie a recurrir en vía administrativa. En estos casos, la decisión es altamente reglada y la IA podría intervenir con pocos problemas.
- Caducidad del procedimiento: la constatación del vencimiento del plazo máximo para resolver se basa en operaciones de cómputo relativamente simples, aunque la IA tendría que manejar correctamente excepciones como la paralización imputable al interesado o la posible inaplicación de la caducidad cuando el asunto afecta al interés general.
Una revolución con límites: valoración final
El trabajo concluye con una valoración general: la introducción de la IA en la Administración será una revolución rápida y de gran alcance, que permitirá automatizar trámites y procedimientos, incrementando rapidez, objetividad y consistencia en muchas decisiones.
Pero, al mismo tiempo, plantea retos de gran calado:
- Técnicos: entrenamiento de modelos, necesidad de grandes volúmenes de datos, colaboración entre Administraciones y con el sector privado, actualización constante con la jurisprudencia.
- Económicos: costes elevados de adquisición, implementación, ciberseguridad y mantenimiento, que probablemente limitarán al inicio el uso intensivo de IA a sectores de gran volumen o alta trascendencia (contratación, recaudación, subvenciones, tráfico, competencia, supervisión financiera, salud pública…).
- Medioambientales: el consumo de energía y agua de los grandes modelos de IA abre un nuevo frente regulatorio potencial, especialmente a medida que su uso se generalice.
- Jurídicos: necesidad de una regulación mínima que, sin ahogar la innovación, establezca un marco común para evitar abusos y garantizar derechos, preferiblemente integrada en la LPACAP y la LRJSP.
- De control judicial: los jueces deberán supervisar no solo la legalidad del acto administrativo, sino también el cumplimiento de la normativa específica de IA. Esto exigirá una formación técnica muy superior a la actual.
En definitiva, la IA abre un abanico de oportunidades para mejorar la eficacia de la Administración sancionadora, pero —como subraya el autor— no va a corregir por sí sola todas sus ineficiencias ni a reemplazar el juicio humano allí donde la ley y los derechos de los ciudadanos exigen empatía, ponderación y responsabilidad personal.
