La trasformazione digitale della pubblica amministrazione e l'adozione di infrastrutture e tecnologie avanzate – inclusi sistemi basati su dati e intelligenza artificiale – rappresenta un obiettivo strategico per migliorare la qualità dell'azione amministrativa e rafforzare la capacità delle istituzioni di rispondere in modo efficace ai bisogni dei cittadini e delle imprese.
Detto processo si rende necessario sia in ossequio ai principi nazionali generali di economicità, efficienza ed efficacia sia per una esigenza di allineamento con la normativa ed i principi dell'ordinamento comunitario.
Al riguardo, l'Unione europea ha individuato nel quadro delle politiche europee per il cosiddetto “Decennio digitale”, delineate nella c.d. “Bussola digitale” con la COM (2021) 118 della Commissione europea, la progressiva digitalizzazione dei servizi pubblici tra gli obiettivi prioritari per il 2030.
In tale prospettiva, le amministrazioni pubbliche saranno progressivamente chiamate a dotarsi di strumenti tecnologici sempre più sofisticati per l'esercizio delle proprie funzioni, con l'obiettivo di coniugare innovazione digitale e principi di buona amministrazione.
Si prenda ad esempio quello che sta avvenendo in molte stazioni appaltanti: da una parte stanno investendo in strumenti digitali e AI, ma dall'altra ogni innovazione introdotta nella gestione delle gare e/o nei procedimenti deve rispettare un equilibrio assai delicato tra:
- efficienza amministrativa
- discrezionalità tecnica
- trasparenza
- tutela della concorrenza.
Quando un protocollo AI rischia di violare il Codice dei contratti pubblici
Il problema che molte stazioni appaltanti stanno scoprendo troppo tardi.
Negli ultimi anni molte stazioni appaltanti stanno sperimentando strumenti di intelligenza artificiale per la gestione delle procedure di gara. Gli obiettivi sono chiari:
- analizzare grandi volumi di documentazione tecnica
- ridurre tempi di valutazione
- individuare anomalie nelle offerte
- migliorare la trasparenza delle procedure.
Questi strumenti stanno iniziando ad entrare stabilmente nei protocolli operativi interni dove ingegneri, project manager e responsabili procurement devono gestire appalti altamente complessi con forte contenuto tecnico.
Ma proprio in questi contesti nasce un problema che spesso non è evidente agli sviluppatori del sistema.
Il caso pratico: un sistema AI per la valutazione delle offerte tecniche
Una stazione appaltante sviluppa un protocollo AI interno con l'aiuto di un team di ingegneri e data scientist. Il sistema dal punto di vista tecnico/ingegneristico funziona bene. Il modello viene addestrato su:
- documentazione di gare precedenti;
- capitolati tecnici;
- verbali di commissioni giudicatrici.
Il risultato è un algoritmo che produce un ranking preliminare delle offerte per agevolare il lavoro della commissione, che dovrà controllare, validare ovvero smentire la decisione automatizzata.
La procedura è efficiente, ma dal punto di vista giuridico emergono diversi problemi.
Primo problema: rischio di delega della funzione valutativa
Ai sensi dell'art. 93 del d.lgs. n. 36 del 2023 Codice dei contratti pubblici, la valutazione delle offerte deve essere effettuata da una commissione giudicatrice di esperti che esercita un potere discrezionale.
Se il sistema AI attribuisce punteggi, produce classifiche o comunque orienta la decisione della commissione, si potrebbe configurare una delegazione di fatto della funzione valutativa a un sistema automatizzato.
L'art. 1 del d.lgs. 36/2023 ribadisce il principio del risultato nella gestione delle procedure di gara. La decisione amministrativa deve essere imputabile all'amministrazione, non a un algoritmo.
Il medesimo art. 1 specifica che il principio del risultato è perseguito “nell'interesse della comunità e per il raggiungimento degli obiettivi dell'Unione europea”.
Proprio riguardo alla normativa eurounitaria deve evidenziarsi il principio di human oversight previsto sia dal Regolamento (UE) 2024/168 AI Act, sia dal Regolamento (UE) 2016/679 GDPR ex art. 22 in tema di decisioni automatizzate. Anche se l'art. 22 GDPR riguarda dati personali, il principio giuridico utilizzato dalla giurisprudenza amministrativa è simile: una decisione amministrativa non può essere puramente algoritmica senza un contributo umano effettivo.
Questo crea un rischio di illegittimità della procedura, anche sotto il profilo di una violazione e/o falsa applicazione dell'art. 30, terzo comma, lett. b, del citato d.lgs. n. 36/2023, a tenore del quale la decisione algoritmica non può essere esclusiva essendo necessario il contributo umano per verificarne il risultato.
Secondo problema: trasparenza e motivazione della decisione
Le decisioni della stazione appaltante devono essere: motivate, tracciabili e difendibili in giudizio.
Se l'algoritmo utilizza modelli complessi (machine learning o deep learning), la commissione potrebbe non essere in grado di esplicitare perché l'AI ha attribuito un certo punteggio e quali specifici parametri hanno inciso sulla formazione della valutazione.
Questo espone la gara a un rischio concreto di contenzioso davanti all'autorità giudiziaria amministrativa, in caso di ricorso da parte di un operatore economico escluso.
Terzo problema: rischio di distorsione della concorrenza
Se il sistema AI venisse addestrato su gare precedenti della stessa amministrazione, potrebbe:
- privilegiare strutture di offerta già presentate;
- penalizzare soluzioni innovative e nuovi operatori.
Questo fenomeno è noto come bias algoritmico istituzionale.
Uno strumento progettato per migliorare l'efficienza, dunque, potrebbe ledere il principio di concorrenza nelle procedure pubbliche.
La compliance deve avvenire nella fase di progettazione
La vera attività di compliance deve avvenire nella fase di progettazione del protocollo AI, su tre livelli:
- Architettura giuridica del protocollo: occorre che il ruolo svolto dall'AI venga documentato, specie per quanto attiene al processo decisionale. In molti casi la soluzione corretta non è una valutazione automatica, ma un supporto documentale alla decisione.
- Audit normativo del sistema: occorre verificare la conformità rispetto alla normativa europea e nazionale ed analizzare le logiche decisionali, i flussi di dati e le procedure di controllo umano.
- Protocollo difensivo per il contenzioso: è necessario predisporre una documentazione che tenga traccia delle analisi compiute dall'AI, dei relativi verbali di validazione della commissione, nonché della documentazione tecnica del sistema specifico.
La legittimità della procedura di gara deve poter essere rappresentata e difesa dinanzi al giudice competente.