In un mondo ad alta velocità, dove le sfide tecnologiche rendono obsoleta la conoscenza acquisita da un giorno all’altro, l’ingresso dell’Intelligenza Artificiale (IA) nella Pubblica Amministrazione rappresenta uno scossone senza precedenti. Se guardiamo indietro, negli anni ’80 e ’90, l’introduzione del Personal Computer (PC) negli uffici sollevò paure simili: la macchina avrebbe sostituito l’impiegato? Avrebbe disumanizzato i processi? Oggi sappiamo che il PC non ha reso inutile il lavoratore, ma è diventato un prolungamento irrinunciabile della sua scrivania, uno strumento quotidiano che ha decuplicato l’efficienza.
Ma l’Intelligenza Artificiale e gli algoritmi decisionali fanno un passo in più: non si limitano a formattare un testo o a calcolare somme su un foglio di calcolo. L’IA elabora, valuta e, se glielo permettiamo, decide. Di fronte a questa evoluzione, la recente e storica sentenza del TAR Lazio (Sez. III Bis, 2 febbraio 2026, n. 1895) ci pone di fronte a un bivio cruciale. La giurisprudenza ha classificato le automazioni nei concorsi pubblici come sistemi “ad alto rischio”, imponendo una rigorosa supervisione umana,.
Ma questa etichetta di “alto rischio” rappresenta un pericolo, un freno a mano tirato sull’evoluzione tecnologica della PA, o è invece il necessario “salvavita” per permettere all’IA di entrare nell’agire quotidiano del lavoratore pubblico in totale sicurezza, proprio come fece il PC decenni fa?
Per rispondere, dobbiamo partire dai fatti.
Il Caso: La cecità dell’algoritmo e la “spunta” mancante
La vicenda esaminata dal TAR Lazio è l’emblema della freddezza burocratica delegata alla macchina. Un candidato, Patrizio Cianci, partecipa a un concorso pubblico PNRR per docenti della scuola secondaria (classe di concorso A001 – Arte e Immagine). Il candidato possiede tutte le carte in regola: supera le prove e ha maturato i tre anni di servizio necessari per beneficiare di una speciale riserva del 30% dei posti messa a bando.
Eppure, al momento della pubblicazione della graduatoria, si ritrova escluso dai vincitori. Il motivo? Una disattenzione in fase di compilazione telematica della domanda: il candidato non aveva contrassegnato la specifica “spunta” (flag) per richiedere l’applicazione della riserva. Tuttavia, in un’altra sezione della medesima domanda informatica, egli aveva regolarmente dichiarato le annualità di servizio, tanto da ottenere dall’Amministrazione il relativo punteggio.
Per l’algoritmo ministeriale, la logica era binaria e spietata: spunta mancante = diritto inesistente. La macchina non deduce, non contestualizza, non incrocia i dati con buonsenso. Applica la regola statistica senza appello. L’Amministrazione si è difesa in giudizio sostenendo proprio questo: la domanda ha valore di autocertificazione e la piattaforma informatica l’ha valutata legittimamente in base ai dati (non) inseriti dal candidato.
La Rivoluzione Giuridica: L’AI Act e la “Riserva di Umanità”
Il TAR Lazio smonta questo automatismo cieco con una sentenza che farà scuola. I giudici partono da un principio consolidato del diritto amministrativo: nelle procedure tradizionali (non automatizzate), un errore formale nella compilazione di un modulo non può cancellare un diritto sostanziale, se i requisiti sono comunque comprovati e presenti agli atti.
Ma il vero salto in avanti avviene quando il Collegio estende questo principio alle piattaforme informatiche, coniando e applicando il concetto di “riserva di umanità” (human oversight).
Per farlo, il TAR utilizza un’interpretazione evolutiva e, a parere mio, geniale, richiamando il Regolamento (UE) 2024/1689 (il c.d. AI Act). I giudici ammettono che le norme stringenti sui sistemi di intelligenza artificiale “ad alto rischio” entreranno in pieno vigore solo ad agosto 2026. Tuttavia, applicano il principio europeo del c.d. effetto stand-still: gli Stati membri non possono adottare comportamenti o prassi che compromettano gravemente gli obiettivi di una norma europea in via di applicazione.
Poiché l’AI Act qualifica espressamente come “ad alto rischio” i sistemi utilizzati nei procedimenti di selezione e accesso ai pubblici impieghi, l’Amministrazione italiana non può sfruttare il periodo transitorio per delegare totalmente il potere a un software “cieco”. L’algoritmo viene giuridicamente declassato a mero “atto amministrativo informatico”. Esso non può tradursi in una delega decisionale integrale: deve sempre esistere un controllo umano effettivo capace di intervenire e correggere le storture della macchina.
La Massima della sentenza
“Nelle procedure amministrative e concorsuali automatizzate, un errore formale nella compilazione telematica della domanda da parte del candidato (come la mancata apposizione di un flag) non può precludere il riconoscimento di un diritto sostanziale, laddove i requisiti per il suo accoglimento siano comunque regolarmente dichiarati e comprovabili all’interno della medesima documentazione prodotta agli atti,. In virtù del principio della ‘riserva di umanità’ (human oversight) e dell’applicazione dei principi sanciti dal Regolamento UE 2024/1689 (AI Act) tramite l’effetto di stand-still, l’algoritmo assume la valenza di mero atto amministrativo informatico che non ammette in alcun caso una delega decisionale integrale. L’Amministrazione è conseguentemente tenuta a garantire in ogni fase un controllo umano effettivo, idoneo a intervenire e correggere le storture e le rigidità del sistema informatico, al fine di scongiurare che l’efficienza algoritmica comporti il sacrificio dei diritti fondamentali dei cittadini.”
Il Dilemma: L’Alto Rischio ucciderà l’innovazione nella PA?
Arriviamo così al nodo centrale della nostra riflessione, pungolata anche da un ottimo giurista che per primo ha segnalato la sentenza, l’Avv. Mauro Barberio : se ogni volta che un algoritmo prende una decisione in ambito pubblico – come lo screening di un concorso, l’assegnazione di un bonus o la valutazione di un’offerta – dobbiamo bollarlo come “ad alto rischio” e costringere un umano a rivedere il processo, non stiamo forse uccidendo i vantaggi dell’automazione? Non rischiamo di trasformare l’IA in un fardello burocratico, impedendole di diventare l’alleato quotidiano che il PC è stato per gli scorsi trent’anni?
La risposta richiede una lucidità chirurgica: classificare queste automazioni come “ad alto rischio” non è un freno, ma l’unico guardrail possibile per evitare il collasso del patto di fiducia tra Stato e cittadino.
Per capire perché, dobbiamo guardare oltre confine e osservare cosa accade quando l’efficienza algoritmica viene lasciata a briglia sciolta, espellendo l’umano dal “loop” decisionale. In Kirghizistan, il governo ha lanciato un sistema IA con l’obiettivo dichiarato di tagliare 1.000 ispettori fiscali su 3.400. In Finlandia, si discute di affidare il triage sanitario di base direttamente agli algoritmi per sopperire alla carenza di medici. Negli Stati Uniti, l’amministrazione federale ha ventilato l’ipotesi di far scrivere norme sulla sicurezza aerea a Google Gemini, accontentandosi di regole “abbastanza buone” per risparmiare tempo.
Ma i disastri non finiscono qui!
A New York, il Comune ha dovuto spegnere un chatbot costato 600.000 dollari perché forniva ai cittadini consigli illegali, suggerendo persino ai datori di lavoro di trattenere le mance dei dipendenti. Ancora più drammatico è il caso del Perù: tra il 2020 e il 2025, un algoritmo chiamato SISFOH ha tagliato i sussidi pensionistici a oltre 81.000 anziani. Il sistema era programmato per calcolare la povertà del nucleo familiare, ignorando l’abbandono sociale del singolo anziano. La macchina ha letto i numeri e ha condannato migliaia di persone alla miseria, senza che nessun umano potesse cogliere la disperazione dietro quei dati.
La Piramide DIKW e la Phronesis (Saggezza)
Ecco perché l’impostazione del TAR Lazio e della normativa europea sull’IA non è oscurantismo tecnologico. L’IA non è, e non deve essere, una “scatola nera” decisionale.
Come ben teorizzato nei modelli operativi per le Stazioni Appaltanti, l’interazione tra macchina e lavoratore pubblico deve basarsi sulla Piramide DIKW (Dati, Informazioni, Conoscenza, Saggezza). L’Intelligenza Artificiale è imbattibile nel processare Dati e Informazioni: estrae pattern, confronta centinaia di documenti di gara, sintetizza bandi complessi,. Ma la Conoscenza e, soprattutto, la Saggezza (Wisdom) – che includono l’etica, il contesto, l’empatia e l’assunzione di responsabilità civile e penale – appartengono esclusivamente all’essere umano (al RUP, al Dirigente, al Funzionario).
I greci antichi usavano un termine perfetto: Phronesis, la saggezza pratica. È la capacità di applicare una regola generale a un caso specifico, riconoscendo quando la norma, se applicata rigidamente, genera un’ingiustizia. L’algoritmo calcola la statistica, ma solo la phronesis umana poteva salvare il candidato Patrizio Cianci, capendo che la mancanza di una “spunta” telematica non poteva cancellare tre anni di duro lavoro nelle scuole.
Se dimenticassimo questo principio, finiremmo nella distopia di “Rent a Human”, un vero marketplace lanciato nel febbraio 2026, dove sono gli agenti IA a “noleggiare” gli esseri umani per compiere mere azioni fisiche (come firmare un documento o fare una foto) pagandoli a cottimo. Il dipendente pubblico diventerebbe un mero esecutore passivo, una “risorsa on demand” comandata dall’algoritmo.
Conclusioni: l’IA sarà il “nuovo PC”, ma con un’anima umana!
Torniamo all’incipit. In un mondo ad alta velocità, il lavoratore della Pubblica Amministrazione del futuro non potrà fare a meno dell’Intelligenza Artificiale. Il timore che la classificazione di “alto rischio” blocchi l’innovazione è infondato. L’AI Act non vieta di usare l’IA; vieta di usarla come scusa per deresponsabilizzarsi.
L’uso corretto e normato dell’Intelligenza Artificiale, come indicato anche dalle linee guida operative per gli uffici gare,, prevede che l’output della macchina sia sempre tracciabile, auditabile e sottoposto a correzione umana,. Il dipendente pubblico non perderà il lavoro a causa dell’IA, ma cambierà il modo in cui lavora. Delegherà la fatica dell’estrazione dei dati e dell’analisi documentale massiva all’algoritmo, riappropriandosi del tempo necessario per esercitare l’unica funzione che la macchina non potrà mai replicare: il giudizio umano.
Il PC ci ha liberati dalla macchina da scrivere e dai fogli carbone. L’Intelligenza Artificiale ci libererà dalla burocrazia ripetitiva. Ma la firma in calce a un’esclusione, a un’aggiudicazione o a una graduatoria concorsuale dovrà sempre portare il peso, la responsabilità e la saggezza di una persona in carne e ossa,,. Perché, come ci ha ricordato il TAR Lazio, nessuna efficienza algoritmica vale il sacrificio dei diritti fondamentali dei cittadini.
Stefano Oricchio
Le immagini sono generate con il supporto dell’AI – NotebookLM e supervisionate da Stefano Oricchio.