L’AGID ha pubblicato per la consultazione pubblica le "Linee guida per l’adozione di Intelligenza Artificiale nella Pubblica Amministrazione" (bozza in consultazione pubblica, 14.02.2025)
L’Intelligenza Artificiale (IA) sta entrando sempre più nella nostra vita quotidiana, e le Pubbliche Amministrazioni non fanno eccezione. Per garantire che queste tecnologie vengano adottate in modo efficace, sicuro ed etico, è stata elaborata una bozza di Linee Guida che aiuteranno le PA a integrare l’IA nei loro servizi, mantenendo sempre al centro trasparenza, equità e rispetto dei diritti dei cittadini.
Le pubbliche amministrazioni si stanno digitalizzando e l’IA offre strumenti potenti per migliorare l’efficienza e la qualità dei servizi pubblici; La sua implementazione deve seguire regole chiare per evitare problemi come decisioni ingiuste, mancanza di trasparenza o rischi per la sicurezza informatica.
Queste linee guida servono proprio a fornire un quadro chiaro e condiviso per l’adozione dell’IA nelle PA, allineandosi con il Piano triennale per l’informatica nella PA 2024-2026 e il Codice dell’Amministrazione Digitale (CAD).
Le indicazioni contenute nel documento valgono per tutte le PA, dai ministeri ai comuni, alle Istituzione Scolastiche, e regolano sia l’utilizzo sia l’acquisto di tecnologie IA. Il focus è su:
- Aspetti normativi, per garantire che tutto sia conforme alle leggi italiane ed europee.
- Impatto organizzativo, per integrare l’IA nei processi senza creare squilibri o inefficienze.
L’Intelligenza Artificiale non è un concetto astratto, ma un insieme di strumenti pratici che possono:
- Automatizzare attività ripetitive e liberare tempo per lavori più strategici.
- Migliorare la capacità di analisi e previsione delle amministrazioni.
- Personalizzare i servizi pubblici, rendendoli più efficienti per i cittadini.
Tuttavia, non tutte le IA sono uguali. Per questo, il Regolamento Europeo AI Act classifica i sistemi di IA in base al loro livello di rischio:
- IA vietata → Sistemi pericolosi, come lo "scoring sociale" o quelli che manipolano il comportamento delle persone.
- IA ad alto rischio → Richiede controlli rigorosi (es. sistemi di riconoscimento facciale per la sicurezza).
- IA a rischio limitato → Deve garantire trasparenza e informativa chiara agli utenti (es. chatbot istituzionali).
- IA a rischio nullo → Sistemi senza impatti rilevanti (es. traduttori automatici per i documenti pubblici).
Per essere efficace e accettata dai cittadini, l’IA nelle PA deve seguire alcuni principi chiave:
1. Conformità normativa
- Tutti i sistemi IA devono rispettare le leggi italiane ed europee, tra cui il Regolamento AI Act e il GDPR per la protezione dei dati personali.
2. Trasparenza e accessibilità
- I cittadini hanno il diritto di sapere se stanno interagendo con un sistema IA.
- Le PA devono fornire spiegazioni chiare e comprensibili su come vengono prese le decisioni automatizzate.
3. Etica e inclusione
- L’IA non deve creare discriminazioni: i dati e gli algoritmi devono essere privi di bias.
- I sistemi devono essere accessibili anche per persone con disabilità o difficoltà digitali.
4. Sicurezza e controllo umano
- Le PA devono proteggere i sistemi IA da attacchi informatici.
- Le decisioni più importanti devono sempre essere supervisionate da un essere umano.
5. Qualità dei dati
- Un’IA è efficace solo se i dati su cui si basa sono affidabili e aggiornati.
Per gestire in modo ordinato l’implementazione dell’IA, le Linee Guida propongono un modello di adozione basato su quattro fasi:
- Pianificazione → Definizione di obiettivi chiari e strategici.
- Implementazione → Scelta delle tecnologie IA più adatte e loro integrazione nei processi.
- Monitoraggio → Valutazione continua per verificare che tutto funzioni correttamente.
- Miglioramento → Adattamenti e aggiornamenti per rendere l’IA sempre più efficace.
Un Codice Etico per l’IA nella PA
Accanto alle regole pratiche, il documento include anche un Codice Etico, che stabilisce linee guida su come l’IA deve essere utilizzata in modo giusto, sicuro e rispettoso dei diritti umani.
I principi etici fondamentali
- Trasparenza → Tutti devono poter comprendere come funziona un sistema IA.
- Responsabilità → Un essere umano deve sempre avere l’ultima parola nelle decisioni critiche.
- Sicurezza → Le PA devono proteggere i sistemi IA da usi impropri o pericolosi.
- Sostenibilità → L’IA deve rispettare l’ambiente, riducendo sprechi energetici e di risorse.
- Non discriminazione → Gli algoritmi devono essere progettati per evitare ingiustizie e disuguaglianze.
- Privacy → Nessun sistema IA può compromettere la protezione dei dati personali.
Per garantire che questi principi vengano applicati, il Codice Etico prevede la creazione di un “Comitato Etico”, che avrà il compito di supervisionare l’uso dell’IA nelle PA.
L’IA può portare grandi benefici, ma solo se utilizzata con competenza. Per questo, le PA dovranno:
- Investire nella formazione del personale, affinché sappia usare queste tecnologie in modo consapevole.
- Organizzare campagne informative per i cittadini, spiegando i vantaggi e i limiti dell’IA.
Un punto chiave delle linee guida è il coinvolgimento del pubblico. Le PA dovranno:
- Collaborare con università, centri di ricerca e aziende per sviluppare soluzioni innovative.
- Organizzare dibattiti pubblici per raccogliere opinioni e suggerimenti.
- Favorire fornitori etici nelle gare d’appalto per l’acquisto di sistemi IA.
Queste linee guida sono ancora in fase di consultazione pubblica, il che significa che esperti, aziende, cittadini e PA possono proporre modifiche e suggerimenti. L’obiettivo è creare un quadro regolatorio solido e condiviso, che aiuti le amministrazioni a sfruttare l’IA al meglio, senza rischi o abusi.
L’Intelligenza Artificiale può rivoluzionare il modo in cui le PA lavorano, migliorando la qualità della vita di milioni di cittadini. Ma per farlo, è essenziale un approccio etico, trasparente e responsabile. 🚀
Lì, 21.02.2025
IL VICE PRESIDENTE
Marco Santini