Approvato al Senato il DDL sulla Governance dell’AI
Il Senato italiano ha approvato in prima lettura il Disegno di Legge A.C. 2316, un provvedimento ambizioso che mira a regolamentare lo sviluppo, l’uso e la sperimentazione dell’intelligenza artificiale (IA) nel Paese. Questo testo, ora all’esame della Camera, rappresenta un passo fondamentale per allineare l’Italia al Regolamento UE 2024/1689 (noto come “AI Act”) e definire un modello nazionale basato su principi etici, sicurezza e tutela dei diritti fondamentali. Con 28 articoli suddivisi in sei capi tematici, il DDL affronta temi cruciali come la trasparenza degli algoritmi, l’impatto dell’AI sul lavoro e sulla sanità, e la governance pubblica delle tecnologie emergenti.
Principi Fondamentali: Centralità Umana e Sicurezza
Il Capo I del DDL fissa i principi cardine dell’approccio italiano all’AI, ispirato a un modello antropocentrico che pone l’essere umano al centro dello sviluppo tecnologico. Tra i pilastri chiave:
- Trasparenza: Gli algoritmi di IA devono essere spiegabili, garantendo che le decisioni automatizzate siano comprensibili e verificabili.
- Sicurezza informatica: I sistemi di IA devono essere progettati per resistere a vulnerabilità e attacchi esterni durante tutto il loro ciclo di vita.
- Protezione dei diritti fondamentali: Privacy, non discriminazione e autonomia decisionale umana sono priorità assolute.
- Responsabilità: Gli sviluppatori e gli utilizzatori di AI sono tenuti a rispettare norme etiche e giuridiche, con particolare attenzione ai gruppi vulnerabili (minori, disabili).
In linea con il GDPR e l’AI Act europeo, il DDL specifica che i minori sotto i 14 anni necessitano del consenso dei genitori per l’utilizzo di sistemi di AI, mentre quelli sopra i 14 possono prestare consenso autonomo, purché le informazioni siano fornite in linguaggio chiaro.
AI nella Sanità: Strumento di Supporto, Non Sostituto
Il settore sanitario è uno dei campi più sensibili toccati dal DDL. L’articolo 7 riconosce il potenziale dell’AI nel migliorare prevenzione, diagnosi e terapia, ma sottolinea che la decisione finale rimane sempre in mano al medico. Ad esempio, un sistema di AI che analizza immagini radiologiche può suggerire possibili patologie, ma la diagnosi definitiva e la scelta terapeutica spettano al professionista sanitario.
Inoltre, il testo promuove l’uso dell’AI per progetti di inclusione sociale, come strumenti che favoriscono l’autonomia delle persone con disabilità nei percorsi di vita individualizzati. Tuttavia, è vietato l’impiego di sistemi di AI per modificare il genoma umano o per finalità eugenetiche, in linea con i divieti previsti dall’AI Act europeo.
Pubblica Amministrazione: Tra Efficienza e Controllo Umano
L’articolo 14 disciplina l’uso dell’AI nella PA, stabilendo che i sistemi automatizzati devono essere strumentali alle decisioni umane, mai sostitutivi. Un comune che utilizza algoritmi per valutare le richieste di sussidi abitativi, ad esempio, deve garantire che il funzionario incaricato riesamini manualmente i casi segnalati come “critici” dall’AI.
Il DDL richiede anche che i processi decisionali basati su AI siano tracciabili e documentati, con accesso pubblico alle logiche algoritmiche (se non contrastanti con la sicurezza nazionale). Questa disposizione mira a prevenire casi di opacità, come quelli emersi in passato con algoritmi utilizzati per l’assegnazione di benefit sociali.
Impatto sul Lavoro: Diritti dei Lavoratori e Obblighi Datoriali
Uno dei capi più innovativi del DDL è dedicato al mondo del lavoro, con misure che bilanciano innovazione e tutela dei diritti:
- Articolo 11: Impone ai datori di lavoro di utilizzare l’AI per migliorare le condizioni lavorative, non per ridurre personale o aumentare il controllo sui dipendenti. Ad esempio, sensori AI che ottimizzano i turni per ridurre lo stress devono essere accompagnati da formazione specifica per i lavoratori.
- Articolo 12: Istituisce l’Osservatorio sull’AI nel lavoro, con il compito di monitorare l’impatto occupazionale delle tecnologie e definire linee guida per un uso etico. L’Osservatorio coinvolgerà sindacati, imprese e esperti indipendenti.
- Articolo 13: Vieta l’uso dell’AI nelle professioni intellettuali (avvocati, commercialisti, medici) se non come supporto. Un avvocato che utilizza software per analizzare contratti deve informare il cliente e rimanere responsabile del parere finale.
Governance Nazionale: Il Ruolo di AgID e ACN
Il Capo III del DDL definisce la governance dell’AI in Italia, designando Agenzia per l’Italia Digitale (AgID) e Agenzia per la Cybersicurezza Nazionale (ACN) come autorità di riferimento. I loro compiti includono:
- Coordinare l’attuazione della Strategia Nazionale per l’AI, aggiornata ogni tre anni.
- Vigilare sul rispetto delle norme, con poteri ispettivi su enti pubblici e privati.
- Promuovere la formazione di personale specializzato in AI, in collaborazione con università e centri di ricerca.
Una novità significativa è la delega al Governo per armonizzare la legislazione italiana con l’AI Act europeo, garantendo coerenza tra quadro nazionale e normativo UE.
Sanzioni Penali e Clausola di Invarianza Finanziaria
Il DDL introduce un primo nucleo di sanzioni penali per contrastare usi illeciti dell’AI:
- Fino a 3 anni di reclusione per chi sviluppa o utilizza sistemi di AI in modo ingannevole o pericoloso, soprattutto se ciò comporta rischi per l’integrità fisica o psichica delle persone.
- Multe fino a 500.000 euro per le aziende che violano gli obblighi di trasparenza o utilizzano dati sensibili senza consenso.
Nonostante l’ampio raggio d’azione, il Capo VI assicura che il provvedimento non comporterà oneri aggiuntivi per la finanza pubblica, grazie a una riallocazione interna delle risorse esistenti.
Verso un Modello Italiano di AI Etica
Il DDL A.C. 2316 rappresenta un tentativo di coniugare innovazione e diritti, proponendo un modello di AI “antropocentrica” che potrebbe influenzare il dibattito europeo. La sfida principale sarà garantire che le norme non ostacolino la competitività delle imprese italiane, soprattutto delle PMI, ma favoriscano un’adozione responsabile delle tecnologie.
Con l’approvazione definitiva alla Camera, l’Italia si posizionerebbe tra i primi Paesi UE a dotarsi di una legislazione organica sull’AI, anticipando in parte l’entrata in vigore dell’AI Act prevista per il 2026. Resta da vedere come verranno bilanciati, nei decreti attuativi, rigore normativo e flessibilità necessaria per un settore in rapidissima evoluzione.
Automazione fiscale e AI: come evolve FatturaPro.click
Le novità di legge che hai appena letto sono la conferma di alcune prospettive che in FatturaPro abbiamo iniziato a seguire con interesse da tempo, tanto da ispirare le nostre scelte future.
Nella seconda metà dell’anno inizieremo gradualmente a presentare molte novità nel campo dell’Intelligenza Artificiale, applicata al supporto quotidiano di professionisti e imprenditori.
Se il tema dell’Automazione Fiscale rimane la colonna portante della nostra offerta di soluzioni gestionali, l’AI ne rappresenta una naturale evoluzione che porterà a nuove funzioni capaci di semplificare la vita delle persone in modo attivo, intervenendo su tutte quelle attività “umane” che ancora oggi possono essere causa di rallentamenti, errori o dimenticanze.
La parola chiave, quindi, sarà “supporto” e non “sostituzione”. Vogliamo essere un moltiplicatore di produttività, e non un fattore sottrattivo di risorse umane. Come portatori di un’innovazione volta a migliorare la vita delle persone, non siamo mai stati favorevoli alla visione di una tecnologia orientata alla speculazione.
Siamo coscienti di quanto sia importante ottimizzare i costi all’interno di un’organizzazione aziendale. Ma è la nostra esperienza quotidiana a renderci ancora più consapevoli di un principio che, nell’immediato futuro che ci attende, sarà centrale per chi — come noi — è parte attiva del tessuto imprenditoriale:
le aziende sono fatte di persone. E, da oggi in avanti, lo saranno ancora di più.