L’UE (Unione Europea) è pioniera nella regolamentazione dell’Intelligenza Artificiale: il parlamento ha infatti approvato l’AI Act, ecco quali saranno le novità in ambito comunitario.


Il Parlamento Europeo ha votato a favore dell’Atto sull’Intelligenza Artificiale (AI Act) con una schiacciante maggioranza di 523 voti favorevoli, 46 contrari e 49 astenuti, segnando un momento storico nella regolamentazione dell’Intelligenza Artificiale (IA) a livello mondiale.

Questo via libera all’AI Act rappresenta un passo significativo verso una regolamentazione dell’IA sicura ed etica, aprendo la strada a un futuro digitale responsabile e sostenibile.

Europa approva l’AI Act: prime regole al mondo sull’Intelligenza Artificiale

L’UE diventa così la prima zona al mondo ad adottare regole così complete e vincolanti sull’IA affidabile.

L’AI Act vieta pratiche considerate inaccettabili, come la deduzione di caratteristiche e opinioni personali basate su dati biometrici, e regola un’ampia gamma di possibili applicazioni. Questo testo riflette le priorità del Parlamento Europeo, concentrandosi sulla trasparenza, la sicurezza dei modelli più potenti e gli obiettivi ambientali.

La legge, nata da un lungo percorso iniziato nel 2021, disciplina lo sviluppo, l’immissione sul mercato e l’utilizzo dei sistemi di IA. Si applica a fornitori, importatori, distributori e utenti responsabili, sia a livello personale che professionale, al di là del settore.

Applicazioni vietate

Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.

Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Eccezioni per le forze dell’ordine

In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa.

Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.

Obblighi per i sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto).

Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).  Per questi sistemi vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana.

I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Obblighi di trasparenza

I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.

Misure a sostegno dell’innovazione e delle PMI

I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.

Le dichiarazioni

Il commissario europeo per il Mercato Interno, Thierry Breton, ha elogiato il sostegno del Parlamento Europeo all’AI Act, evidenziando l’importanza di questa regolamentazione per l’IA affidabile. Breton ha sottolineato che l’Europa sta diventando uno standard globale per l’IA, regolamentando quanto necessario per garantire sicurezza e affidabilità.

Democrazia: 1 – Lobby: 0. Accolgo con favore il sostegno schiacciante del Parlamento Europeo al nostro Ai Act, il primo atto normativo al mondo completo e vincolante per l’intelligenza artificiale affidabile”, questo il commento su sul profilo social X da parte del commissario.

https://twitter.com/ThierryBreton/status/1767919121625124965

Il capodelegazione del Partito Democratico al Parlamento Europeo, Brando Benifei, ha sottolineato l’importanza storica di questa giornata verso una regolamentazione sicura e umana dell’IA. Ha annunciato il lavoro futuro su una direttiva specifica per l’IA nei luoghi di lavoro, sottolineando la necessità di un approccio dettagliato per affrontare questo tema.

Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa.

Cosa cambierà adesso?

In concreto quali sono le conseguenze di questa decisione dell’UE? L’approvazione dell’AI Act rappresenta un passo avanti significativo nella regolamentazione dell’IA, con possibili conseguenze positive per la sicurezza, i diritti e l’innovazione in Europa. Tuttavia, saranno necessari monitoraggio e adeguamenti nel tempo per garantirne l’efficacia e l’adattamento alle evoluzioni tecnologiche.

Cosa significa questo per i cittadini dell’Unione Europea?

  • più sicurezza: niente sistemi che violano i nostri diritti o la nostra sicurezza, come il riconoscimento facciale di massa
  • più trasparenza: le aziende dovranno spiegarci come funzionano i loro sistemi di IA, così potremo capire come ci influenzano
  • più responsabilità: se un sistema di IA causa danni, ci sarà qualcuno da cui chiedere conto.

Non solo: l’AI Act favorirà lo sviluppo di sistemi di IA affidabili e sicuri, aprendo nuove opportunità per l’innovazione. L’Europa diventerà pertanto un leader nella regolamentazione dell’IA, attirando investimenti e talenti in questo campo.

Certo, ci sono anche sfide:

  • il regolamento è complesso e potrebbe essere difficile da applicare.
  • le diverse normative sull’IA nel mondo potrebbero creare ostacoli
  • bisognerà vedere se sarà davvero efficace.

Ma l’AI Act è un passo avanti importante. È come se si fossero tracciate le prime linee guida per costruire un futuro migliore con l’IA, un futuro in cui la tecnologia ci aiuta a vivere meglio, senza minacciare i nostri diritti e la nostra sicurezza.

Ovviamente il dibattito sull’IA continuerà ad evolversi, e il compito di plasmare un futuro responsabile con questa tecnologia ricadrà su tutti noi.

Per la Pubblica amministrazione quali benefici arriveranno?

E invece per le Pa cosa cambierà nello specifico? Come impatteranno queste decisioni in ambito amministrativo?

Un futuro di efficienza, rapidità e servizi personalizzati: è l’obiettivo che l’AI Act, il nuovo regolamento europeo sull’intelligenza artificiale, può portare alla Pubblica amministrazione italiana.

Come? Attraverso l’implementazione di sistemi di IA che permetteranno di:

  • automatizzare i processi ripetitivi, liberando i dipendenti per compiti più complessi e strategici.
  • snellire le procedure burocratiche, riducendo i tempi di attesa per i cittadini.
  • offrire servizi personalizzati, grazie all’analisi dei dati e alla profilazione degli utenti.
  • migliorare la trasparenza e l’accesso alle informazioni, rendendo l’amministrazione più vicina ai cittadini.
  • contrastare frodi e illegalità, grazie a sistemi di intelligenza artificiale in grado di individuare anomalie e comportamenti sospetti.

I vantaggi non si esauriscono qui. L’AI Act può anche:

  • ridurre i costi di gestione dell’amministrazione pubblica.
  • migliorare la qualità dei servizi offerti ai cittadini.
  • aumentare la fiducia dei cittadini nella Pubblica Amministrazione.

Tuttavia, come abbiamo già detto prima, la sfida è complessa. Alcune difficoltà insite nel regolamento potrebbero ostacolarne l’implementazione, mentre la mancanza di competenze in materia di IA potrebbe rallentare il processo di innovazione. A ciò si aggiunge la necessità di tutelare la privacy e la sicurezza dei dati dei cittadini.

Pertanto, con un’implementazione efficace da parte di tutti i Governi, compreso ovviamente il nostro, l’AI Act può davvero rivoluzionare il modo in cui la Pubblica amministrazione opera, migliorando la vita di tutti i cittadini.

La Pa italiana ha ora la possibilità di fare un salto di qualità e diventare un modello di efficienza e innovazione.

Golem AI: un URP online avanzato tramite Intelligenza Artificiale per la Pa

All’interno di questo composito panorama c’è già chi si sta muovendo nella direzione giusta, provando a migliorare l’esperienza degli utenti con i servizi della Pa, ma anche di ridefinire la progettazione e l’erogazione di servizi attraverso l’applicazione di tecnologie avanzate.

In questa cornice di cambiamento la società Golem Net, software house specializzata in soluzioni dedicate alle Pa, ha sviluppato un nuovo Bot che ha l’obiettivo di offrire un supporto smart e immediato per gli enti pubblici tramite l’uso dell’Intelligenza Artificiale.

Questa nuova soluzione, Golem AI (https://golemai.golemnet.it/), è pensata per rispondere alle esigenze specifiche di tutte le Pubbliche amministrazioni (quindi partendo dalle Pa centrali fino ad arrivare agli enti territoriali) alle prese con le nuove sfide introdotte dagli ultimi sviluppi in materia di AI.

Golem AI si inserisce come una brillante risposta alle sfide della contemporaneità digitale, offrendo un’interfaccia basata su un sistema di chat intuitivo in “natural language“.

Questo sistema non solo migliora l’efficienza operativa, ma rivoluziona il modo in cui la Pubblica Amministrazione interagisce con i cittadini e gestisce le attività quotidiane.

Maggiori informazioni sugli asset di questo sistema sono disponibili all’interno di questo approfondimento.

Golem AI si presenta come una soluzione completa e rappresenta un passo significativo verso l’adozione dell’intelligenza artificiale nella Pubblica Amministrazione, migliorando la qualità dei servizi offerti e orientando l’amministrazione verso un futuro più efficiente e cittadino-centrico.

Maggiori informazioni sul Sistema sono disponibili all’interno della brochure del progetto, scaricabile direttamente qui.

Inoltre è possibile richiedere informazioni sull’applicativo compilando la form disponibile sul portale dedicato a questo software oppure scrivendo un messaggio WhatsApp al numero: 342 014 7374.


Fonte: articolo di redazione lentepubblica.it - Δ