Il Garante Privacy ha emanato un vero e proprio decalogo per l’ottimizzazione dei servizi nella sanità a livello nazionale mediante l’uso di sistemi di intelligenza artificiale.


Queste direttive si concentrano su tre principi chiave: trasparenza nei processi decisionali, supervisione umana delle decisioni automatizzate e prevenzione della discriminazione algoritmica.

Questi principi a loro volta si basano sul GDPR e sulla giurisprudenza del Consiglio di Stato.

Scopriamo dunque nello specifico il contenuto di questo vademecum.

Intelligenza artificiale e sanità, la guida del Garante della Privacy

In base alle raccomandazioni del Garante, è essenziale che i pazienti abbiano il diritto di conoscere se ci sono processi decisionali basati su trattamenti automatizzati con l’IA, ad esempio nell’ambito clinico o nella politica sanitaria, e ricevano chiare spiegazioni sulla logica alla base di tali decisioni. Questi processi decisionali devono includere una supervisione umana che consenta al personale sanitario di controllare, convalidare o respingere le elaborazioni effettuate dai sistemi di IA.

Affidabilità

Il Garante sottolinea l’importanza dell’uso di sistemi di IA affidabili per ridurre gli errori dovuti a fattori tecnologici o umani. È fondamentale effettuare verifiche periodiche sull’efficacia di questi sistemi e adottare misure tecniche ed organizzative adeguate. Ciò è essenziale per prevenire potenziali effetti discriminatori dovuti a trattamenti di dati inaccurati o incompleti sulla salute delle persone. Ad esempio, il Garante menziona un caso negli Stati Uniti in cui un sistema di IA assegnava un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute a causa di una metrica basata sulla spesa sanitaria media individuale, che risultava più bassa per la popolazione afroamericana.

Base giuridica e logiche algoritmiche

intelligenza-artificiale-sanita-garante-privacy

Fonte: IMGUR. File originale: https://imgur.com/TAamnus

Inoltre, l’Autorità richiede una base giuridica specifica per l’uso dell’intelligenza artificiale nei trattamenti di dati sanitari per scopi di interesse pubblico nel settore sanitario. Questa base giuridica dovrebbe includere misure di tutela dei diritti e delle libertà degli interessati.

È inoltre importante fornire dettagli precisi sulle logiche algoritmiche utilizzate, sulle metriche usate per l’addestramento dei modelli, sui controlli per individuare possibili bias e la possibilità di correggerli nella descrizione dei trattamenti.

Valutazione d’impatto

Infine, prima di avviare trattamenti di dati sulla salute tramite sistemi nazionali di IA, è obbligatoria una valutazione d’impatto per identificare misure atte a proteggere i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento dell’Unione Europea. Un sistema centralizzato nazionale che fa uso dell’IA rappresenta un trattamento sistematico su larga scala di dati sanitari ad “alto rischio”, quindi richiede una valutazione d’impatto centrale per garantire la coerenza delle misure adottate.

Il testo completo delle linee guida

Potete consultare qui il documento completo.

 


Fonte: articolo di redazione lentepubblica.it