L’Intelligenza Artificiale e le sue potenzialità affascinano ma, allo stesso, tempo spaventano: quindi viviamo in un costante scontro tra le opportunità che ci possono offrire e le regole da mettere in pratica per “controllarle”.
Le intelligenze artificiali, infatti, stanno aprendo straordinarie possibilità in vari settori, ma la necessità di regolamentazione è ineludibile per garantire l’etica e la sicurezza nell’evoluzione tecnologica.
Lo scontro tra l’ascesa delle intelligenze artificiali e la regolamentazione rispecchia la complessità di bilanciare l’innovazione con la tutela dei diritti umani e la responsabilità nell’adozione di tali tecnologie avanzate.
E così continua da un lato la corsa a regolamentare il “mercato delle IA”, ma dall’altro emerge la consapevolezza di tante criticità non ancora del tutto risolte.
Sull’approccio di analisi di strumenti di IA come ChatGpt abbiamo anche condotto un singolare esperimento: potete leggerne di più qui.
Le nuove regole UE sull’Intelligenza Artificiale
Per quanto riguarda il tentativo di normare queste piattaforme il Parlamento UE ha di recente introdotto delle regole che mirano a promuovere un uso di IA affidabile e incentrato sull’essere umano e sulla tutela di salute, sicurezza, diritti fondamentali e democrazia dai suoi effetti dannosi.
Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali
Inoltre l’UE vuole che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente.
Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).
L’approccio degli USA alla materia
D’altro canto anche i legislatori statunitensi stanno considerando attivamente l’importanza di sviluppare normative adeguate per l’IA.
Lo scopo è quello di sviluppare un’intelligenza artificiale responsabile che protegga i diritti e la sicurezza dei cittadini e che sia fonte di crescita per il Paese.
Nelo specifico sta per essere rilasciato un piano strategico nazionale di R&S dell’AI per la definizione di “priorità e obiettivi chiave per gli investimenti federali” che ha i seguenti obiettivi:
- l’innovazione responsabile
- il servizio al bene pubblico
- la protezione dei diritti e della sicurezza
- il sostegno ai valori della democrazia
Ma non solo: a quanto pare Unione europea e gli Stati Uniti hanno dunque deciso di elaborare congiuntamente a questo riguardo un “codice di condotta” da applicare su base volontaria ma in tempi piuttosto rapidi.
Il caso di ChatGPT e lo scontro con il Garante italiano
Ma se passiamo dall’universale al particolare un esempio delle problematiche sorte con la nascita di IA come ChatGpt può essere quello italiano.
Infatti uno scontro diretto tra il Garante della Privacy e la società OpenAI che gestisce questo software ha fatto molto discutere.
Inzialmente il Garante per la protezione dei dati personali aveva disposto la limitazione nel trattamento di dati italiani nei confronti della società statunitense che gestisce la piattaforma. Il motivo: aveva rilevato che in entrata manca un’informativa sulla raccolta dei dati personali e l’assenza di base giuridica per raccoglierli e conservarli. E così la piattaforma era stata temporaneamente bloccata nel nostro paese.
La diatriba è durata circa un mese: alla fine le parti hanno trovato un accordo e ChatGpt ha ripreso a funzionare anche sul suolo italiano.
ChatGpt dovrà tuttavia fornire strumenti utili per permettere agli interessati, anche non utenti, di chiedere la rettifica dei dati personali che li riguardano, generati in modo errato o la cancellazione degli stessi, se la rettifica non fosse disponibile.
Gli interessati, anche non utenti, potranno esercitare il diritto di opposizione rispetto al trattamento dei loro dati personali, utilizzati per l’esercizio degli algoritmi.
Dovrà essere introdotto anche un sistema di age verification. Così da escludere l’accesso agli utenti infratredicenni e ai minorenni che non hanno il consenso dei genitori.
Conclusioni
Ci troviamo di fronte, elencati tutti i casi di cui abbiamo parlato, a uno dei problemi sorti con l’avvento della tecnologia ad ampio raggio: il “dilemma della macchina“.
Si tratta di una questione etica e filosofica riguardante le decisioni complesse che possono essere intraprese dalle intelligenze artificiali.
Nello specifico, analizzando i meandri di questo problema “esistenziale”, occorre bilanciare gli obiettivi e i valori dell’umanità con la programmazione delle macchine, considerando che le AI possono essere capaci di prendere decisioni autonome che potrebbero non essere completamente prevedibili o controllabili dagli esseri umani.
Pertanto il futuro delle intelligenze artificiali è promettente ed entusiasmante. Ci aspettiamo una crescita esponenziale dell’IA in vari settori, come assistenza sanitaria, trasporti autonomi, analisi dei dati e molto altro.
Tuttavia, sarà fondamentale affrontare sfide etiche, garantire la trasparenza e l’accountability per sfruttare appieno il potenziale dell’IA in un mondo sempre più connesso.
Fonte: articolo di redazione lentepubblica.it