deep-fake-app-che-falsificano-voci-garante-privacyIn un comunicato stampa il Garante della Privacy annuncia di aver aperto un’istruttoria in merito al problema del deep fake: nello specifico per quanto riguarda le app che falsificano voci.


Il fenomeno del cosiddetto deep fake, in sintesi, è una tecnica per la sintesi dell’immagine/voce umana basata sull’intelligenza artificiale: si usa per combinare e sovrapporre immagini e video esistenti con video o immagini originali e distorcene il significato originale.

Il fenomeno spesso risulta usato a fin satirici, ma alle volte è stato utilizzato per creare fake news, bufale e truffe, per compiere atti di cyberbullismo o altri crimini informatici di varia natura.

Adesso il nostro Garante della Privacy ha deciso di intervenire sulla materia.

Deep fake e app che falsificano voci: Garante Privacy apre istruttoria

Il Garante per la protezione dei dati personali ha aperto un’istruttoria nei confronti di alcune società che forniscono app che, da notizie di stampa, consentirebbero di riprodurre file di testo mediante voci false, ma realistiche, di personaggi noti, anche italiani.

Le preoccupazioni del Garante si indirizzano verso i potenziali rischi che potrebbero determinarsi da un uso improprio di un dato personale, quale è appunto la voce.

L’Autorità ha dunque chiesto alle società interessate di trasmettere con urgenza ogni possibile elemento utile a chiarire l’iniziativa.

Si dovrà, tra l’altro, fornire la modalità di “costruzione” della voce dei personaggi famosi, il tipo di dati personali trattati, nonché le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l’app.

Infine risulterà utile indicare l’ubicazione dei data center che archiviano i dati personali, sia con riferimento agli utenti registrati dall’Italia, sia ai personaggi noti, e le misure tecniche ed organizzative adottate per garantire un livello di sicurezza adeguato al rischio.

 


Fonte: articolo di redazione lentepubblica.it