top of page

Tutele legali contro i deepfake audio

1. Truffe telefoniche e deepfake

Le truffe telefoniche basate su voci clonate tramite algoritmi di intelligenza artificiale stanno avendo una diffusione sempre più ampia. L’elevato grado di realismo ottenibile grazie ai deepfake audio rende estremamente difficile distinguere una voce autentica da una generata artificialmente, ponendo interrogativi non solo sul piano penale, civile e della protezione dei dati personali, ma anche su quello sociale.

Un caso emblematico in Italia ha riguardato il Ministro della Difesa, Guido Crosetto, la cui voce sarebbe stata clonata da un gruppo di truffatori per indurre diversi imprenditori a versare ingenti somme di denaro. La truffa si è basata sulla notizia dell’arresto della giornalista Cecilia Sala in Iran, sfruttando l’emotività e l’urgenza percepita per simulare richieste di riscatto a favore di presunti giornalisti rapiti in Medio Oriente. I soggetti autori della truffa avrebbero utilizzato numeri di telefono falsi, alcuni dei quali riportanti il prefisso di Roma. Mentre alcuni destinatari della richiesta sono riusciti a percepire la natura fraudolenta della comunicazione, un imprenditore milanese, indotto in errore, avrebbe effettuato due distinti versamenti per un importo complessivo pari a un milione di euro.

In un altro episodio, una donna di 84 anni a Treviso è stata indotta a consegnare trentamila euro a un truffatore che aveva clonato la voce della figlia, fingendo un incidente stradale e una situazione d’emergenza.

Questi casi dimostrano la pericolosità sociale dei deepfake audio, in grado di colpire chiunque, sfruttando la fiducia e la vulnerabilità delle vittime. Oltre al danno patrimoniale, tali truffe possono generare traumi psicologici, sentimenti di colpa, e insicurezza, minando la fiducia nelle comunicazioni interpersonali.

 

 

2. La tecnologia alla base dei deepfake audio

I deepfake audio si basano su sistemi Text-To-Speech (TTS) avanzati, capaci di generare audio che riproducono con estrema precisione la voce di una persona a partire da un breve campione vocale. Questi modelli vocali personalizzati, detti «skin» vocali, consentono di replicare fedelmente tonalità, timbro, accento, cadenza ed emozioni, rendendo la voce clonata indistinguibile da quella reale.

Le skin vocali analizzano campioni vocali dell’utente (talvolta anche di pochi secondi) per generare una sorta di «voce digitale» riutilizzabile. In seguito, testi o registrazioni di altro tipo possono essere convertiti in parlato artificiale, come se provenissero dalla persona clonata. Alcune piattaforme commerciali offrono questi servizi per finalità legittime, come la creazione di audiolibri o l'assistenza vocale personalizzata, ma l'assenza di limiti tecnici e controlli ne permette anche un uso fraudolento.

L’evoluzione dell’intelligenza artificiale generativa ha reso tale tecnologia sempre più accessibile, grazie a modelli open-source e piattaforme online che offrono servizi di clonazione vocale a basso costo. La facilità d’uso, unita all’anonimato garantito in rete e alla mancanza di controlli preventivi, favorisce un impiego improprio dei deepfake audio, spesso per finalità ingannevoli o criminali.

 

 

3. Tutele penali in Italia

L’ordinamento penale italiano non disciplina esplicitamente i deepfake audio, ma offre strumenti normativi per contrastare condotte fraudolente basate su questa tecnologia. I reati applicabili includono:

  • truffa (art. 640 c.p.), che punisce chi, con artifizi o raggiri, induce taluno in errore, procurandosi un ingiusto profitto con altrui danno. La clonazione vocale rientra tra i raggiri idonei a trarre in inganno la vittima;

  • sostituzione di persona (art. 494 c.p.), che punisce chi si sostituisce fraudolentemente ad altra persona. L’uso di una voce clonata per impersonare un soggetto reale integra gli estremi del reato;

  • interferenze illecite nella vita privata (art. 615-bis c.p.), applicabile se la clonazione vocale comporta la captazione o diffusione non autorizzata di dati personali, specie in contesti sensibili.

Eventuali aggravanti possono derivare dalla minorata difesa della vittima (ad esempio, per età avanzata) o dal danno patrimoniale ingente.

 

 

4. Profili di responsabilità civile

Oltre alla responsabilità penale, la vittima può agire in sede civile per ottenere il risarcimento del danno patrimoniale e non patrimoniale. La violazione della riservatezza e l’abuso dell’identità altrui tramite deepfake audio possono integrare anche illeciti extracontrattuali (art. 2043 c.c.). Tuttavia, l’individuazione dei responsabili e il recupero dei fondi restano complessi, specialmente in caso di trasferimenti internazionali oppure l’utilizzo di criptovalute.

 

 

5. GDPR, DSA e AI Act: tutele a livello UE

A livello europeo, le normative che disciplinano la protezione dei dati e le implicazioni legali dei deepfake audio sono le seguenti.

  • General Data Protection Regulation (GDPR): ai sensi del Regolamento UE 2016/679, un audio che riproduce fedelmente la voce di una persona costituisce dato personale (art. 4, comma 1, GDPR). Inoltre, quando la voce è trattata per identificare univocamente una persona, può qualificarsi come dato biometrico (Considerando 51 GDPR). La clonazione vocale non autorizzata può quindi violare il diritto alla protezione dei dati personali (art. 5 GDPR), in particolare i principi di liceità, correttezza, trasparenza e limitazione delle finalità. Le vittime possono esercitare il diritto all’oblio, ovvero ottenere la cancellazione dei contenuti (art. 17 GDPR), e possono presentare reclami alle autorità di controllo.

  • Digital Services Act (DSA): il DSA impone alle piattaforme online obblighi di trasparenza e moderazione dei contenuti ingannevoli, compresi i deepfake audio. In particolare, impone alle piattaforme di grandi dimensioni (VLOPs) l’obbligo di effettuare una valutazione annuale dei rischi sistemici derivanti dai loro servizi, compresi i rischi legati alla disinformazione, alla manipolazione delle informazioni e all’uso fraudolento dell’intelligenza artificiale (art. 34 DSA). Inoltre, queste piattaforme devono adottare misure di mitigazione per affrontare tali rischi, che possono includere sistemi di rilevamento dei contenuti ingannevoli, come i deepfake audio, e l’attuazione di pratiche di trasparenza algoritmica (art. 35 DSA).

  • Artificial Intelligence Act: l’AI Act introduce un quadro giuridico per l’uso dell’intelligenza artificiale volto a garantire un impiego sicuro e conforme ai diritti fondamentali e i sistemi di IA generativa rientrano tra i sistemi disciplinati dal Regolamento. I deepfake audio, essendo classificati come sistemi a rischio limitato, devono rispettare determinati obblighi di trasparenza, tra cui: (i) informare chiaramente l’utente che il contenuto è stato generato da un sistema di IA e (ii) adottare misure per segnalare e rendere identificabili i contenuti generati, attraverso watermarking o etichette digitali (art. 50 AI Act). Inoltre, i deepfake audio potrebbero essere classificati come IA ad alto rischio se utilizzati in ambiti sensibili come la pubblica sicurezza, la manipolazione politica ed elettorale (art. 6, comma 2 AI Act). In tali casi, i fornitori devono rispettare requisiti stringenti, tra cui valutazioni d’impatto, documentazione tecnica e sorveglianza umana.

 

 

6. Conclusione

I casi dimostrano come la diffusione dei deepfake audio non sia più una minaccia ipotetica, ma una realtà capace di produrre danni concreti, economici e psicologici. Sebbene l’ordinamento giuridico offra già strumenti per contrastare queste condotte, l’efficacia delle tutele dipende dalla loro capacità di adattarsi a un fenomeno che è in continua e rapida evoluzione.

La prevenzione e il riconoscimento tempestivo dei deepfake audio rappresentano oggi una priorità, sia per le autorità che per i cittadini. In questo contesto, è essenziale interrogarsi su possibili soluzioni normative e tecnologiche che possano rafforzare la protezione delle persone di fronte a un uso sempre più pervasivo dell’intelligenza artificiale.

Comentários


bottom of page