Deepfakes: vero e verosimile nell’era della mistificazione digitale

Nell’attuale era tecnologica come si distingue il vero dal verosimile? Come si possono evitare fenomeni di mistificazione digitale di massa? Oggi mi occuperò dei cd. deepfakes che si candidano a diventare uno dei problemi maggiori con cui si dovrà misurare la classe politica internazionale e l’opinione pubblica. 

Definizione del deep fake

Innanzitutto definiamo il deep fake: si tratta di una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale, usata per combinare e sovrapporre immagini e video esistenti con video o immagini originali, tramite una tecnica di apprendimento automatico, conosciuta come “rete antagonista generativa” (fonte Wikipedia).

In pratica si tratta di video manipolati con l’intelligenza artificiale, la quale è in grado di sovrapporre il volto di una persona ad un’altra ripresa in un video, con una verosimiglianza sorprendente.

Il termine deep fake ha iniziato a diffondersi nell’autunno del 2017 quando un utente di Reddit, utilizzando lo pseudonimo “Deepfakes”, ha pubblicato finti video porno di persone famose. Erano video in cui al volto di un’attrice o di un attore porno veniva sostituito quello di un attore cinematografico di Hollywood, attraverso una tecnica chiamata “generative adversarial networks” o GAN.

Possibili applicazioni distorte dei deep fakes

Senza scendere nel dettaglio tecnico, sia sufficiente sapere che tale strumento tecnologico – attualmente sempre più alla portata della collettività grazie all’incessante sviluppo tecnologico – si presta ad utilizzazioni facilmente distorte. Solo per citare alcune modalità di utilizzo “improprio”:

  • diffusione di fake news attraverso la pubblicazione di video artefatti di personaggi politici ai quali si fanno esprimere concetti e frasi potenzialmente idonei a generare problemi di natura diplomatica o a generare una repentina modificazione della pubblica opinione;
  • diffusione attraverso varie piattaforme di filmati pornografici verosimili, mediante l’applicazione del volto di una persona diversa rispetto all’attrice/attore effettivamente impegnato nell’atto sessuale.

Partiamo dal primo punto.

L’impiego dei deepfakes come portentoso veicolo di diffusione di “bufale”. Il tema delle fake news è purtroppo all’ordine del giorno, poiché sempre più spesso vengono veicolate attraverso i social network notizie completamente false. Ecco, ora soffermiamoci a riflettere sulla magnitudine di una bufala se veicolata non attraverso un articolo di giornale, ma mediante uno strumento più “reale”, o quantomeno percepito come tale dalla generalità degli utenti: un video. In questo video il personaggio politico di turno potrebbe proferire parole offensive verso uno Capo di Stato estero, oppure potrebbe confessare di aver commesso le peggiori nefandezze.

Ecco ora immaginiamo che un video del genere, opportunamente trattato con la tecnologia del face swap, venisse diffuso a pochi giorni da un’importante tornata elettorale.

Quali potrebbero essere gli effetti sull’opinione pubblica? Potenzialmente devastanti, potendo tale “inconfutabile” prova video orientare il voto politico a favore dell’uno o dell’altro schieramento, oppure screditare in maniera pressoché irreversibile il proprio avversario.

Se pensate che uno scenario simile sia fantascientifico, che l’utente medio riconoscerebbe il vero dal verosimile, siete in errore.

Di recente il regista statunitense Jordan Peele, proprio per sensibilizzare l’opinione pubblica sui rischi connessi alla diffusione di notizie false attraverso questa nuova tecnologia, ha pubblicato (in collaborazione con Buzzfeed) un video in cui l’ex Presidente degli USA Barack Obama affermava che “il Presidente Trump è un totale e completo imbecille”.

Ma vi è di più.

Immaginiamo che attraverso questa tecnica si simulino video conferenze tenute da CEO di importanti aziende strategiche, durante le quali vengano annunciate informazioni false sul futuro delle società coinvolte. L’effetto sul mercato potrebbe essere potenzialmente devastante.

Attualmente, secondo recenti studi, la tecnica del deep fake è per lo più utilizzata nell’ambito dei finti filmati pornografici.

E veniamo dunque al secondo punto della nostra breve analisi.

Generalmente i soggetti maggiormente presi di mira da questo fenomeno sono le attrice famose le quali si trovano a loro insaputa protagoniste di filmati hard mai girati.

Tuttavia il deep fake potrebbe essere utilizzato anche con volti non noti, come ad esempio il vicino di casa o l’ex partner. Basta avere migliaia di foto del soggetto che vuole essere sostituito al protagonista reale del filmato, al resto penserà l’intelligenza artificiale attraverso la tecnologia del machine learning.

La successiva pubblicazione di tali filmati, oltre a costituire di per sé un illecito grave sotto diversi profili, può a sua volta essere ricondotta ad un altro tanto odioso quanto diffuso fenomeno: il revenge porn e in generale il cyber bullismo (di cui ci siamo già occupati in questo post).

In estrema sintesi queste sono solo alcune delle pericolose applicazioni concrete cui si presta questa tecnologia.

Percezione critica: traduzione giuridica dei deep fakes

Ovviamente l’utilizzazione di questa tecnologia nelle modalità precedentemente analizzate, come tutti i fenomeni della realtà, necessita di una puntuale traduzione giuridica.

Pertanto, con riferimento alle ipotesi formulate:

  • l’art. 595 cod. pen. che disciplina e prevede il reato di diffamazione laddove la fake news diffusa, indipendentemente dalla tecnologia impiegata per la sua “costruzione”, sia offensiva della reputazione e dell’onore di un altro soggetto (da intendersi non solo come persona fisica, ma anche come società, azienda e in genere un soggetto collettivo). E’ questo il caso della diffusione di filmati pornografici con la tecnica del face swap;
  • il soggetto diffamato può agire, oltre che ovviamente in sede penale previa querela, anche civilmente per ottenere il risarcimento dei danni subiti per effetto della condotta lesiva del diffamatore;
  • l’art. 629 cod. pen. (estorsione), nelle ipotesi in cui il video venga utilizzato per ricattare il malcapitato;
  • l’art. 580 cod. pen. (istigazione al suicidio), laddove il soggetto protagonista del falso video in preda al più totale scoramento si determini per togliersi la vita;
  • qualora il deep fake sia invece utilizzato allo scopo di manipolare il mercato, a venire in rilievo è l’art. 185 del D. Lgs. n. 58/1998 (Testo Unico dell’Intermediazione Finanziaria) che prevede la reclusione da uno a sei anni e la multa da € 20.000,00 a € 5.000.000,00;
  • il paradosso più evidente si verifica nelle ipotesi di fake news diffuse allo scopo di influenzare l’opinione pubblica in occasione di una tornata elettorale: in questi casi non vi è nessuna fattispecie penale o civile-amministrativa che disciplini in maniera calzante questa ipotesi (fatta eccezione per l’art. 656 cod. pen,, che però appare poco efficace a contrastare questo fenomeno). Il tema è di proporzioni epiche e necessita di essere affrontato con strumenti idonei a fronteggiare il fenomeno (forti sospetti sono stati adombrati anche in relazione alle recenti elezioni europee, come viene riportato in questo articolo). Il codice penale vigente, infatti, prevede e disciplina diverse ipotesi di attentato agli organi dello Stato tutte basate sulla realizzazione di atti violenti. In altri termini il codice non prevede ipotesi di manipolazione dell’opinione pubblica attuate con modalità non violente. Sul punto si segnala il DDL Gambaro comunicato alla Presidenza del Senato il 7 febbraio 2017 e attualmente assegnato alle commissioni riunite Affari costituzionali e Giustizia del Senato ma non ancora approvato. Questo Disegno di legge prevede l’introduzione, tra le altre, degli artt. 265 bis ter del codice penale, allo scopo di punire condotte di turbamento dell’ordine democratico attuate mediante la diffusione online di notizie false.

Questi i rimedi di natura “successiva”. Tuttavia, posto che una volta diffusa a macchia d’olio la notizia falsa o diffamante, anche attraverso il portentoso strumento del deep fake, il danno si è già fondamentalmente prodotto, è necessario approntare rimedi di natura “preventiva” volti ad evitare che tali fenomeni possano verificarsi.

In tal senso, dunque, i colossi del digitale (Facebook, Google, Microsoft etc.) giocano un ruolo fondamentale, dal momento che è principalmente sulle loro piattaforme che viene veicolato questo fenomeno. Occorre cioè che la piattaforma ospite sia in grado di riconoscere la falsità del video prima della sua pubblicazione, con conseguente blocco e segnalazione alle Autorità dell’utente.

A questo scopo Facebook e Microsoft, in collaborazione con il MIT, University of Oxford, UC Berkeley, University of Maryland, College Park, and University at Albany-SUNY, hanno stanziato dei fondi per tentare di riconoscere la natura falsa dei video prima della loro pubblicazione.

Attualmente uno dei sistemi più efficaci per riconoscere un deep fake è l’analisi del battito di ciglia. Come abbiamo visto, per ottenere un video altamente verosimile è necessario avere migliaia di foto del soggetto che si vuole sostituire all’originale.

Orbene, un essere umano sbatte gli occhi ogni 2-10 secondi e tale operazione richiede tra decimo e quattro decimi di secondo ma è altamente improbabile trovare un numero sufficiente di foto ritraenti il soggetto ad occhi chiusi. Ciò significa che l’intelligenza artificiale non avrà materiale cui attingere e pertanto il risultato sarà un video in cui il protagonista difficilmente chiuderà mai le palpebre, avendo pertanto una innaturale fissità dello sguardo (clicca qui per maggiori approfondimenti).

Anche questo rimedio però è successivo, cioè opera solo “a cose fatte” quando il danno si è già prodotto e propagato in maniera irreparabile. Restiamo pertanto in attesa dello sviluppo di una tecnologia efficace che consenta di riconoscere in maniera preventiva la falsità del video onde evitarne la pubblicazione.

 

Avv. Alessandro Ceci

La verità reale è sempre inverosimile […]. Per rendere la verità più verosimile, bisogna assolutamente mescolarvi della menzogna. La gente ha sempre fatto così

Fëdor Dostoevskij

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *