Deepfake e cloni: la linea sottile tra rischi e opportunità
Mentre da tempo, in Italia e in Europa, si discute sulla necessità di regolamentare il sempre più diffuso fenomeno del “deep fake”, in Israele è stata preferita l’opzione della commercializzazione – con tutti i possibili e reali rischi connessi – della propria immagine, al fine di sfruttare e ottimizzare con un preciso obiettivo l’utilizzo di queste nuove forme di intelligenza artificiale.
Un recente approfondimento condotto dal MIT Technology Review ha infatti posto l’attenzione su Hour One, una piattaforma di creazione video end-to-end che utilizza le persone reali per creare dei personaggi digitali – pseudo cloni – al fine di elaborare contenuti di marketing e formativi per le organizzazioni di tutto il mondo, accettando, di conseguenza, l’inevitabile compromesso di un nuovo modo di pensare, in cui vedere e credere smettono di corrispondere (generando così anche possibili problemi di abuso della realtà), oltre al dibattuto profilo di un’adeguata tutela in termini di protezione dei dati personali trattati, dato che l’introduzione di complessi algoritmi e software per trasformare i dati di massa in una risorsa al servizio di processi su larga scala, finisce per incidere sulle persone e sui gruppi, segnatamente nei casi di profilazione o etichettatura.
Al contempo è chiaro che grazie all’avvento dei social network siamo abituati a corrispondere diverse versioni di noi stessi, pertanto mettere a lavoro i propri sé personali sfruttando le nuove dimensioni onlife, può determinare la chiave di svolta per rivoluzionare definitivamente il modo di pensare il web, il proprio lavoro e il proprio tempo.
Infatti, a riguardo, per la creazione dei propri personaggii, Hour One, utilizza una telecamera 4K ad alta risoluzione, registra il linguaggio delle persone e le loro diverse espressioni facciali davanti a uno schermo verde, dopodiché inserendo i dati risultanti in un software di intelligenza artificiale, modellato su tecnologia deep fake, vengono generati una quantità infinita di filmati di quella persona da far in modo che diventi in grado di dire qualsiasi frase in qualsiasi lingua e spingendo i clienti a pagare l’azienda per utilizzarne i rispettivi personaggi in video promozionali o commerciali.
Nel merito, le principali e più diffuse applicazioni sull’uso della piattaforma israeliana sono ritrovabili sia in Alice Receptionist, un’azienda che fornisce ad altri partner commerciali un avatar su uno schermo per gestire le domande dei visitatori, sia in Berlitz, il principale fornitore al mondo di formazione linguistica e culturale che sceglie di adoperare questa tecnologia per evitare di creare costantemente contenuti in uno studio con telecamere e troupe, scegliendo, piuttosto, di generare i suoi programmi di formazione in modo dinamico ed economico ed eliminando, oltretutto, anche la necessità di adoperare tecnici ed esperti per le varie correzioni e montaggi.
Risulta perciò comprensibile, sotto un profilo pratico, la scelta di chi di fronte al compromesso tra la nota lentezza monomaniaca di chi adopera risorse di tipo “analogico” e la velocità dei progressi di questo tipo preferisce correre verso l’adrenalina di nuove e meno dispendiose realtà.
Chiaramente queste nuove forme di sviluppo risultano decisamente allettanti, molto più dinamiche e coinvolgenti per un mondo che aspira a digitalizzarsi sempre più, ma al contempo sembrerebbe opportuno non dimenticare il patto implicito che si cela dietro queste nuove forme di tecnologie: dato che in cambio della comodità, rinunciamo a un po’ di privacy e cediamo una parte del controllo di noi stessi alla macchina.
Infatti, accettando di dar vita ad una rappresentazione alterata della nostra stessa immagine, si pongono, inevitabilmente, rischi in merito all’abuso della propria reputazione online e del proprio essere, oltre che ad un trattamento incontrollato dei propri dati personali. In Europa, ad esempio, il regolamento generale sulla protezione dei dati include anche disposizioni relative al diritto a non essere sottoposti a decisioni basate sul trattamento automatizzato e ciò può, quindi, comportare difficoltà nel garantire un livello adeguato di protezione qualora non sia più possibile un intervento umano o qualora gli algoritmi siano troppo complessi e la quantità di dati coinvolti sia troppo grande per giustificare determinate decisioni o informazioni preliminari per ottenere il consenso degli interessati.
Per queste ragioni la complessità dell’analisi dei magadati e la mancanza di trasparenza che la caratterizza possono richiedere un ripensamento e un rimodellamento dell’utilizzo della tecnologia deep fake, adattando certamente la velocità delle innovazioni al contesto sociale e tecnologico attuale, ma con una sicura regolamentazione che sia in grado di valutare l’impatto dei rischi connessi.
Forse prima di abbandonare definitivamente l’era dell’uso esclusivo e consapevole della propria immagine, per lasciar spazio ad una visione “manipolativa” e fittizia della realtà creata da noi stessi, al solo fine di concedere il nostro tempo ad altre attività, sarebbe opportuno immaginare di intraprendere due strade diverse ma complementari, richiedendo, innanzitutto, un serio intervento legislativo per evitare che si determino gravi compressioni della libertà delle persone fisiche e di quei valori, costituzionalmente garantiti nel nostro ordinamento – e propri anche del mondo internazionale – di dignità e riservatezza, nonché una efficace spinta culturale in termini di consapevolezza, per far comprendere l’importanza e lo studio di questi aspetti in chiave preventiva.
Federica Giaquinta