Il termine “deepfake” è ormai entrato nel lessico comune, suscitando interesse e preoccupazione allo stesso tempo. Questa tecnologia, che combina “deep learning” (apprendimento profondo) e “fake” (falso), permette di creare video e audio estremamente realistici ma falsi, utilizzando intelligenza artificiale e machine learning.
Ma che cosa si intende effettivamente per deepfake? Come ci si può proteggere dalle minacce? Andiamo ad esplorare tutto ciò che c’è da sapere e quali misure preventive possono essere adottate per proteggersi dalle potenziali minacce.
Cosa sono i deepfake?
I deepfake sono contenuti multimediali, solitamente video o audio, risultati di sofisticate tecniche di intelligenza artificiale che permettono di sovrapporre visi e voci su video esistenti, rendendo quasi impossibile distinguere il vero dal falso con il solo occhio umano. Questa tecnologia si basa su algoritmi di apprendimento automatico chiamati reti neurali, che analizzano e imitano l’aspetto e le movenze di persone reali.
Questi algoritmi permettono di creare o modificare file audio e video per far apparire e sembrare che persone reali dicano o facciano cose che non hanno mai realmente detto o fatto. Il termine “deepfake” deriva dall’unione delle parole “deep learning” e “fake” (falso).
I dati di partenza possono essere raccolti da immagini, video e registrazioni audio esistenti. Dopo aver analizzato abbastanza dati, il sistema AI può generare nuovi contenuti che appaiono sorprendentemente realistici. Questa capacità di replicare l’aspetto e i comportamenti umani ha creato numerose opportunità nel campo dell’intrattenimento e della personalizzazione dei media, ma porta anche gravi rischi e questioni etiche, tra cui la diffusione di disinformazione, manipolazioni politiche e violazioni della privacy.
Come vengono creati i Deepfake?
La creazione di deepfake avviene attraverso un processo complesso che utilizza tecnologie avanzate di intelligenza artificiale, in particolare il deep learning. Ecco una panoramica dettagliata dei passaggi coinvolti:
- Raccolta dei dati: il primo passo nella creazione di un deepfake è la raccolta di un ampio dataset di immagini e video della persona che si intende replicare. Questi dati sono fondamentali perché forniscono le informazioni visive necessarie per addestrare il modello di intelligenza artificiale;
- Preparazione dei dati: i dati raccolti vengono poi processati per garantire che siano uniformi in termini di qualità, dimensione e formato. Questo passaggio può includere la normalizzazione dell’illuminazione, l’allineamento dei visi e altre forme di pre-elaborazione per migliorare l’efficacia dell’apprendimento del modello;
- Addestramento dei modelli AI: i deepfake sono comunemente creati utilizzando una tecnica chiamata “Generative Adversarial Network” (GAN). Una GAN consiste di due reti neurali che competono tra loro. Il generatore, che crea immagini, e il discriminatore, che valuta la loro autenticità. Il generatore cerca di produrre immagini tanto realistiche da ingannare il discriminatore, mentre il discriminatore impara a distinguere sempre meglio tra immagini reali e generate. Questo processo di competizione continua fino a quando il generatore non produce risultati che il discriminatore non riesce più a distinguere dalle immagini reali;
- Generazione dei deepfake: una volta che il modello è adeguatamente addestrato, può essere utilizzato per generare deepfake. In questa fase, nuovi input possono essere introdotti al modello per creare contenuti specifici. Per esempio, si può inserire un nuovo video di una persona che parla e il sistema AI applicherà il viso di un’altra persona sopra quella nel video originale, sincronizzando i movimenti labiali e le espressioni facciali in modo che sembri naturale;
- Rifinitura: il video deepfake generato può essere ulteriormente rifinito per migliorare la qualità e ridurre gli artefatti visibili, come discrepanze nei bordi del viso o anomalie nei movimenti. Questo può includere l’uso di altre tecniche di editing video o software specifici per affinare il risultato finale. Questo processo richiede significative capacità computazionali e una grande quantità di dati per produrre risultati convincenti, ed è per questo che i deepfake più realistici sono spesso il risultato di sistemi avanzati e risorse dedicate.
Prevenire le minacce dei deepfake
Per contrastare le minacce poste dai deepfake, è fondamentale sviluppare tecnologie capaci di rilevarli. Molti ricercatori stanno lavorando su sistemi di rilevamento che possono identificare anomalie impercettibili nei video. Diverse strategie possono essere adottate per mitigare questi rischi:
- Tecnologie di rilevamento: lo sviluppo e l’impiego di tecnologie avanzate per rilevare i deepfake sono fondamentali. Questi sistemi si basano spesso su intelligenza artificiale che, attraverso l’analisi di dettagli sottili nelle immagini e nei video che possono sfuggire all’occhio umano, è in grado di identificare discrepanze che indicano una manipolazione. Per esempio, incongruenze nel lampeggio degli occhi, stranezze nel respiro, o anomalie nei movimenti della pelle possono essere indicatori di video manipolati;
- Legislazione e regolamentazione: L’introduzione di leggi più stringenti può disincentivare l’uso improprio dei deepfake. Questo include regolamenti che puniscono la creazione e distribuzione di contenuti falsi dannosi, proteggendo individui da diffamazione, manipolazione e altre forme di abuso;
- Educazione e consapevolezza: campagne di sensibilizzazione possono aiutare le persone a sviluppare un approccio più critico nei confronti dei media che consumano, particolarmente in contesti sensibili come elezioni e altre decisioni importanti;
- Autenticazione e verifica dei media: promuovere l’uso di tecnologie di watermarking digitale e di autenticazione dei contenuti può aiutare a verificare l’origine e l’integrità dei media. Questi strumenti possono essere integrati nelle piattaforme di condivisione di video e social media per segnalare automaticamente i contenuti che non superano i test di autenticità;
- Collaborazione tra piattaforme: le piattaforme di social media e i fornitori di tecnologia possono collaborare per condividere tecnologie, strategie e intelligenza artificiale per rilevare e segnalare rapidamente i deepfake. Un approccio collaborativo può aumentare l’efficacia delle misure preventive su scala più ampia.
Poiché Internet non ha confini, le normative efficaci contro i deepfake richiedono cooperazione internazionale. Gli accordi tra paesi possono facilitare la coerenza delle leggi e delle norme di applicazione, creando una rete più solida contro la diffusione globale di contenuti dannosi.