Thales:metamodello per rilevare immagini deepfake generate da IA


L’intelligenza artificiale è il tema centrale della European Cyber Week di quest’anno, che si terrà dal 19 al 21 novembre a Rennes, in Bretagna. In concomitanza a questo evento l’AID francese ha lanciato una sfida a cui Thales ha risposto sviluppando un metamodello per il rilevamento di immagini false generate dall’intelligenza artificiale. Con l’aumento dell’uso delle tecnologie di intelligenza artificiale, in un momento in cui la disinformazione sta diventando sempre più diffusa e ha un impatto su ogni settore dell’economia, il metamodello di rilevamento dei deepfake offre un modo per combattere la manipolazione delle immagini in molteplici casi, come la lotta contro le frodi di identità.
Le immagini generate dall’intelligenza artificiale vengono create utilizzando piattaforme come Midjourney, Dall-E e Firefly. Alcuni studi hanno previsto che nel giro di pochi anni l’uso di deepfake per furti di identità e frodi potrebbe causare enormi perdite finanziarie. Gartner ha stimato che circa il 20% degli attacchi informatici nel 2023 ha probabilmente incluso contenuti deepfake nell’ambito di campagne di disinformazione e manipolazione. Il rapporto[1] evidenzia il crescente uso dei deepfake nelle frodi finanziarie e negli attacchi di phishing.

“Il metamodello di rilevamento dei deepfake di Thales affronta il problema delle frodi di identità e delle tecniche di morphing”, ha affermato Christophe Meyer, Senior Expert in AI e CTO di cortAIx, l’acceleratore AI di Thales. L’aggregazione di più metodi che utilizza reti neurali, rilevamento del rumore e analisi della frequenza spaziale ci aiuta a proteggere meglio il crescente numero di soluzioni che richiedono controlli biometrici dell’identità. Si tratta di un notevole progresso tecnologico e di una testimonianza dell’esperienza dei ricercatori di intelligenza artificiale di Thales”. (AGI)