Deepfake Videolarının Büyüyen Tehdidi

Deepfake videoları büyüyen bir tehdittir. Öncelikle bir sosyal mühendislik aracıdır. Kimlik avı saldırılarında, BEC saldırılarında, itibar saldırılarında ve kamuoyu saldırılarında (seçim karışıklığı gibi) giderek daha fazla kullanılacağı anlamına gelir. Tüm bu alanlarda var olan yöntemler zaten başarılıyken; Deepfake  videoların gelişi onları farklı bir seviyeye taşıyacaktır.

Deepfake videoları, bir kişinin (hedef, örneğin bir şirket CFO’su) neredeyse kusursuz bir video görüntüsünü bir başkasına (sahte bir oyuncu gibi) eşlemek için yapay zekayı kullanan videolardır. Hedefin video görüntüsü hareketsiz fotoğraflardan oluşturulabilir ve daha sonra sahte hareket eden görüntü ile eşleştirilir. Benzer şekilde mevcut hedef kayıtlardan elde edilen yapay zeka ile oluşturulan ses daha sonra eklenir. Sonuç olarak, hemen hemen her şeyi söyleyen neredeyse herkesin bir videosunu üretmek mümkündür. Metin tabanlı BEC’nin 2018’de 1,3 milyar dolar çalmayı başardığı durumlarda , CEO’dan fonların yeni bir ‘tedarikçiye hızlı bir şekilde aktarılmasını isteyen bir video mesajının gelmesi daha da cazip olacaktır.

Bunun başladığını gösteren kanıtlar var. Temmuz ayında, Symantec, üç sesli  dolandırıcılık vakası gördüğünü söyledi. “Her birinde, “bir şirketin CEO’su, acil para transferi talebinde bulunmak için kıdemli bir mali memur çağırdı ve isimleri açıklanmayan bir şirketten milyonlarca dolar çalındı.”

Deepfakes gerçek riskleri temsil ediyor diyen ZeroFOX en önemli araştırmacı mühendislerinden Matt Fiyat şöyle diyor, “Sahte bir şirket birleşme duyurusunun, ırkçı bir ifadenin, vb. sonuçları, yanlışlık anlaşılmadan viral bir şekilde patlayabilir. Bir olay, bir şirketin değerine, markasına ve iyi niyetine zarar verebilir veya bir siyasi adayın adını sabote edebilir. ”

Örneğin, Haziran 2019’da, Facebook CEO’su Mark Zuckerberg’in Facebook’un gücü hakkında bir konuşma yaptığını ve hiç söylemediği şeyleri söyleyen sahte bir videosu,  Instagram’a gönderildi .

O’Reilly Media’nın veri bilimcisi Ben Lorica SecurityWeek’e verdiği demeçte, “Sahte medya üretme teknolojilerinden ve araçlarından yararlanmak için bir ulus devlet olmanıza veya derin kaynaklara sahip olmanıza gerek yok.” . “Ayrıca, birçok platform viralite sağlayan araçlara sahiptir. Dolayısıyla, sahte içerik oluşturmak  kolay değil, yayılması da daha kolaydır.” dedi.

Price ve ZeroFOX deepfake algılama tespiti için çalışan şirketler arasında. Şirket, Ağustos 2019’da güvenlik açığı tespitine derinlemesine algılama eklendiğini açıkladı. Price, zorlayıcı deepfake videoları oluşturmak için mevcut teknolojik zorlukları ve algılama yeteneklerinin otantiklik ipuçları için nasıl göründüğünü açıkladı.

“Yüksek kaliteli bir derin görüntü oluşturmak için doğru olması gereken en önemli şeylerden biri, AI eğitim veri kümenizi doğru bir şekilde elde etmektir, bu doğru görüntüleri yakaladığınızdan emin olmak anlamına gelir. ”

İnsanlar konuşurken konuşurken gözlerini kırpar. Ancak insanlar internette yayınladıkları fotoğraflarda göz kırpmıyorlar. Bunu örtbas etmek için saldırganın hedef için göz kırpan  başka bir kaynağa ihtiyacı olduğunu açıklandı. “Hedefin ne kadar halka açık olduğuna bağlı olarak, bu kolay veya zor olabilir. Genel olarak, hedefin gözlerini kapalı olarak gösteren bir görüntü bulmak için, o kişinin en az bir videosunu bulmanız ve ardından göz kırptığı gerçekte bulundukları kareleri çıkarmanız gerekir. ” Ardından hedefin profili ne kadar yüksek olursa, deepfake bir video oluşturmak o kadar kolay olur. Hedef ne kadar özel olursa, o kadar zor olur.

“İkinci bir zorluk,” diye devam etti “, aydınlatma koşullarının ve arka planın en azından hedef videoya benzer olduğundan emin olmanız gerekir. Aydınlatma koşulları iyi değilse  veya arka plan sahneleri sıralanmıyorsa, sonuçta ortaya çıkan videonun sahte olduğu açıkça görülüyor, çünkü işler doğru görünmüyor. ”

Üçüncüsü, hedefin yüzünün belirli alanlarını sahte videoya eşlediğinizde ölçeklendirme ve döndürme gerektiğini söyledi.  “Saldırganın video görüntüsüne uyması için ağzını döndürmesi ve ölçeklendirmesi gerekecek. Ölçeklendirme ve döndürme gibi işlemler yaptığınızda, görüntünün piksellerinde geride dönmenin yapıldığını gösteren kanıtlar vardır.

Ancak deepfakes yeni bir saldırı tekniğidir . ZeroFOX gibi savunucular da algılama yetenekleriyle cevap veriyorlar. Saldırganlar aynı zamanda bu algılamayı yenme girişimleriyle de cevap verecek. Gelecekte deepfake’in nasıl kullanılacağını henüz bilmiyoruz. Sosyal mühendisliğin çeşitli uygulamaları vardır. Deepfake teknolojisi nihayetinde yüz biyometrik kimlik doğrulamasını yenmek için bir yetenek sağlayabilir mi?

Kesin olan tek şey, deepfake tehdidinin öngörülebilir gelecek için tahmin edilebilir olduğudur ve kısa vadede daha da kötüleşeceğidir.

SecurityWeek

About The Author

Reply