Gelecekteki tartışmalar ve milletlerarası krizlerin merkezinde, suni akıl yazılımları kadar hazırlanmış aşırı gerçekçi görüntüler yer alabilir. Nasıl bugün bir fotoğrafın farklı kesitleri bambaşka anlamlar açıklama ediyorsa, gelecekte bu manipülasyonu yapacak şeyler yazılımlar olacak. Bir kanıt mı aradınız?

Sahte haberlerdeki sahte görüntülerin tekrar tekrar ortalığı karıştırdığı bir dünyada yaşıyoruz. Mısır’da patlatılan bombaların, başka başka yerlerde patlatılmış gibi gösterildiği görüntüler var. Hatta zarar görmüş ve ölü insanların olduğundan bambaşka bir şekilde, öbür yerlerde gösterildikleri görüntüler… Herkesin okuduğu veya duyduğu haberin kaynağını doğrusu de ısrarla sorgulaması koşul. Peki ya bundan böyle görüntülerin adreslerini değiştirmekten daha öteye gidildiğini söylesek? 

Geçtiğimiz sene Barrack Obama’nın bir takım görüntüleri üstünde başarılı şekilde oynama yapan bir yazılımın birincil çıktıları paylaşılmıştı. Görüntülerde eski ABD başkanı Obama’nın normalde söylemediği şeyleri söylerken izliyorduk. Hemen ise benzer projeden ayrı sonuçların olduğu yeni gelişmeler var. 

Deep Video Portraits projesi, bir yılda böyle bir gelişme kaydetti:

Referance bölümü, gerçek görüntülerin olduğu ya da aktörlerin canlandırdığı hakiki kısmını, Our Result bölümü ise araştırmalar sonucunda sentezlenen sahte görüntüyü açıklama ediyor. 

Sistemin alıştırma mantığını özet olarak özetleyelim: Herhangi bir insanın yüzü, oluşturulacak son görüntülerdeki kişinin yüz hareketleri ve mimikleri için referans olarak alınıyor. Sonrasında ifadesi değiştirilmek istenen kişinin dingin bir fotoğrafı, referans kişinin ifadeleriyle harekete geçiyor. sonuç olarak ifadelerinde manipülasyon uygulanmak istenen kişinin istenen görüntüsü ortaya çıkmış oluyor. 

Yani Putin’e “Yaşasın Amerika” dedirtebiliyorsunuz:

Portre videoların aşırı gerçekçi animasyonları, medyanın elinde büyük bir kaosun silahına dönüşebilir. Yeni tekniklerle kafanın 3 boyutlu rotasyonları da inceleniyor ve konuşmaya boyun hareketlerinden kaynaklanan kafa jestleri de dahil ediliyor. Daha doğal, daha gerçekçi ve insansı görüntüler oluşmuş oluyor. 

Yeni sistemde herkes laf konusu mimikler ve jestler için gönüllü aktör olabiliyor, istediği insana istediğini söyletebiliyor:

gerçi bazı açılardan bakıldığında sistemin mükemmel olmadığını, ancak fazla etkileyici olduğunu bildirmek lüzumlu. 

Bu sistemin bununla beraber filmlerdeki bambaşka dilde dublajların uyumu için de kullanılacağı söyleniyor. Bu Nedenle dil farklılıklarından doğan ağız hareketlerindeki değişimde ahenk sağlanabilir. 

Kaynak : https://gizmodo.com/deepfake-videos-are-getting-impossibly-good-1826759848

CEVAP VER

Please enter your comment!
Please enter your name here