OW Debug - Notice
Message: Trying to access array offset on value of type null
File: /home/romarekl/public_html/sosyallift.com/ow_plugins/forum/controllers/topic.php
Line: 136
Deepfakes Nedir - Ses ve Görüntü işleme Forum | Sosyallift©
Loading...
 
tr
Serkan BEKİROĞULLARI
Serkan BEKİROĞULLARI Temmuz 29 '20

Deepfakes Nedir - Ses ve Görüntü işleme

Deepfakes, bireyleri ve şirketleri manipüle etmek ve tehdit etmek için kullanılabilir. Ancak teknolojiyi daha iyi anlayarak yöneticiler kendilerini ve şirketlerini korumak için adımlar atabilirler.


Mart 2019'da, İngiltere merkezli bir enerji firmasının CEO'su, patronu - firmanın Alman ana şirketinin lideri olarak - Macaristan'daki bir tedarikçiye 220.000 € aktarılmasını emretti.



Haber raporları daha sonra CEO'nun şefinin sesinin “ hafif Alman aksanını ve melodisini ” tanıdığını ve bir saat içinde parayı transfer etme emrini [yaklaşık 243.000 $ 'a eşitlediğini ”detaylandırdı. Arayan, ikinci kez para almak için birkaç kez daha denedi, ancak o zamana kadar İngiltere yöneticisi şüpheli hale geldi ve daha fazla transfer yapmadı.



220.000 € Meksika'ya taşındı ve diğer hesaplara kanalize edildi ve tanımlanmayan enerji firması olayı sigorta şirketi Euler Hermes Group SA'ya bildirdi. Euler Hermes'li bir yetkili, hırsızların Alman yürütmenin sesinin derinliğini oluşturmak için yapay zeka kullandıklarını, ancak raporların o zamandan beri destekleyici kanıt eksikliğini sorguladığını söyledi .


Ancak kesin olan şu ki, bu tür bir suç için teknoloji mevcut ve bu sadece bir sonraki saldırının ne zaman gerçekleşeceği ve hedefin kim olacağı meselesi.



MIT Açık Belgesel Laboratuarı üyesi Halsey Burgund “Daha dikkatli olma zamanı” dedi . “Birisi internette özgürce ortaya koyduğu her şeyi birisinin bir şeyler yapması için potansiyel eğitim verisi olarak düşünmelidir.”



Verilerin manipülasyonu yeni değil. Eski Romalılar isimleri ve portreleri taştan keserek bir kişinin kimliğini ve tarihini kalıcı olarak sildi. Sovyet lideri Joseph Stalin , 20. yüzyılın ortalarında kişiliğini ve hükümetini kontrol etmek için sansür ve görüntü düzenlemeyi kullandı. Bilgisayar çağının ortaya çıkışı, bir fare tıklamasının bir belini küçültebileceği veya birisini fotoğraftan silebileceği anlamına geliyordu. Günümüzde veri manipülasyonu hala bilgisayarlara dayanmaktadır, ancak enerji firması ile ilgili olayda görüldüğü gibi, insan sesi - ve gittikçe artan bir şekilde, video klipler - birini duydukları veya gördüklerinin gerçek olduğuna ikna etmenin bir yolu olarak kullanılmaktadır.


Ve bir deepfake'yi iyi kullanmak için bir argüman olsa da, uzmanlar onları anlamadan, bir deepfake birinin kişisel ve profesyonel yaşamına zarar verebilir.





Deepfake nedir?

Deepfake, bir görüntü veya videodaki bir kişinin başka bir kişinin benzerliğiyle değiştirildiği belirli bir sentetik ortam türünü ifade eder.


“Deepfake” terimi ilk kez 2017 yılının sonunda aynı adlı bir Reddit kullanıcısı tarafından icat edildi. Bu kullanıcı, çevrimiçi haber ve toplama sitesinde, açık kaynak yüz takas teknolojisini kullanan pornografik videoları paylaştığı bir alan oluşturdu.


Terim o zamandan beri Reddit sayfasından önce var olan “sentetik medya uygulamalarını” ve DeepGee tespitinde tehdit istihbaratı başkanı Henry Ajder, StyleGAN - “var olmayan insanların gerçekçi görünümlü durağan görüntüleri” gibi yeni kreasyonları içerecek şekilde genişletildi. şirketi Deeptrace .




Daha yakın örneklerde, deepfakes, telefon hattının diğer ucunda patronunuz, Facebook'un Mark Zuckerberg'i, milyarlarca insan verisine sahip olmanın ne kadar harika olduğunu belirten düzenlenmiş bir videoda veya koronavirüsü bağlayan Belçika başbakanı gibi görünen bir ses olabilir. manipüle edilmiş bir konuşma sırasında iklim değişikliğine salgını .


Ajder, “Terimin anlaşılır bir şekilde olumsuz bir çağrışımı var, ancak işletmeler için, özellikle de pazarlama ve reklamcılıkta iyi bilinen markalar tarafından zaten kullanılan uygulamalar için potansiyel olarak faydalı kullanım örnekleri vardır .


Ajder, bu yüzden bu alanda giderek artan sayıda insanın “yapay zeka tarafından üretilen sentetik medya” terimini kullandığını söyledi. Deepfake'nin orijinal tanımını içerecek kadar geniş olmakla birlikte, her ikisi de teknik olarak değiştirilmiş bir şeyin örnekleri olan filmlerden bilgisayar tarafından oluşturulan görüntüler veya photoshopped görüntüler gibi şeyleri atlayacak kadar spesifiktir.





Deepfake videosunu nasıl yaparsınız?

Deepfake bir video yapmak için, bir içerik oluşturucu bir kişinin yüzünü değiştirir ve yüz tanıma algoritması ve değişken bir otomatik kodlayıcı [VAE] adı verilen derin öğrenme bilgisayar ağı kullanarak yerini alır ve Affective Computing'in araştırma asistanı Matt Groh, Grup en MIT Media Lab .


VAE'ler görüntüleri düşük boyutlu temsillere kodlamak ve daha sonra bu temsillerin görüntülere tekrar kodunu çözmek üzere eğitilir .


Örneğin, Oscar kazanan film yıldızı Nicolas Cage ile herhangi bir videoyu bir derin yüze dönüştürmek istiyorsanız, biri otomatik olarak enkodere ihtiyacınız olacak - biri aktörün yüzünün görüntüleri üzerinde eğitilmiş, diğeri ise çok çeşitli karşı karşıyadır.


Her iki eğitim seti için kullanılan yüzlerin görüntüleri, doğal olarak meydana gelen farklı pozları ve aydınlatma koşullarını yakalamak için video karelerine bir yüz tanıma algoritması uygulanarak küratörlüğünde olabilir.


Bu eğitim yapıldıktan sonra, farklı yüzler üzerinde eğitilen kodlayıcıyı Nicolas Cage'ın yüzleri üzerinde eğitilmiş kod çözücü ile birleştirirsiniz, bu da oyuncunun yüzünün başkasının vücudunda yüzüne neden olur.





Deepfakes örnekleri

MIT Gelişmiş Sanal Gerçeklik Merkezi'nin XR yaratıcı direktörü Burgund ve birlikte yaratıcısı Francesca Panetta, derinlikleri için tartışmasız daha da ünlü bir konu seçti: eski Başkan Richard Nixon.


Çift , 2019'da Nixon'un istifa konuşmasının gerçek görüntülerini ve başarısız bir aya iniş durumunda Nixon konuşma yazarı Bill Safire tarafından yazılan bir hatıra içi taslak konuşma metnini birleştiren bir sanat enstalasyonu inşa etti . Sonuç, içerik oluşturucuların uydurma konusunda şeffaf olma çabalarına rağmen, bazı izleyicileri konuşmanın sözünü bırakan bir versiyonu olduğunu düşünmeleri için kandırmış olan derin bir video.


Panetta, “Projenin amacı, derin yüzeylerin neye benzediğini göstermek için bir tür yaratıcı ve çağrışımcı bir yol bulmaktır. “İnsanlara varlıkları ve ne kadar gerçekçi olabilecekleri konusunda farkındalık vermek.”


Panetta ve Burgund, bir aktör Lewis D. Wheeler ile birlikte çeşitli Nixon konuşmalarının yanı sıra beklenmedik konuşmaları, doğru “başkanlık” tonunu ve kadansını elde etmek için yüksek sesle okumak için çalıştı. Daha sonra kayıt sentetik sesler konusunda uzmanlaşmış Respeecher'e gönderildi - bu durumda aktörün sesini Nixon'a dönüştürdü.


Canny AI , söylenenlere uyması için yapay zekanın - özellikle video diyaloğunun değiştirilmesinin - şirketi, Nixon'un ağzının çevresindeki alanı, başının ve yüzünün ve ellerinin hareketini değiştirmek için kullandı.







Burgund, “Kesinlikle 'basın düğmesine basın: deepfake yaratın' çok uzak. “Bu hiç de öyle değil. % 80'ini alabilecek çok, çok kolay olan şeyler var, ancak mevcut teknolojiyle mümkün olduğunca inandırıcı olabilmek için mümkün olduğunca ileri gitmek istedik. ”



Cambridge, Massachusetts merkezli bir şirket olan Modulate'de mühendisler çevrimiçi oyunlarda ve sosyal platformlarda kullanılmak üzere “ses görünümleri” oluşturuyor. Modulate'in müşterileri, çevrimiçi deneyim platformu (çevrimiçi oyun) endüstrisindeki şirketlerdir. Oyun şirketlerinin satın alma ve oyun deneyiminin bir parçası olarak müşterilerine sunabilecekleri yapay olarak üretilen seslerin artan bir envanterini korur.


“Fikir, insanlara hala otantik bir şekilde insan, otantik bir şekilde duygusal olma, tüm bu kontrolleri sürdürme, ancak kullandıkları sesin otomatik bir eşleşme olması için vokal akorlarını etkili bir şekilde değiştirme özgürlüğü sağlamaktır” dedi. kurucu Mike Pappas, SB '14.


Örneğin, bir oyuncu karakterlerinin oyun içi görünümüne (huysuz bir cüce veya ruhani elf gibi) bağlıysa, diğer oyuncularla konuştuğunda bu karakter gibi ses çıkarmasına izin veren bir ses seçebilir.


Diğer durumlarda, kadınlar veya çocuklar gibi tacize maruz kalanlar, yalnızca rahat olduklarında ve uygun oldukları zaman cinsiyetlerini veya yaşlarını paylaştıklarından emin olmak için ses kaplamalarını kullanabilirler.


Bazı durumlarda, Pappas, transseksüel topluluğunun üyelerinin çevrimiçi bir forumda kimliklerini daha doğru bir şekilde yansıtan ses kaplamaları kullanacağını söyledi.


Bir derin yüzü nasıl tespit edebilirsin?

Bir kişinin derin bir aldatmaca tarafından aldanmaya tamamen bağışıklık kazandıracak adımların bir listesi olmasa da, baktığınız şeyin gerçek olup olmadığını deşifre etmenize yardımcı olabilecek bazı şeyler var.





Groh aşağıdakilere dikkat etmenizi tavsiye etti:

* Yüz - Biri çok mu yoksa çok az mı yanıp sönüyor? Kaşları yüzlerine uyuyor mu? Birinin saçı yanlış yerde mi? Derileri havalı mı görünüyor yoksa tersine çok fazla kırışıklık var mı?


*Ses - Birinin sesi görünüşüyle ​​eşleşmiyor mu (örneğin, daha yüksek perdeli kadınsı sesi olan ağır bir adam).


*Aydınlatma - Varsa, bir kişinin gözlükleri bir ışık altında ne tür bir yansıma veriyor? (Deepfakes genellikle aydınlatmanın doğal fiziğini tam olarak temsil edemez.)




Groh, insanları derinlere karşı aşılamanın en iyi yolunun maruziyet olduğunu söyledi. Bu fikri desteklemek ve incelemek için Groh ve meslektaşları , insanların deepfakeslerle etkileşime girmeleri ve öğrenmeleri için bir kaynak olarak çevrimiçi bir test oluşturdular .



Ama eğer bir derin tarafını görmek istiyorsan, bulmak zor değil. Aslında, Deeptrace'den Ajder açıkladı, birçok deepfake içeriği deepfake olarak etiketlendi, çünkü içerik oluşturucular çalışmalarını göstermeye çalışıyor.



Deeptrace, 2018'in sonlarında deepfake görüntülerini ve videolarını tespit etmek için yetenekler (hizmet olarak yazılım gibi) sağlamak için kuruldu. Deeptrace ayrıca çevrimiçi olarak deepfake etkinliğini izler ve müşterileri hedefleyen kötü niyetli deepfake videolarının kaldırılmasına yardımcı olur.



2019 yılında şirket deepfakes durumu hakkında bir rapor yayınladı . Çevrimiçi 14.000'den fazla deepfake videosu buldu ve 2018 sayılarına göre% 100 artış. Çalışmada, deepfake videolarının% 96'sının pornografi olduğunu ve neredeyse hepsinin kadınları içerdiğini buldu.



Raporda, “Bu artış, uzman olmayanların deepfakes oluşturma engelini azaltan araç ve hizmetlerin artan metalaşması ile destekleniyor” diyor. “Siyasetin dışında, deepfakes ve sentetik medyanın silahlandırılması siber güvenlik manzarasını etkiliyor, geleneksel siber tehditleri artırıyor ve tamamen yeni saldırı vektörleri sağlıyor.”





Kimler ve ne gibi bir deepfake riski altındadır?

Yüzü aktör Paul Rudd ile değiştirilen Teksas Senatörü Ted Cruz'un viral videolarını izlemek veya aktris Jennifer Lawrence Altın Küre'deki soruları cevaplamak - ama aktör Steve Buscemi'nin yüzü ile - siyaset gibi görünebilir ve Hollywood'un odak noktası gibi görünebilir Deeptrace'ın raporunun da gösterdiği gibi, manipülasyon hedefleri artık hükümet liderleri veya ünlü aktrislerle sınırlı değil.



Deepfake olmak için politikacı olmak zorunda değil. Hatta arkadaşın bile olabilir. Hedeflenen siz olabilirsiniz.




Francesca Panetta

MIT Gelişmiş Sanal Gerçeklik Merkezi'nde XR yaratıcı yönetmeni

Paylaş

“Derin bir taraf olmak bir politikacı olmak zorunda değil,” dedi Panetta da aynı fikirde. “Hatta arkadaşın bile olabilir. Hedeflenen siz olabilirsiniz. Ünlü biri olmak zorunda değil. ”



Örneğin, kaydedilen planlanmış, üç aylık halka açık kazanç çağrılarıyla, bir CFO'nun ses kaydını alıp banka bilgilerini paylaşmak için çalışanlara acil bir direktif gibi görünen bir şeye dönüştürmek mümkün olabilir. Ya da benzer bir kayıt düşünün, ancak bu kez bir CEO şirket genelindeki işten çıkarmaları duyurdu; pazar bir tepki yüzünden çöküyor ve çöküyor.



Burgund, “Burada paranoya ekmeye çalışmıyorum, ancak neler olabileceği konusunda gerçekçi olmaya çalışıyoruz” dedi. “Şüphesiz bazı yollarla nasıl gizleneceğini anlamanın yolları üzerinde çalışan insanlar var… bu bir silahlanma yarışı.”



Ajder şu anda büyük bir riskin iftira olduğunu söyledi. Deepfake videoları, kişi tanınabilir olduğu ve grafikler bir izleyicinin kişiyi tanımlaması ve bir şey yaptığını veya söylediğini görmesi için yeterince iyi olduğu sürece bile iyi olmak zorunda değildir. Bu bir iz bırakıyor, dedi Ajder ve özellikle adı ve yüzü negatif video veya sesin bir parçasıysa - gerçek veya derin bir taraf - birisinin itibarına zarar verebilir.



Bu, Ajder'in gündeme getirdiği bir başka endişe: makul inkar. Deepfakes, birine sahte görüntüleri veya kayıtları gerçek gibi gizleme fırsatı vermekle kalmaz, Ajder, insanların gerçek olayları sahte olarak reddetmelerine de olanak tanır .





Bir iş lideri şirketlerini ve çalışanlarını derin darbelere karşı korumak için ne yapabilir?

Deeptrace, WITNESS Program Direktörü Samuel Gregory'nin paniğe kaptığı yaklaşımı benimsiyor . Hazırlamak.


Ajder, “İş süreçlerini güvence altına almak söz konusu olduğunda, risklerin en belirgin olduğu yolları belirlemelisiniz. “Belki şirketteki telekom altyapınız budur, belki de kullandığınız video konferans yazılımıdır.”





Ajder şunları önerir:

Konuşmalar için anlamsal şifreler veya bir görüşmenin başında sorduğunuz veya yanıtladığınız gizli bir soru kullanın.



Sesli kimlik doğrulama hizmetiniz veya biyometrik güvenlik özellikleriniz varsa, bu sağlayıcılara araçlarının güncel olup olmadığını sorun.

Çalışanlarınızı eğitin. Deepfake saldırılarının daha sık olabileceğini ve bunları tespit etmek için sihirli bir formül olmadığını açıklayın.

Ajder, “Güvenlik altyapınızı sorgulayın,” dedi. “Zayıf noktaların nerede olabileceğini anlayın, kritik noktalarda güvence altına almak için teknolojik çözümlerin bu altyapıya nereye sığabileceğini hazırlayın ve görün.”



Pappas'ın zihninde, kötü niyetli derinliklere karşı korunmak herkesin sorumluluğundadır.



“Sosyal cevap hepimizin bir bağışıklık sistemi inşa etmemiz” dedi. “Kendimize sorular sormaya başlıyoruz: Bu imajı bana sunan kişi kim? Nereden geldi? Belirgin olan nedir, gerçekte gerçek olan nedir? Bu soruları sormanın genel tavrına sahip olmak kesinlikle yardımcı olur. ”



MIT Media Labs 'Groh, insanların kendi sezgilerini ve akıllarını kullanarak derine karşı kendilerini savunabileceklerini söyledi.



“Biraz şüpheci olmalısın, iki kere kontrol etmeli ve düşünceli olmalısın,” dedi Groh. “Aslında çok hoş: Bizi daha insan olmaya zorluyor, çünkü bu tür şeylere karşı koymanın tek yolu gerçekten kim olduğumuzu insan olarak kabul etmektir.”





Daha derine inmeye hazır mısınız?

Deepfake tespit becerilerinizi test edin .

MIT Media Lab'ın yapay zeka aracı Deep Angel ile denemeler yapın.


Okuma: ' deepfakes en büyük tehdit deepfakes kendileri değil MİT Technology Review kısmındaki'.


Oku: Deepfakes'in durumu , Deeptrace'ın 2019 raporu.

Paylaş: