• Biz Kimiz
  • Künye
logo
MEDOC
logo
  • Anasayfa
  • ICT Etkinlik
  • Gündem
  • Bilişim
  • Telekom
  • Savunma
  • Enerji
  • e-Mobilite
  • Oyun
  • Kariyer
  • Röportaj
  • Dergi
  • Yazarlarımız
MEDOC
  1. Anasayfa
  2. Bilişim
  3. Duyuları kandıran Deepfake'ler nasıl anlaşılır?
Duyuları kandıran Deepfake'ler nasıl anlaşılır?

Duyuları kandıran Deepfake'ler nasıl anlaşılır?

ICT Media ICT Media
22 Haziran 2022 11:48
Paylaş

Yakın zaman önce Google, GPU'lardan yardım alan ücretsiz bilgi işlem hizmeti Google Colaboratory'deki deepfake (Derin Hile) algoritmalarını yasakladı.  Deepfake'leri düzenleyen bir kişi veya teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen yasaları var. Çin yasa tasırısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve olası AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında madde içermesi bekleniyor.

Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:

  • 'Deepfake' genellikle insanlara dair özellikleri konu alan ve derin sinir ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya türlerini ifade ediyor. Bunlar video, fotoğraf veya ses kaydı olabiliyor. Geleneksel görüntü düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir sahte parça oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
  • Başlangıçta bu terim Reddit'te popülerlik kazanmış belirli bir yazılım parçasına atıfta bulunuyordu. Yazılım, bir kişinin yüzünü başka kişinin bulunduğu bir videoya yerleştirebiliyordu ve ünlülerin taklitleriyle rıza dışı porno görüntüleri oluşturmak için kullanıldı. Tahminlere göre tüm deepfake sahtekarlıkların %96'sı pornografik görüntülerden oluşuyor. Deepfake’in kötüye kullanımı, itibar gaspı ve kamuyu önünde utandırma gibi kullanımlara dair endişeleri gündeme getiriyor.
  • Bu teknoloji siber suçlulara da yardımcı olabiliyor. İngiltere ve Hong Kong'da ki en az iki vakada, ilgili şirketlerin yöneticisi gibi davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmacılar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni saldırı vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini ciddi bir sorun haline getirdiğini gösteriyor.
  • Diğer bir sorun da deepfake sahtekarlıklarının, kötü amaçlarla kullanılabildikleri için ses ve video içeriğine olan güveni sarsması. Örneğin yakın tarihli bir vakada, kripto para birimi dolandırıcılığını desteklemek için Elon Musk ile yapılan sahte bir röportaj kullanıldı. Europol gibi çeşitli uzmanlar ve kurumlar, deepfake görüntülerinin artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
  • Haberlerin hepsi gerçek haber değil. Görüntü manipülasyonu, görüntülemenin kendisi kadar eski bir konu. CGI onlarca yıldır piyasada ve her ikisi de deepfake gibi geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar'ın yakın tarihli Heart Part 5 videosunda, rapçinin yüzünü Kanye West gibi diğer ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick filminde oyuncu sesini kaybettikten sonra Val Kilmer'in karakterini seslendirmek için bir algoritmadan yardım alındı. Sahte Tom Cruise'un oynadığı viral bir TikTok serisi oluşturmak için de yine deepfake algoritmaları kullanıldı. Birkaç girişim, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.

Deepfake'leri çevreleyen tüm güven sorunlarıyla birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:

  • Tom Cruise'un yer aldığı örneklerdeki gibi inandırıcı deepfake örnekleri hala çok fazla uzmanlık, çaba ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, kötü işlenmiş saçlar, uyumsuz yüz şekilleri, çok az göz kırpma veya hiç kırpmama, ten rengi uyumsuzlukları gibi unsurlarla fark edilebiliyor. Giysilerin işlenmesindeki hatalar veya yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
  • Ünlü veya halka açık bir kişinin çılgın iddialar veya gerçek olamayacak kadar iyi teklifler yaptığına rastlanılırsa, video ikna edici olsa bile gerekli özen gösterilmeli ve bilgileri saygın kaynaklardan kontrol edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için videoları kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en iyi strateji videoya bakarak ipucu aramak değil, sağduyu ile gerçekleri kontrol etme becerilerini kullanmaktır.
  • Güvenilir bir güvenlik çözümü, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı kötü amaçlı dosyaları veya programları indirmeye, şüpheli bağlantıları veya kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada destek sağlayabilir.
  • Deepfake pornosunun kurbanı olunması durumunda, videonun kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir suç olduğu için kolluk kuvvetlerine başvurulabilir.

Kaspersky Veri Bilimcisi Vladislav Tushkanov şunları söylüyor: "Deepfake, etkileri gerçekten kavrayabileceğimizden ve yönetebileceğimizden daha hızlı gelişen bir teknolojinin en iyi örneğini simgeliyor. Bu nedenle toplum olarak kişilere duyduğumuz güvene meydan okuyan yeni bir dezenformasyon aracı olarak algılanıyor.”

Paylaş
bilisim-gundemi bilisim-haberleri Deepfake Kaspersky teknoloji-haberleri

Bilişim Kategorisinin En Yenileri

ESB Genel Kurulu’nda Dijital Gelecek Şekillendi: Hedef, Yerli ve Güvenli Altyapı
ESB Genel Kurulu’nda Dijital Gelecek Şekillendi: Hedef, Yerli ve Güvenli Altyapı
4 Haziran 2025 11:25
TeamSense ile sürekli geribildirim, anlık aksiyon alma imkânı
TeamSense ile sürekli geribildirim, anlık aksiyon alma imkânı
3 Haziran 2025 17:25
Yatırımda yapay zekâ dönemi
Yatırımda yapay zekâ dönemi
3 Haziran 2025 17:21
SAP, iş odaklı yapay zekayla şirketlerin çalışma yöntemlerini yeniden tasarlıyor
SAP, iş odaklı yapay zekayla şirketlerin çalışma yöntemlerini yeniden tasarlıyor
3 Haziran 2025 17:17
Şirketlerin yüze 92’si müşteri deneyimini dijitalleştirerek rekabette öne geçmeye odaklandı
Şirketlerin yüze 92’si müşteri deneyimini dijitalleştirerek rekabette öne geçmeye odaklandı
3 Haziran 2025 17:15
150 bin dolarlık ‘Mektup’ yatırımı
150 bin dolarlık ‘Mektup’ yatırımı
3 Haziran 2025 17:11
ICT MEDIA DERGİSİ HAZİRAN 2025 SAYISI ÇIKTI!
Dergi

ICT MEDIA DERGİSİ HAZİRAN 2025 SAYISI ÇIKTI!

Copyright © 2022. All Rights Reserved. Paragon Teknoloji

Webmail

play store app store

Bu websitesi Odeaweb sunucularında barındırılmaktadır.