Akıllı telefonların yaygınlaşması ve insan yüzünü kullanan teknolojilerin gittikçe gelişmesiyle son günlerde ismi daha da fazla duyulmaya başlanan bir teknoloji ortaya çıktı. “Deepfake” yani "derin sahtelik" olarak adlandırılan teknoloji ses, görüntü ve mimik gibi insana ait tüm benzersiz unsurları taklit edebiliyor.
CGI (Bilgisayar üretimli imgeleme) uzmanlığı gerektirmeyen, web üzerinde rahatlıkla erişilebilen hazır algoritmalar sayesinde bir kişinin yüzünü başka birine monte edebilen teknoloji, sinema ve televizyon sektöründe hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesi için sık sık kullanılabiliyor.
Star Wars serisinde Leia karakterini oynayan aktrist Carrie Fisher, ölümünün ardından bu teknolojiyle yeniden canlandırılmıştı.
Deepfake teknolojisinde konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geliyor.
Örneğin, Mona Lisa'nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein gibi ünlü isimlerin de fotoğraflarını video haline getirerek YouTube'da yayınlamıştı.
Benzer şekilde 2018 yılında ünlü komedyen Jordan Peele, After Effects CC ve FakeApp kullanarak Obama'yı taklit etmiş ve aslında söylemediği sözlerden sahte bir konuşma hazırlamıştı. Bill Posters isimli bir Instagram fenomeni de Facebook'un kurucusu Mark Zuckerberg'i benzer şekilde taklit etmişti.
Bununla birlikte, deepfake teknolojisi kötü emellerle internette bilgi kirliliği üretmek, karmaşa çıkarmak ve siber saldırılar için de araç olabilir.
Siberzeka şirketi IntSight'ın üst düzey yönetici Etay Maor, yapay zeka araçlarının adaptasyonu sayesinde bilgisayar korsanlarının otomatikleştirmiş ve hedefe yönelik saldırılar düzenleyebileceğine dikkat çekiyor. Bir bilgisayar teknolojisinin kendi kendine öğrenerek bilgisini genişletmesi ve gittikçe daha sofistike hale gelmesinin korkutucu olduğunu belirten Maor, siber tehditlerin küresel ekonomi ve güvenlik için büyük bir tehdit olabileceğini belirtti.
2020 Başkanlık Seçimi sürecine dikkat çeken siber güvenlik uzmanları, deepfake teknolojisinin gelişmesiyle sahte videoların siyasi amaçlarla daha yaygın kullanılabileceği iddialarını gerçekçi buluyor.
Forcepoint isimli güvenlik şirketi, politik zeminde deepfake teknolojisinin adayları itibarsızlaştırmak ve seçmen bakış açısını etkilemek için kullanılabileceğinin altını çiziyor ve özellikle kutuplaşan Batı ve Doğu arasında yeni bir soğuk savaşın aracı olabileceğini söylüyor.
Geçen aylarda sanatçıların bu teknolojiyle üretilen sahte pornoları ayyuka çıkmış; Emma Watson, Natalie Portman, Ivana Trump, Kate Middleton, Adriana Grande, Natalie Dormer gibi popüler isimler mağdur olmuştu.
Siber suçluların komplo videoları çekerek kişileri tehdit edebileceğini ve dolandırmaya çalışabileceğini belirten Forcepoint yetkilileri teknolojinin küresel ekonomiyi de tehdit edebileceği görüşünde. Hackerların kredi kartı hırsızlığı ya da DdoS saldırıları için büyük zaman ve kaynak ayırması gerektiğine dikkat çeken uzmanlar yapay zeka ile siber saldırganların tekrar tekrar, hedefe dönük saldırılar düzenleyebileceğine vurgu yapıyor.
habertürk