Çağımızın en büyük tehlikesi olabilir! Yüzünü ve sesini çaldılar…

Yakın zamanda YouTube’da bir kanal açan ve kısa sürede 15 bin takipçiye ulaşan bir genç kadın, takipçilerinden gelen Çince beğeni mesajlarına şaşırmıştı.

Bir gün, “Birisi senin taklitçin” şeklinde bir uyarı içeren bir mesajla uyandı. Mesajda ayrıca bir link de bulunuyordu.

ÇİN’DEKi SOSYAL MEDYA DURUMU

Genç kadın, kendisine gönderilen linkin popüler bir Çin sosyal medya platformuna aittiğini fark etti.

Linkteki videoda, kendi görüntüsünü ve sesini Çince konuşurken kullanıldığını görünce büyük bir şok yaşadı.

DEEPFAKE İLE OLUŞTURULAN KADIN ÇİN VE RUS İLİŞKİLERİNİ ÖVDÜ

Bir haber sitesinin raporuna göre, videoda genç kadın Çin ve Rusya arasındaki ilişkileri övüyor, Moskova’ya yönelik yaptırımları eleştiriyor ve Rus ürünlerinin satıldığı bir alışveriş sitesine yönlendiriyordu. Bu durum karşısında genç kadın oldukça şaşkına dönmüştü.

RUS GELİN ADAYI OLARAK TANITILMIŞ

Bir başka haber kaynağına göre, genç kadının görüntüleri başka videolarda da kullanılmış ve bu videolarda o, Mandarin konuşan, Çin kültürünü benimsemiş ve bir Çinli ile evlenmek isteyen bir Rus olarak tanıtılmıştı.

Çin’deki sosyal medya platformlarında farklı isimlerle anılan genç kadının görüntüleri, ülke genelinde yayılmıştı. Bu hesaplar genellikle izleyicileri, Rus yapımı olduklarını iddia ettikleri ürünleri satın almaları için çevrimiçi mağazalara yönlendiriyordu.

YÜZLERCE HESAP KAPATILDI

Loiek, kendisinin ve YouTube abonelerinin Çinli sosyal medya şirketlerine şikayet mesajları göndermesinin ardından kendisini taklit eden yaklaşık bir düzine hesabın kapatıldığını söyledi.

SES VE GÖRÜNTÜSÜ KOPYALANDI

Yaşanan olay Olga Loiek’in görüntüsü ve sesinin deepfake ile kopyalanması. Ancak Insider’a göre işin içinde Çin olunca sorun daha da büyüyor.

OLUŞTURULAN VİDEOLARI AYIRT ETMEK ÇOK ZOR

Çin’de YouTube ve Instagram engelli durumda ve yerlerini Çinli alternatifleri aldı. Bu yüzden Çin platformlarında, Çinli olmayan kadınların deepfake görüntülerinin fark edilmesi çok zor. Çünkü izleyicilerin orijinal kişiyi tanıması zor. Tam tersi şekilde kişilerin de yüzlerinin çalındığını fark etme olasılığı çok düşük.

 ÇAPRAZ DOĞRULAMAYI YAPAMAZLAR

Buffalo Üniversitesi’nden bilgisayar bilimleri profesörü Lyu Siwei, Insider’a yaptığı açıklamada, “Açık dünya sosyal medya ortamında, birinin deepfake’i ortaya çıktığında, bunun gerçek olmadığını kolay bir şekilde gösterebiliriz çünkü orijinal kişiyi bulabiliriz. Ancak Çin içinde, Çinli kullanıcıların Büyük Güvenlik Duvarı’nın ötesine geçmesi o kadar kolay olmadığı için bu çapraz doğrulamayı yapamayacaklardır” diyor.

 TEHDİT GİDEREK ARTIYOR

Yapay zeka kullanılarak bireylerin taklit edildiği sahte görüntüleri içeren deepfake’in herkesin günlük hayatını etkilediğini ve bu tehdidin giderek arttığını söyleyen uzmanlr deepfake karşıtı teknolojilerin de geliştiğini ancak henüz avantajlı konuma geçmediğini belirtiyor.

Uzmanlar, deepfake tehdidine karşı daha odaklanılmış çalışmaların yanı sıra hükümetler ya da uluslararası kuruluşlarca finanse edilen kamuya açık araçların oluşturulması gerektiğini vurguluyor.

KAYNAK: HABER7

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

footer link satın al
tanıtım yazısı satın al
backlink satın al
Ümraniye Escort
avcılar escort
esenyurt escort
beylikdüzü escort
istanbul escort
istanbul escort
bahçeşehir escort
bakırköy escort
şirinevler escort
şişli escort
esenyurt escort
avcılar escort
esenyurt escort
beylikdüzü escort
beylikdüzü escort
taksim escort
bakırköy escort
bonus hunt
betmarlo
egt oyna
pragmatic slot oyunları
barn festival
dog house megaways
betibom
sweet bonanza
tombala oyna
aresbet
wild west gold oyna
diyarbet
diyarbet
diyarbet
diyarbet
diyarbet
diyarbet
diyarbet
diyarbet
markaj giriş
sweet bonanza
sugar rush
diyarbet
diyarbet
diyarbet
gates of olympus oyna
big bass bonanza oyna
trwin
diyarbet
diyarbet
casipol
casipol
casipol
betingo
egt oyna
casipol
casipol
casipol
casipol
casipol
casipol
casipol
casipol
casipol
casipol
casipol
casipol
aviator oyna
aviator giriş
tombala