Kıyafetlerin çıkarılarak insanların çıplak gösterilmesi geçmişte birçok bilim-kurgu filminde yer alsa da günümüzde telefon uygulamalarına kadar düşmüş bulunuyor. Telefondan herhangi bir teknik bilgi gerektirmeden kullanılan bu uygulamalar ise endişeye neden oluyor. Çünkü hedef alınan herhangi bir kişi bu saldırılara maruz kalabilir ve sonucu kötü olaylar doğurabilir.

İstihbarat şirketi Sensity'nin raporuna göre de hedeflenenlerden bazılarının ‘reşit’ olmadığı belirtildi. Ancak servisi yönetenler bunun sadece "eğlence" olduğunu söylediler. Sensity, kullanılan teknolojinin bir "deepfake bot" olduğunu iddia ediyor. Deepfake'ler, gerçek bir şablona dayalı, bilgisayar tarafından oluşturulan, genellikle gerçekçi görüntüler ve videolardır. Bir ara, ünlülerin sahte pornografik video kliplerini oluşturmak için kullanılmıştı. Ancak Sensity'nin CEO'su Giorgio Patrini, özel kişilerin fotoğraflarını kullanmaya geçişin yeni olduğunu söyledi.

‘UMRUMDA DEĞİL’ 

Telegram uygulamasının içinde bulunan yapay zeka destekli bot bütün işlemi yapıyor. Kullanıcılar bota bir kadının fotoğrafını gönderebilir ve hiçbir ücret ödemeden dakikalar içinde elbiselerini dijital olarak çıkarır. BBC, deneklerin onayıyla birden fazla görüntüyü test etti ve hiçbiri tamamen gerçekçi değildi. Benzer bir uygulama geçen yıl kapatılmıştı, ancak yazılımının hala dolaşımda olduğuna inanılıyor. "P" olarak bilinen servisi çalıştıran yönetici, "O kadar umurumda değil. Bu şiddet içermeyen eğlence ve kalite gerçekçi olmadığı için kimse kimseye şantaj yapmaz" dedi. Ayrıca ekibin hangi fotoğrafların paylaşıldığına baktığını ve ‘küçük çocuk gördüklerinde kullanıcıyı tamamen engellediklerini’ söyledi. Ancak fotoğrafı başkalarıyla paylaşıp paylaşmama konusundaki karar, onu oluşturmak için botu kullanan kişiye bağlı. Bu yazılımı savunduktan sonra, "Dünyada savaşlar, hastalıklar, zararlı birçok kötü şey var" diye ekledi. Ayrıca yakında tüm görüntüleri kaldıracağını da iddia etti. Telegram ise yorum talebine yanıt vermedi.

YASAL DÜZENLEME ŞART

Sensity, Temmuz 2019 ile 2020 arasında yaklaşık 104 bin 852 kadının hedef alındığını ve sahte çıplak fotoğraflarının halka açık olarak paylaşıldığını bildirdi. Araştırma, bazı görüntülerde reşit olmayan kişileri ortaya çıkardı, bu da bazı kullanıcıların botu öncelikle pedofilik içerik oluşturmak ve paylaşmak için kullandığını gösteriyor. Sensity, botun Rus sosyal medya sitesi VK'da önemli reklamları olduğunu söyledi ve platformda yapılan bir anket, çoğu kullanıcının Rusya'dan ve eski SSCB ülkelerinden olduğunu gösterdi. Ancak VK, "Platformdaki bu tür içerik veya bağlantılara müsamaha göstermez ve bunları dağıtan toplulukları engeller" dedi. Telegram, bu yılın başlarına kadar Rusya'da resmen yasaklanmıştı.

Raporun hazırlayanlar, tüm bulgularını Telegram, VK ve ilgili kolluk kuvvetleri ile paylaştıklarını, ancak bir yanıt almadıklarını söylüyorlar. Deep Fakes and the Infocalypse kitabının yazarı Nina Schick, deepfake içerik oluşturucularının dünyanın her yerinde olduğunu ve yasal korumaların teknolojiyi "yakalamaya çalıştığını" söyledi."Bir içeriğin daha iyi hale gelmesi sadece bir zaman meselesi. Deepfake porno videolarının sayısı altı ayda bir ikiye katlanıyor gibi görünüyor ve bu sahte porno kurbanları için yıkıcı. Bu, tecavüze uğramış ve aşağılanmış hissettikleri için hayatlarını tamamen alt üst edebilir" dedi. 

Geçen yıl ABD'nin Virginia eyaleti, deepfake'i yasaklayan ilk yerlerden biri oldu. Sahte çıplak resimler hakkındaki mevcut Birleşik Krallık yasası, geçtiğimiz günlerde bir üniversite raporunda "tutarsız, güncel olmayan ve kafa karıştırıcı" olmakla eleştirildi. Women's Aid yardım kuruluşundan Lucy Hadley, "hukukta pek çok göze batan boşluk var" diyor. Bu istatistikler sahte görüntülerin ne kadar yaygın olabileceğini gösterse de şu anda suç değil.