DOLAR 34,4780 0.04%
EURO 36,2318 -0.36%
ALTIN 2.956,390,74
BITCOIN 33459993,77%
İstanbul

HAFİF YAĞMUR

02:00

İMSAK'A KALAN SÜRE

Güney Kore’de derinlemesine bir deepfake porno krizine neden olan yapay zeka

Güney Kore’de derinlemesine bir deepfake porno krizine neden olan yapay zeka

ABONE OL
Eylül 25, 2024 09:57
Güney Kore’de derinlemesine bir deepfake porno krizine neden olan yapay zeka
0

BEĞENDİM

ABONE OL

Güney Kore, derin sahte pornografinin sahip olma, satın alma ve izleme eylemlerini suç haline getirecek ancak zarar zaten meydana geldi.

Yapay zekadan bahsetmek zor, derin sahte pornografi olmadan bahsetmekse imkansız – bu zararlı bir yapay zeka yan ürünüdür ve Taylor Swift’ten Avustralyalı okul kızlarına kadar herkesi hedef almıştır. Ancak Security Heroes adlı startup’ın yeni bir raporu, farklı kaynaklardan analiz edilen 95.820 derin sahte porno videosundan yapılan incelemede, %53’ünün Güney Koreli şarkıcılar ve aktrisleri içerdiğini ortaya koydu – bu da bu grupların orantısız bir şekilde hedef alındığını gösteriyor. Peki, Güney Kore’nin derin sahte sorununun arkasında ne var? Ve bununla ne yapılabilir?

Derin sahteler, birisinin hiç yapmadığı şeyleri söyler ve yapar gibi inandırıcı bir şekilde gösteren dijital olarak manipüle edilmiş fotoğraflar, videolar veya ses dosyalarıdır. Güney Koreli gençler arasında derin sahte oluşturmak o kadar yaygın hale gelmiştir ki bazıları bunu şaka olarak görüyor. Ve sadece ünlüleri hedef almıyorlar.

Telegram’da, kadınlara yönelik cinsel istismar amacıyla görüntü üzerinden grup sohbetleri oluşturuldu, bu gruplara ortaokul ve lise öğrencileri, öğretmenler ve aile üyeleri de dahil edildi. Kakaotalk, Instagram ve Facebook gibi sosyal medya platformlarındaki resimleri olan kadınlar da sık sık hedef alınıyor. Katilller sahte görüntüleri üretmek için yapay zeka botları kullanıyor ve ardından kurbanların sosyal medya hesapları, telefon numaraları ve Kakaotalk kullanıcı adlarıyla birlikte satılıyor ve/veya keyfi bir şekilde yayılıyor. Bir Telegram grubu, bir Guardian raporuna göre yaklaşık 220.000 üyeyi çekmiştir.

Bilinç eksikliği

Güney Kore’de kurbanlara önemli zararlar veren cinsiyet temelli şiddete rağmen, bu konuda hala yeterli bir farkındalık bulunmamaktadır. Güney Kore son yıllarda hızlı bir teknolojik büyüme yaşamıştır. Akıllı telefon sahipliğinde dünya birincisidir ve en yüksek internet bağlantısına sahip olduğu belirtilmektedir. Restoranlar, imalat ve toplu taşıma da dahil olmak üzere birçok iş, robotlar ve yapay zeka tarafından hızla değiştirilmektedir.

Ancak insan Hakları İzleme kuruluşunun belirttiği gibi, ülkenin dijital ilerlemesi cinsiyet eşitliği ve diğer insan hakları önlemlerinde dijital ilerlemenin hızına yetişememiştir. Ve araştırmalar, teknolojik ilerlemenin cinsiyet temelli şiddete ilişkin sorunları daha da kötüleştirebileceğini göstermektedir.

2019’dan bu yana, Güney Kore’de çocuk ve gençlere karşı dijital cinsel suçlar büyük bir sorun olmuştur – özellikle “Nth Oda” davası nedeniyle. Bu dava yüzlerce genç kurbanı (çoğu reşit olmayan) ve yaklaşık 260.000 katılımcıyı içeriyordu ve sömürücü ve zorlayıcı mahrem içerikleri paylaşmışlardı.

Bu dava geniş kapsamlı öfkelere neden oldu ve daha güçlü koruma çağrıları yaptı. 2020’de Cinsel Suçların Özel Durumlara Yönelik Cezalandırılmasına İlişkin Kanunun daha güçlü koşullarının oluşturulmasına bile yol açtı. Ancak buna rağmen, Yüksek Başsavcılık Ofisi, 2021’de yakalanan toplam 17.495 dijital cinsel suçlu hakkında sadece %28’inin dava açıldığını belirtti – bu da dijital cinsel suçlarla etkili bir şekilde başa çıkmada devam eden zorlukları vurgulamaktadır.

2020’de Adalet Bakanlığı Dijital Cinsel Suçlar Görev Gücü, hala kabul edilmemiş olan yaklaşık 60 yasal hüküm önerdi. Ekip, 2022’de Yoon Suk Yeol hükümetinin göreve başlamasının ardından kısa bir süre sonra dağıtıldı.

2022’deki başkanlık yarışı sırasında Yoon, Güney Kore’de “hiçbir yapısal cinsiyet ayrımcılığı olmadığını” söylemiş ve cinsiyet temelli şiddeti önlemekten sorumlu temel bakanlık olan Cinsiyet Eşitliği ve Aile Bakanlığını kaldırmayı taahhüt etmişti. Bu görev Şubat ayından bu yana boş kalmıştır.

Teknoloji aynı zamanda çözüm olabilir mi?

Ancak yapay zeka her zaman zararlı değildir ve Güney Kore bunun da bir kanıtını sunmaktadır. 2022’de Seul belediyesi tarafından işletilen bir dijital cinsel suçlar destek merkezi, gece gündüz otomatik olarak derin sahte görüntüleri izlemek, kontrol etmek ve silmek için bir araç geliştirdi.

2024 BM Kamu Yönetimi Ödülü’nü kazanan bu teknoloji, derin sahte görüntüleri bulma süresini ortalama iki saatten üç dakikaya kadar indirmeye yardımcı oldu. Ancak bu tür girişimler, derin sahtelerden kaynaklanan daha fazla zararı azaltmaya yardımcı olabilir, ancak kurbanlar üzerindeki etkiler sürekli olabilir.

Anlamlı değişiklikler için, hükümetin sosyal medya platformları ve mesajlaşma uygulamaları gibi hizmet sağlayıcıları kullanıcı güvenliğini sağlamak konusunda sorumlu tutması gerekmektedir.

30 Ağustos’ta, Güney Kore hükümeti, Güney Kore’de derin sahte pornografi sahibi olmayı, satın almayı ve izlemeyi suç sayacak yasaları geçirme planlarını duyurdu.

Ancak derin sahtelerin Güney Kore’de cinsiyet temelli şiddetin zararlı bir biçimi olarak tanınana kadar, soruşturmalar ve davaların eksik kalması devam edebilir. Derin sahte sorununu ele almak için daha güçlü yasalar, reformlar ve eğitim gibi çok yönlü bir yaklaşım gerekecektir.

Güney Kore yetkilileri, cinsiyet temelli şiddeti toplu olarak önlemeyi hedefleyen politika ve eğitim programlarını geliştirmenin yanı sıra sadece kurbanlara destek sağlamak yerine şiddeti ilk aşamada önlemeye yönelik proaktif politikaları ve eğitim programlarını geliştirmeye de yardımcı olmalıdır.

Yazan: Sungshin (Luna) Bae – Güney Kore’deki Yüksek Başsavcılık Ofisi’nde Gender Eşitliği Politikaları Özel Kamu Görevlisi, Monash Üniversitesi

Bu makale, orijinal makaleyi okumak için The Conversation’da bir Creative Commons lisansı altında yeniden yayımlanmıştır.

En az 10 karakter gerekli


HIZLI YORUM YAP

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.