ABD bu ortalar bir uygulamanın şahsî güvenliği ne kadar tehlikeye attığı üzerinde tartışıyor. Bayanları çıplak gösteren uygulama DeepNude ABD’de büyük reaksiyona sebep oldu.
Kadınları çıplak gösteren uygulama DeepNude ABD’de reaksiyon aldı!
Yapay zeka destekli uygulama DeepNude ile bayanların çıplak halini gerçeğe en yakın formda görüntüleyebiliyorsunuz. Yani uygulama ile fotoğraftaki kıyafetler kaldırılarak yapay zekanın iddia ettiği müstehcen bölgeler ekleniyor.
Uygulama fiyatsız olarak kullanıldığında fotoğraf üstünde ‘FAKE‘ ibaresi ve müstehcen bölgelerde sansür barındırıyor ama 99 dolar karşılığında bu çıktıyı filigransız ve sansürsüz bir formda alabiliyorsunuz. Ayrıyeten uygulamanın erkekler üzerinde çalışmadığını da belirtmek gerekir.
ABD halkı ise süratli bir formda tanınan olarak büyük bir kullanıcı kitlesine ulaşan bu uygulamanın düzmece çıplak fotoğraflar oluşturularak bireylere şantaj, taciz yahut buna benzeri şeyler ile kullanılabileceği üzerinde tartışıyor.
ABD mahkemesine gelen birçok şikayet ise bu ve buna emsal uygulamaların yasaklanması tarafında. Bilhassa de ebeveynler uygulamanın berbata kullanılma ihtimalinin çok yüksek olduğu konusunda net bir hal gösteriyor.
Bu şikayetlerin akabinde uygulama yaratıcısı Alberto da açıklama yaptı. “DeepNude uygulaması cümbüş emelli çıkarıldı. Olağanda Photoshop ile de yapılabilecek bir süreci bizim uygulamamız yapay zeka sayesinde bir tık ile yapabiliyor. Fakat nitekim güvenlik sorunu oluşturursa ve resmi olarak kanıtlanırsa uygulamayı kaldıracağım.” diyerek şikayetçileri biraz da olsa yumuşattı.
Herhangi bir dava açılacak mı yahut bir sorun oluşturacak mı şimdi muhakkak değil. Lakin şikayetler yakın vakitte sona erecek üzere durmuyor.