5.5 C
Hamburg
Salı, Nisan 16, 2024

Telegram’da sahte çıplak fotoğraf tehlikesi

Bild: Pixabay

Uzmanlar, normal fotoğrafları çıplak resimlere dönüştüren bir yazılım programı geliştirildiğini tespit etti. Şimdiye kadar 100 binden fazla sahte çıplak fotoğrafın yayıldığı belirtiliyor.

Elbe Express / Haber Merkezi

Bilgisayar uzmanları, mesajlaşma servisi Telegram’da sadece birkaç tıklama ile normal fotoğrafları çıplak fotoğraflara dönüştürebilen bir yazılım kullanıldığını keşfetti. “Deepfake”, yani “derin sahte” olarak adlandırılan bu fotoğrafların dönüştürülmesinde bir tür yapay zeka teknolojisinin kullanıldığı belirtiliyor.

Bilişim şirketi Sensity uzmanlarının hazırladığı rapora göre, Temmuz 2020’ye kadar bu yazılım kullanılarak 104 bin 852 sahte çıplak fotoğraf, çok sayıdaki Telegram kanalında yayıldı. Raporda yer alan bilgilere göre, fail çıplak fotoğraf üretmek için seçtiği fotoğrafı Telegram üzerinden bir programa gönderiyor ve kullanılan bu yazılım, kısa bir süre içinde orijinal fotoğrafı manipüle edip çıplak bir fotoğrafa dönüştürerek faile geri gönderiyor.

Yapay zeka teknolojisi kullanıldı

Sensity’nin uzmanları, geliştirilen yazılımda bir tür yapay zeka olan Generative Adversarial Networks (GAN) adlı teknolojinin kullanıldığını tespit ettiklerine dikkat çekti. Uzmanlar, yazılımın giyinmiş kadın bedenlerini tanımayı, soymayı, fotoğraftaki kişinin anatomisini tespit etmeyi ve fotoğraftan çıplak bir beden oluşturmayı öğrenecek şekilde programlandığını belirtiyor.

GAN teknolojisiyle kadın bedenlerini tanıyıp manipüle edecek şekilde programlanan yazılımın ürettiği fotoğrafların kalitesi ise farklılık gösteriyor. Teknoloji dergisi The Verge’ün yaptığı araştırmaya göre, bazı fotoğrafların manipüle edildikleri açıkça görünürken, bazıları ise yanıltıcı bir şekilde gerçek gibi görünüyor.

Yazılımı entegre etmek kolay

Bu programın Telegram’daki “Bot” adlı uygulama üzerinden aktive edildiğini belirten uzmanlar, yazılımı kullanmak isteyenlerin sohbet penceresi üzerinden kolayca entegre edebildiğini ifade ediyor. 

Uzmanlar bu yazılımın kim tarafından geliştirildiğini ise bilmiyor, ancak bu programın sadece İngilizce ve Rusca olduğuna dikkat çekiyor. Sensity’nin uzmanları, yazılımın daha çok eski Sovyet ülkelerinde kullanıldığını tespit ettiklerini belirtiyor.

Hazırladıkları raporda söz konusu yazılımın 2017 yılından beri kullanıldığını belirten uzmanlar, bu sahte fotoğrafların şantaj gibi kötü amaçlarla kullanılabileceği konusunda da uyarıyor.

Bu haber Deutsche Welle Türkçe sitesinden kooperasyonumuz çerçevesinde orjinal olarak kopyalanmıştır. Bütün haklar Deutsche Welle Türkçe sitesine aittir. 

İLGİNİZİ ÇEKEBİLİR

CEVAP VER

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

İNSTAGRAM

SON HABERLER

Telegram’da sahte çıplak fotoğraf tehlikesi

Bild: Pixabay

Uzmanlar, normal fotoğrafları çıplak resimlere dönüştüren bir yazılım programı geliştirildiğini tespit etti. Şimdiye kadar 100 binden fazla sahte çıplak fotoğrafın yayıldığı belirtiliyor.

Elbe Express / Haber Merkezi

Bilgisayar uzmanları, mesajlaşma servisi Telegram’da sadece birkaç tıklama ile normal fotoğrafları çıplak fotoğraflara dönüştürebilen bir yazılım kullanıldığını keşfetti. “Deepfake”, yani “derin sahte” olarak adlandırılan bu fotoğrafların dönüştürülmesinde bir tür yapay zeka teknolojisinin kullanıldığı belirtiliyor.

Bilişim şirketi Sensity uzmanlarının hazırladığı rapora göre, Temmuz 2020’ye kadar bu yazılım kullanılarak 104 bin 852 sahte çıplak fotoğraf, çok sayıdaki Telegram kanalında yayıldı. Raporda yer alan bilgilere göre, fail çıplak fotoğraf üretmek için seçtiği fotoğrafı Telegram üzerinden bir programa gönderiyor ve kullanılan bu yazılım, kısa bir süre içinde orijinal fotoğrafı manipüle edip çıplak bir fotoğrafa dönüştürerek faile geri gönderiyor.

Yapay zeka teknolojisi kullanıldı

Sensity’nin uzmanları, geliştirilen yazılımda bir tür yapay zeka olan Generative Adversarial Networks (GAN) adlı teknolojinin kullanıldığını tespit ettiklerine dikkat çekti. Uzmanlar, yazılımın giyinmiş kadın bedenlerini tanımayı, soymayı, fotoğraftaki kişinin anatomisini tespit etmeyi ve fotoğraftan çıplak bir beden oluşturmayı öğrenecek şekilde programlandığını belirtiyor.

GAN teknolojisiyle kadın bedenlerini tanıyıp manipüle edecek şekilde programlanan yazılımın ürettiği fotoğrafların kalitesi ise farklılık gösteriyor. Teknoloji dergisi The Verge’ün yaptığı araştırmaya göre, bazı fotoğrafların manipüle edildikleri açıkça görünürken, bazıları ise yanıltıcı bir şekilde gerçek gibi görünüyor.

Yazılımı entegre etmek kolay

Bu programın Telegram’daki “Bot” adlı uygulama üzerinden aktive edildiğini belirten uzmanlar, yazılımı kullanmak isteyenlerin sohbet penceresi üzerinden kolayca entegre edebildiğini ifade ediyor. 

Uzmanlar bu yazılımın kim tarafından geliştirildiğini ise bilmiyor, ancak bu programın sadece İngilizce ve Rusca olduğuna dikkat çekiyor. Sensity’nin uzmanları, yazılımın daha çok eski Sovyet ülkelerinde kullanıldığını tespit ettiklerini belirtiyor.

Hazırladıkları raporda söz konusu yazılımın 2017 yılından beri kullanıldığını belirten uzmanlar, bu sahte fotoğrafların şantaj gibi kötü amaçlarla kullanılabileceği konusunda da uyarıyor.

Bu haber Deutsche Welle Türkçe sitesinden kooperasyonumuz çerçevesinde orjinal olarak kopyalanmıştır. Bütün haklar Deutsche Welle Türkçe sitesine aittir. 

İLGİNİZİ ÇEKEBİLİR

CEVAP VER

Please enter your comment!
Please enter your name here

- Advertisement -spot_img

İNSTAGRAM

SON HABERLER