Aplikasi Ubah Foto Perempuan Jadi Telanjang, Dikecam Lalu Hilang
- Pixabay/StockSnap
VIVA – Sebuah aplikasi yang menggunakan algoritma pembelajaran mesin (machine learning), 'DeepNude' dikabarkan tak dapat lagi ditemukan alias menghilang. Aplikasi ini akan mengubah foto wanita berpakaian menjadi telanjang. Untuk mengaksesnya, pengguna harus membayar sebesar US$50 atau sekitar Rp705 ribu.
Dilansir situs Independent, Senin 1 Juli 2019, DeepNude mendapat kritik keras karena layanannya dianggap telah melecehkan wanita. DeepNude memanfaatkan artificial intelligence untuk membuat gambar palsu. Sistem akan bekerja secara realitis bagaimana penampilan objek jika dalam keadaan bugil.
Gambar dan klip yang dihasilkan memang seringkali terlihat kredibel bagi rata-rata objek. Namun ada juga kemungkinan digunakan untuk menyesatkan. Perlu diketahui, DeepNude tidak bisa bekerja pada pria. Kini pengembang aplikasi telah menghapus software dari web, dan mengatakan bahwa masyarakat dunia belum siap akan adanya aplikasi ini.
"Kemungkinan besar aplikasi akan disalahgunakan. Kami tidak ingin menghasilkan uang dengan cara ini. Pengguna yang sudah membeli aplikasi melalui Windows dan Linux, akan menerima pengembalian uang," kata DeepNude.
Developer juga meminta kepada pengguna yang telah memiliki gambar telanjang palsu untuk tidak membagikannya. Sebelumnya aplikasi ini mendapat banyak kecaman, termasuk dari Katelyn Bowden, Founder Baddas.
"Balas dendam dalam bentuk pornografi didefinisikan seperti berbagi foto pribadi, seksual atau video orang lain tanpa persetujuan, dan dengan tujuan membuat malu. Aplikasi DeepNude dapat membuat siapa pun menjadi korban balas dendam dengan foto palsu," katanya.
Kemudian dalam akun Twitter, DeepNude memosting cuitan yang seolah bernada penyesalan karena membuat aplikasi tersebut, "Beberapa bulan lalu kami membuat proyek ini untuk hiburan. Kami pikir kami menjualnya secara terkendali. Jujur, aplikasi ini tidak terlalu bagus, hanya bekerja di beberapa foto saja. Kami tidak pernah berpikir bisa menjadi viral dan sekarang kami tidak bisa mengendalikannya," tulisnya. (ren)