Android

Faceapp memadam penapis 'hitam', 'india', 'asian' selepas orang awam ...

What Happened To Billie Eilish? | Celeb Face App Challenge

What Happened To Billie Eilish? | Celeb Face App Challenge
Anonim

Aplikasi pengeditan selfie yang popular, FaceApp, yang dilancarkan pada awal tahun ini dan mengambil dunia selfie oleh ribut, telah dibakar untuk mengemas kini antara muka dengan penapis baru yang dilaporkan ramai pengguna merasakan adalah perkauman.

FaceApp mendapat populariti yang meluas kerana ia menggunakan algoritma terlatih untuk mengedit foto pengguna. Menggunakan aplikasi orang boleh memilih untuk mengedit imej mereka dalam beberapa cara yang berbeza.

Pengguna boleh menambah senyuman kepada imej mereka, menjadi lebih muda atau lebih tua, menukar jantina dan mengubah gaya anda.

Tetapi tambahan penapis etnik 'India', 'Asia', 'Hitam' dan 'Kaukasia' telah terbukti menghancurkan reputasi aplikasinya. Penapis ini bukan sahaja mengubah kulit dan penampilan kulit tetapi juga gaya rambut dan warna.

Lebih dalam Berita: App ini akan Membantu Anda Mengambil Selfie Perfect

Ketua Pegawai Eksekutif Yaroslav Goncharov mengeluarkan kenyataan: "penapis kontroversi baru akan dikeluarkan dalam beberapa jam akan datang".

Pengguna tidak perlu mengemas kini apl mereka dari Gedung Play untuk menyingkirkan penapis baru kerana mereka akan dialih keluar dari pelayan FaceApp.

"Penapis etnik FaceApp 'adalah idea yang sangat dahsyat. Suka, mungkin salah satu idea yang paling buruk, "satu pengguna Twitter menulis.

Seorang pengguna lain menuduh syarikat itu "menetapkan bar untuk perkauman (realiti ditambah) dengan kemas kini baru yang mengerikan".

"Penapis perubahan etnik telah direka untuk menjadi sama dalam semua aspek. Mereka tidak mempunyai konotasi positif atau negatif yang berkaitan dengan mereka. Mereka juga diwakili oleh ikon yang sama, "kata Brigitte Goncharov kepada The Verge.

Juga Baca: Ini Mungkin Cara Terperinci untuk Mengambil Selfies di Android

Ini bukan kali pertama FaceApp telah menjadi kritikan kerana bersifat perkauman. Pengguna sebelum ini melaporkan bahawa penapis 'panas' secara automatik menyala nada kulit dalam mana-mana gambar.

Semasa kejadian ini, Ketua Pegawai Eksekutif syarikat itu datang ke hadapan dengan menyatakan bahawa insiden ini disebabkan kerana algoritma itu dilatih menggunakan imej orang dengan kulit yang saksama dan hasilnya, mesin itu mula mengaitkan 'panas' dengan kulit yang saksama.

(Dengan input daripada IANS)