Wanita Ini Buat Percobaan pada Google Translate, Hasilnya Mengejutkan, 'Mesin Mulai Stereotip'
Kita tahu kalau dalam bahasa Indonesia tidak mengenal perbedaan gender hal ini jelas sangat berbeda dengan bahasa Inggris atau Perancis.
Penulis: Mohammad Rifan Aditya
Editor: Mohammad Rifan Aditya
TRIBUNSTYLE.COM - Pernahkan kamu jadi kebingungan dalam menerjemahkan bahasa Inggris menggunakan Google Translate?
Siapapun sekarang bisa berbahasa asing dengan mudah menggunakan bantuan Google Translate.
Namun kemudahan itu tak selamanya berjalan dengan lancar.
Pasalnya setiap bahasa memiliki prinsip yang berbeda dengan yang lainnya.
• Heboh! Beredar Akun & Grup Facebook Pencari Jarit Batik yang Diduga untuk Mengikat Istri
Misalnya saja soal istilah penyebutan orang.
Kita tahu kalau dalam bahasa Indonesia tidak mengenal perbedaan gender.
Hal ini jelas sangat berbeda dengan bahasa Inggris atau Perancis.
Kalau bahasa Indonesia kita hanya mengenal dia untuk menyebut orang lain yang tidak jamak.
Sementara bahasa Inggris memiliki perbedaan, he: untuk dia laki-laki dan she: untuk dia perempuan.
Nah, atas dasar inilah seorang pengguna Facebook bernama Dina Utami melakukan percobaan pada Google Translate.
"I saw a similar experiment done in Turkish and was interested to see the results in Bahasa Indonesia. Like Turkish, Bahasa Indonesia is also a gender-neutral language, there is no "She" or "He", just "Dia". But when you ask Google to translate these sentences into English, they become gendered.
Do you see a pattern here?" begitu tulis Dina Utami dipostingannya pada 30 November 2017
Bagaimana jadinya jika beberapa kalimat sederhana ini diterjemahkan menggunakan Google Translate.
Ternyata hasilnya cukup mengejutkan.
Google Translate yang merupakan sebuah mesin mulai menggunakan stereotip.
Dia membedakan pekerjaan berdasarkan kecenderungan pria atau wanita yang mengerjakannya.
Lihat saja hasilnya berikut ini.
Bahkan Google translate juga membedakan penggunakan kata 'belum' dan 'tidak' dalam kalimat "dia tidak/belum menikah."
Ternyata percobaan ini juga pernah dilakukan sebelumnya.
Percobaan itu dilakukan oleh Alex Shams, seorang antropolog yang berasal dari Turki.
Alex Shams menggunakan bahasa Turki yang taka kenal pembedaan gender dan menerjemahkannya di Google Translate.
Hasilnya juga sama, Google Translate tidak netral seperti yang diharapkan para penutur bahasa Indonesia atau Turki.
Dari sana Alex Shams lantas mengemukakan pendapatnya:
"Turki adalah bahasa netral yang netral. Tidak ada "he" atau "she" - semuanya hanya "o", dan anda hanya dapat memberitahu jenis kelamin dari konteks.
Ketika Anda menerjemahkan kalimat Turki ke dalam bahasa inggris dengan google translate, sesuatu yang luar biasa terjadi: kalimat itu membedakan gender.
Tidak hanya mereka mendapatkan jenis kelamin - google terjemahkan mengubah kalimat Turki non-gendered menjadi kalimat seksis dalam bahasa Inggris (seperti dalam contoh-contoh ini).
Kenapa? Google Translate menggunakan algoritma yang mendasarkan terjemahannya pada frekuensi penggunaan. Jadi jika dalam database ada 1,000 penggunaan kata "Insinyur" dan kebanyakan dari mereka adalah laki-laki, itu menerjemahkan insinyur sebagai laki-laki. Begitu juga untuk "perawat" yang cenderung perempuan.
Google menerjemahkan bias yang ada dalam budaya kita - seperti akses tidak sama untuk bekerja untuk wanita di semua bidang, atau budaya dibangun gagasan bahwa perempuan tidak bahagia, malas, harapan romantis selalu mencari suami - dan mengubah mereka menjadi terjemahan.
Hal ini telah diperdebatkan bahwa teknologi mengalahkan bias manusia, dan karena itu netral meningkatkan otomatisasi dunia menawarkan jalan keluar dari ketidaksetaraan.
Tapi contoh kecil ini menunjukkan, teknologi jauh dari netral.
Teknologi, seperti yang lain, adalah apa yang anda lakukan - dan cara kita menggunakan teknologi saat ini memperkuat ketidak-inequalities dan bias dunia di sekitar kita.
Teknologi membuat bias ini lebih padat dan lebih kaku sebagai algoritma datang untuk menentukan lebih banyak bagian dari kehidupan kita.
Kita menyerahkan diri pada teknologi karena kita telah berjanji bahwa itu menawarkan jalan keluar dari dilema kita saat ini.
Tapi jangan lupa: Teknologi dibentuk oleh para pembuat.
Dan industri teknologi tinggi adalah sangat muda putih, industri laki-laki kaya yang didefinisikan oleh diskriminasi seksual, rasisme, perkelasan dan banyak bentuk lain dari ketidaksetaraan sosial.
Ini adalah orang-orang yang kita ijinkan untuk menjalankan hidup kita. Dan ini hasilnya."
Seorang netizen lantas memberikan pandangannya.
"Hmmmmmmmmmmm..........when a machine begins to stereotyping..........hmmmmmm (Hmm.......... Ketika mesin mulai stereotip.......... hmmm)" tulis Fransiska Nana.
Kalau pendapat kalian dengan percobaan ini, bagaimana?
(TribunStyle.com/Rifan Aditya)
:quality(30):format(webp):focal(0.5x0.5:0.5x0.5)/style/foto/bank/originals/wanita-ini-bikin-percobaan-pada-google-translate-hasil-mengejutkan-ketika-mesin-mulai-stereotip_20171207_194139.jpg)