“Algoritma tidak lebih seksis daripada masyarakat saat ini”

Kecerdasan buatan dan algoritma ada di mana-mana. Dari rekomendasi Netflix hingga iklan Youtube hingga rekrutmen, mereka begitu terlibat dalam kehidupan kita tanpa kita selalu menyadarinya. Peneliti biologi di Inserm dan di Weizmann Institute of Science, Aude Bernheim dan Flora Vincent telah menerbitkan sebuah buku, Kecerdasan buatan bukan tanpa ituYang memperingatkan pentingnya bias dalam kecerdasan buatan dan mengeksplorasi cara untuk mengobatinya.

Pada 2013, saya mendirikan Wax Science Society, yang mengkampanyekan sains yang lebih inklusif. Apa yang mendorong pendekatan Anda?

Flora Vincent : Aude dan saya mengambil gelar master kedua di Pusat Penelitian Interdisipliner (CRI) yang melatih siswa dalam ilmu kehidupan. Yayasan mendorong kami banyak untuk terlibat dan membuat klub. Bergabunglah dengan Draw Me Why, sebuah asosiasi yang telah membuat video pendek untuk menjawab pertanyaan seperti mengapa langit berwarna biru, misalnya. Segera setelah itu, Komisi Eropa meluncurkan kompetisi. Sebuah video harus diproduksi untuk mempromosikan sains bagi gadis-gadis muda.

Faktanya, Komisi Eropa telah membuat video yang sangat stereotip yang menunjukkan bahwa wanita yang memasuki sains hanya melakukannya di bidang tata rias. Kami membuat video yang mencoba menjadi inovatif dan tidak biasa. Kami memenangkan penghargaan favorit juri. Kami berhak atas surat kabar di Le Monde, L’Oreal memanggil kami untuk memberi selamat kepada kami. Kami memutuskan untuk membuat asosiasi independen sebagai bagian dari master kami dan secara bertahap berkembang.

Saya suka Bernheim : Kami tidak pernah mengalami kekurangan keragaman. Kami belajar dalam persiapan organik dan kemudian di sektor pertanian, ada sekitar 60% wanita. Jadi bukan diskriminasi yang memotivasi kami. Sebaliknya, kami ingin gadis-gadis muda lainnya dapat bekerja dalam kondisi yang menguntungkan seperti kami.

READ  Pasien pertama yang menerima vaksin kanker

Saya telah menulis buku tentang bias dalam kecerdasan buatan. kenapa kamu memilih topik ini?

FV : Sebagai bagian dari asosiasi, kami telah mencapai banyak hal: intervensi sekolah menengah, pameran, dan kami juga telah mengerjakan isu-isu yang berkaitan dengan seksisme dalam sains. Kami menyadari bahwa ada bias di mana-mana, dalam kesehatan misalnya. Dia mencatat bahwa obat memiliki efek samping yang lebih berbahaya pada wanita atau gejala serangan jantung kurang dikenal pada wanita. Kami bertemu dengan anggota lab Vitalité, yang menerbitkan buku tentang kesetaraan gender. Tidak ada sains dalam sains jadi kami mengundang diri kami ke jalur editorial mereka. Kami memilih kecerdasan buatan karena itu adalah topik yang muncul pada saat itu dan terutama karena memainkan peran penting di banyak bidang.

Bias dan risiko apa yang telah diidentifikasi?

FV : Salah satu contoh yang paling jelas adalah Joy Buolamwini, seorang mahasiswa di Massachusetts Institute of Technology, yang menemukan bahwa perangkat lunak pengenalan wajah secara umum lebih efektif dalam mengenali pria kulit putih daripada orang kulit berwarna. Ini karena tidak ada representasi data yang digunakan untuk melatih algoritma. Ini berisi representasi berlebihan pria kulit putih dan terlalu sedikit wanita kulit hitam.

Ada juga masalah yang lebih serius seperti Compas, algoritme pengambilan keputusan yang, bagi beberapa hakim AS, seharusnya memprediksi apakah seorang tahanan berisiko mengalami residivisme atau tidak. Satu perusahaan memperingatkan bahwa algoritma yang salah tentang kulit hitam lebih dari kulit putih, yang sangat diskriminatif. Tapi ini sangat rumit karena kita tidak tahu apakah masalahnya benar-benar berasal dari algoritma. Kami masih di awal, masih banyak jaringan analitis yang harus dilakukan.

READ  Saatnya klub untuk sains

Di bidang rekrutmen, kami juga menemukan bias yang signifikan: untuk keterampilan yang setara, beberapa algoritme menawarkan pekerjaan bergaji lebih rendah kepada perempuan, beberapa algoritme memungkinkan kandidat perempuan untuk ditarik, dll.

AB : Masyarakat menjadi sangat seksis dan sangat rasis, dan karena algoritme belajar dari data masa lalu sejak beberapa tahun yang lalu – berita saja tidak cukup – mereka juga harus bias. Mereka adalah pewaris sejarah kita: mereka tidak lebih seksis dari masyarakat saat ini.

Solusi apa yang dapat diterapkan untuk menghilangkan bias ini?

FV : Sebelum memprogram tanpa bias, Anda perlu membuat orang sadar akan adanya bias. Untuk alasan ini, perlu untuk meningkatkan kesadaran di sekolah kode dan perusahaan yang menggunakan kode seperti bank – untuk mengalokasikan kredit – atau sekolah teknik – untuk merekrut. Perlu diadakan pelatihan tentang topik ini untuk meningkatkan kesadaran, terutama di institusi. Orang juga dapat membayangkan jenis stiker yang memastikan kode tidak bias. Ini juga mulai muncul di Amerika Serikat. Juga perlu untuk memeriksa basis, yaitu data untuk memastikan bahwa itu cukup mewakili populasi yang diinginkan.

Masih ada banyak penelitian yang harus dilakukan tentang topik ini. Hanya ada satu solusi untuk membuat AI yang bertanggung jawab. Algoritma bervariasi dan masing-masing memiliki masalah sendiri. Kita harus menemukan solusi untuk masing-masing dari mereka. Ini adalah kesulitan yang kompleks untuk dipecahkan.

Dalam buku Anda, Anda berbicara tentang prevalensi prasangka. Tentang apa ini?

FV : Bias dapat dikoreksi seperti ini, sangat mudah untuk dikodekan. Tetapi masalah prevalensi mempengaruhi GitHub, yang merupakan basis data besar yang penuh dengan stereotip. Butuh banyak pekerjaan untuk membuatnya. Banyak pengembang menggunakan database ini dan karena itu berisiko mengulangi bias ini. Jika kami dapat menambal basis data ini, kami akan memiliki dampak besar karena kami akan memengaruhi semua kode yang menjadi dasarnya. Setelah itu, sangat mudah untuk mengkodekan AI tanpa bias. Untuk seorang head hunter cukup di tentukan bahwa anda membutuhkan jumlah CV pria sama dengan jumlah wanita atau minimal 100 wanita…

READ  Kura-kura Galapagos bersentuhan dengan manusia yang kebal antibiotik antibiotic

Haruskah perlindungan diterapkan di setiap perusahaan untuk memeriksa bias ini?

AB : Saya tidak berpikir kita perlu membuat struktur baru untuk memecahkan masalah. Anda harus memperlakukan kecerdasan buatan seperti produk lainnya. Tanggung jawab tidak hanya terletak pada perusahaan, tetapi juga pada pelanggan dan pengguna. Perusahaan jelas perlu melakukan pekerjaan yang lebih baik, tetapi kami juga tidak tahu bagaimana orang tersebut akan menggunakannya. Dalam pengertian itu, nomenklatur bisa menjadi praktik yang baik.

Badan pengatur tingkat yang lebih tinggi juga tidak diperlukan. Algoritma ada di mana-mana, tidak mungkin untuk memeriksa semuanya. Di sisi lain, laboratorium penelitian dapat langsung mengatasi masalah tersebut.

Google baru saja memecat peneliti etis. Apa yang menginspirasi Anda?

FV : Itu sangat kejam tetapi yang paling mengejutkan saya adalah bahwa sebelumnya, Google mengkhawatirkan reputasinya. Sekarang, tidak sama sekali. Dan mereka benar. Meskipun saya kaget, saya tidak akan menutup akun Gmail saya.

AB : Ini sinyal yang sangat kuat. Beberapa perusahaan tidak melakukan apa-apa, tidak berinvestasi dalam kecerdasan buatan. Ada ancaman yang jelas.

Esila Tosun

"Penggemar musik. Penjelajah yang sangat rendah hati. Analis. Geek perjalanan. Praktisi tv ekstrim. Gamer."

Related Posts

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Read also x