Twitter Algoritma Bias Perkauman Menunjukkan kepada Masalah Teknologi yang Lebih Besar

Isi kandungan:

Twitter Algoritma Bias Perkauman Menunjukkan kepada Masalah Teknologi yang Lebih Besar
Twitter Algoritma Bias Perkauman Menunjukkan kepada Masalah Teknologi yang Lebih Besar
Anonim

Key Takeaway

  • Twitter berharap dapat membetulkan perkara yang disebut oleh pengguna berat sebelah kaum dalam perisian pratonton imej mereka.
  • Keterangan gergasi teknologi itu mungkin merupakan pengiraan budaya yang diperlukan oleh industri untuk menangani isu kepelbagaian.
  • Kekurangan kepelbagaian teknologi menjejaskan keberkesanan kemajuan teknologinya.
Image
Image

Twitter bersedia untuk melancarkan penyiasatan terhadap algoritma pemangkasan gambarnya selepas ia menjadi topik sohor kini yang mendorong perbualan yang lebih meluas mengenai isu kepelbagaian dalam industri teknologi.

Pejuang media sosial menjadi tajuk utama selepas pengguna menemui berat sebelah kaum yang jelas dalam algoritma pratonton imejnya. Penemuan itu berlaku selepas pengguna Twitter Colin Madland menggunakan platform itu untuk menyatakan kegagalan Zoom untuk mengenali rakan sekerja Kulit Hitamnya yang menggunakan teknologi skrin hijau, tetapi dalam satu pertunjukan yang penuh ironi, dia mendapati algoritma pemangkasan imej Twitter berkelakuan serupa dan mengenepikan keutamaan wajah Hitam.

Sudah tentu, ini adalah isu besar bagi mana-mana minoriti, tetapi saya fikir terdapat isu yang lebih luas juga.

Pengguna lain mengikuti aliran yang mencetuskan satu siri tweet tular yang menunjukkan algoritma secara konsisten mengutamakan wajah putih dan berkulit cerah, daripada orang hingga watak kartun dan juga anjing. Kegagalan ini menunjukkan pergerakan budaya yang lebih besar dalam industri teknologi yang secara konsisten gagal mengambil kira kumpulan minoriti, yang telah merebak ke bahagian teknikal.

"Ia membuatkan golongan minoriti berasa teruk, seolah-olah mereka tidak penting, dan ia boleh digunakan untuk perkara lain yang mungkin menyebabkan kemudaratan yang lebih serius, " Erik Learned-Miller, profesor sains komputer di Universiti dari Massachusetts, berkata dalam temu bual telefon."Apabila anda telah memutuskan untuk kegunaan sesuatu perisian dan semua kemudaratan yang boleh berlaku, maka kami mula bercakap tentang cara untuk meminimumkan kemungkinan perkara itu berlaku."

Kanari pada Garis Masa

Twitter menggunakan rangkaian saraf untuk memangkas imej yang dibenamkan dalam tweet secara automatik. Algoritma ini sepatutnya mengesan wajah untuk dipratonton, tetapi ia kelihatan mempunyai bias putih yang ketara. Jurucakap syarikat, Liz Kelley menghantar tweet jawapan kepada semua kebimbangan itu.

Kelley tweet, "terima kasih kepada semua orang yang membangkitkan perkara ini. kami menguji bias sebelum menghantar model dan tidak menemui bukti berat sebelah kaum atau jantina dalam ujian kami, tetapi jelas bahawa kami mempunyai lebih banyak analisis untuk lakukan. kami akan membuka sumber kerja kami supaya orang lain boleh menyemak dan meniru."

Penulis bersama kertas putih "Teknologi Pengecaman Muka di Alam Liar: Panggilan untuk Pejabat Persekutuan," Learned-Miller ialah penyelidik terkemuka tentang kelebihan perisian pembelajaran AI berasaskan muka. Dia telah membincangkan potensi kesan negatif perisian pembelajaran imej selama bertahun-tahun, dan telah bercakap tentang kepentingan mewujudkan realiti di mana kecenderungan ini dikurangkan dengan sebaik mungkin.

Banyak algoritma untuk teknologi pengecaman muka menggunakan set rujukan untuk data, selalunya dikenali sebagai set latihan, yang merupakan koleksi imej yang digunakan untuk memperhalusi tingkah laku perisian pembelajaran imej. Ia akhirnya membolehkan AI mengenali pelbagai wajah dengan mudah. Walau bagaimanapun, set rujukan ini mungkin kekurangan kumpulan yang pelbagai, yang membawa kepada isu seperti yang dialami oleh pasukan Twitter.

"Sudah tentu, ia merupakan isu besar bagi mana-mana minoriti, tetapi saya fikir terdapat isu yang lebih luas juga," kata Learned-Miller. "Ia berkaitan dengan kekurangan kepelbagaian dalam sektor teknologi dan keperluan untuk kuasa pengawalseliaan terpusat untuk menunjukkan penggunaan yang betul bagi jenis perisian berkuasa ini yang terdedah kepada penyalahgunaan dan penyalahgunaan."

Kepelbagaian Kurang Teknologi

Twitter mungkin merupakan syarikat teknologi terkini di blok pemotongan, tetapi ini jauh daripada masalah baharu. Bidang teknologi kekal sebagai bidang yang kebanyakannya berwarna putih, sentiasa didominasi lelaki dan penyelidik mendapati bahawa kekurangan kepelbagaian menyebabkan replikasi ketidakseimbangan sistemik dan sejarah dalam perisian yang dibangunkan.

Dalam laporan 2019 oleh AI Now Institute New York University, penyelidik mendapati bahawa orang kulit hitam membentuk kurang daripada 6 peratus tenaga kerja di firma teknologi terkemuka di negara ini. Begitu juga, wanita hanya menyumbang 26 peratus pekerja dalam bidang itu-statistik yang lebih rendah daripada bahagian mereka pada tahun 1960.

Ia membuatkan golongan minoriti berasa teruk, seolah-olah mereka tidak penting, dan ia boleh digunakan untuk perkara lain yang boleh menyebabkan kemudaratan yang lebih serius.

Pada zahirnya, isu representasi ini mungkin kelihatan biasa, tetapi dalam praktiknya, bahaya yang ditimbulkan boleh menjadi sangat besar. Penyelidik dalam laporan AI Now Institute mencadangkan ini berkait sebab dengan isu perisian yang sering gagal mengambil kira populasi bukan kulit putih dan bukan lelaki. Sama ada dispenser sabun inframerah yang gagal mengesan kulit yang lebih gelap atau perisian AI Amazon yang gagal membezakan wajah wanita daripada wajah lelaki mereka, kegagalan untuk menangani kepelbagaian dalam industri teknologi membawa kepada kegagalan teknologi untuk menangani dunia yang pelbagai.

"Terdapat ramai orang yang tidak memikirkan isu ini dan tidak benar-benar menyedari bagaimana perkara ini boleh menyebabkan kemudaratan dan betapa ketara bahaya ini, " Learned-Miller mencadangkan tentang pembelajaran imej AI. "Semoga bilangan orang itu semakin berkurangan!"

Disyorkan: