Key Takeaway
- Bincang algoritma berbahaya kepada remaja yang menghabiskan banyak masa di internet, kata pakar.
- Pengguna Twitter baru-baru ini menghadapi masalah di mana wajah Hitam telah disingkirkan daripada wajah putih.
- Otak remaja yang sedang berkembang mungkin sangat terdedah kepada kesan merosakkan bias algoritma, kata penyelidik.
Prasangka yang timbul dalam beberapa teknologi, yang dikenali sebagai bias algoritma, boleh membahayakan banyak kumpulan, tetapi pakar mengatakan ia amat merosakkan remaja.
Bincang algoritma, apabila sistem komputer menunjukkan hasil yang prejudis, adalah masalah yang semakin meningkat. Pengguna Twitter baru-baru ini menemui contoh berat sebelah pada platform apabila algoritma pengesanan imej yang memangkas foto telah memotong wajah Hitam berbanding wajah putih. Syarikat itu memohon maaf atas isu itu, tetapi masih belum mengeluarkan pembetulan. Ini adalah contoh berat sebelah yang dihadapi oleh remaja apabila mereka pergi ke dalam talian, yang mereka lakukan lebih banyak daripada kumpulan umur lain, kata pakar.
"Kebanyakan remaja tidak menyedari bahawa syarikat media sosial menyediakan mereka untuk mempromosikan kandungan tertentu yang mereka fikir pengguna akan suka [untuk] membolehkan mereka kekal selama mungkin di platform, " Dr. Mai- Ly Nguyen Steers, penolong profesor di Sekolah Kejururawatan di Universiti Duquesne yang mengkaji penggunaan media sosial dalam kalangan remaja/pelajar kolej, berkata dalam temu bual e-mel.
"Walaupun terdapat beberapa tahap kesedaran tentang algoritma, kesan tidak mendapat cukup suka dan komen masih kuat dan boleh menjejaskan harga diri remaja," tambah Steers.
Membangun Otak
Bincang algoritma mungkin menjejaskan remaja dalam cara yang tidak dijangka kerana korteks prefrontal mereka masih berkembang, Mikaela Pisani, Ketua Saintis Data di Rootstrap, menjelaskan dalam temu bual e-mel.
Kesan tidak mendapat cukup suka dan komen masih kuat dan boleh menjejaskan harga diri remaja.
"Remaja amat terdedah kepada fenomena 'Kilang Sosial', di mana algoritma mencipta kelompok masyarakat pada platform dalam talian, yang membawa kepada kebimbangan dan kemurungan jika keperluan remaja untuk mendapatkan kelulusan sosial tidak dipenuhi," kata Pisani. "Algoritma dipermudahkan berdasarkan data yang tidak sempurna sebelumnya yang membawa kepada gambaran yang berlebihan stereotaip dengan mengorbankan pendekatan yang lebih bernuansa untuk pembentukan identiti.
"Mengambil pandangan yang lebih luas, kita juga ditinggalkan untuk mempersoalkan, sebagai masyarakat, jika kita mahu algoritma membentuk perjalanan remaja kita ke alam dewasa, dan adakah sistem ini menyokong dan bukannya menyekat pertumbuhan peribadi individu?"
Disebabkan masalah ini, terdapat keperluan yang semakin meningkat untuk mengingati remaja semasa mereka bentuk algoritma, kata pakar.
"Berdasarkan input daripada pakar pembangunan, saintis data dan penyokong belia, dasar abad ke-21 mengenai privasi data dan reka bentuk algoritma juga boleh dibina dengan mengambil kira keperluan khusus remaja, " Avriel Epps-Darling, seorang doktor falsafah pelajar di Harvard, menulis baru-baru ini. "Sebaliknya, jika kita terus meremehkan atau mengabaikan cara remaja terdedah kepada perkauman algoritma, kemudaratan itu berkemungkinan besar akan bergema melalui generasi akan datang."
Memerangi Bias
Sehingga ada penyelesaian, sesetengah penyelidik cuba mencari cara untuk mengurangkan kerosakan yang berlaku kepada golongan muda melalui algoritma yang berat sebelah.
"Intervensi telah difokuskan untuk menjadikan remaja menyedari corak media sosial mereka memberi kesan negatif kepada kesihatan mental mereka dan cuba menghasilkan strategi untuk mengurangkannya (mis., mengurangkan penggunaan media sosial), " kata Steers.
"Beberapa pelajar kolej yang telah kami temu bual telah menyatakan bahawa mereka merasa terdorong untuk menjana kandungan untuk kekal "relevan," walaupun mereka tidak mahu keluar atau menghantar pos, " sambungnya. "Walau bagaimanapun, mereka merasakan mereka perlu menjana kandungan untuk mengekalkan hubungan mereka dengan pengikut atau rakan mereka."
Jawapan muktamad boleh membuang berat sebelah manusia daripada komputer. Tetapi memandangkan pengaturcara hanyalah manusia, itu adalah cabaran yang sukar, kata pakar.
Satu penyelesaian yang mungkin adalah membangunkan komputer yang terdesentralisasi dan diprogramkan untuk melupakan perkara yang telah mereka pelajari, kata John Suit, Ketua Pegawai Teknologi di firma robotik KODA.
"Melalui rangkaian terdesentralisasi, data dan analitik data itu, sedang disusun dan dianalisis dari pelbagai perkara," kata Suit dalam temu bual e-mel. "Data sedang dikumpul dan diproses bukan daripada pemprosesan minda AI tunggal dalam had algoritmanya, tetapi ratusan atau bahkan ribuan.
"Apabila data itu dikumpul dan dianalisis, "kesimpulan" lama atau data berlebihan dilupakan. Melalui sistem ini, algoritma yang mungkin bermula dengan berat sebelah akhirnya akan membetulkan dan menggantikan bias itu jika terbukti salah."
Walaupun berat sebelah mungkin merupakan masalah lama, mungkin ada cara untuk mengatasinya, sekurang-kurangnya dalam talian. Mereka bentuk komputer yang menghilangkan prasangka kita ialah langkah pertama.