Mengapa Perisian Membaca Emosi Boleh Melanggar Privasi Anda

Isi kandungan:

Mengapa Perisian Membaca Emosi Boleh Melanggar Privasi Anda
Mengapa Perisian Membaca Emosi Boleh Melanggar Privasi Anda
Anonim

Key Takeaway

  • Zoom dilaporkan berkata ia akan menggunakan AI untuk menilai sentimen atau tahap penglibatan pengguna.
  • Kumpulan hak asasi manusia meminta Zoom memikirkan semula rancangannya kerana kebimbangan privasi dan keselamatan data.
  • Sesetengah syarikat juga menggunakan perisian pengesan emosi semasa temu duga untuk menilai sama ada pengguna memberi perhatian.
Image
Image

Penggunaan kecerdasan buatan (AI) yang semakin meningkat untuk memantau emosi manusia menimbulkan kebimbangan privasi.

Organisasi hak asasi manusia meminta Zoom memperlahankan rancangannya untuk memperkenalkan AI penganalisis emosi ke dalam perisian persidangan videonya. Syarikat itu dilaporkan berkata bahawa ia akan menggunakan AI untuk menilai sentimen atau tahap penglibatan pengguna.

"Pakar mengakui bahawa analisis emosi tidak berfungsi, " konsortium kumpulan hak asasi manusia, termasuk ACLU, menulis dalam surat kepada Zoom. "Ekspresi muka selalunya terputus hubungan daripada emosi di bawahnya, dan penyelidikan mendapati bahawa manusia pun tidak dapat membaca atau mengukur emosi orang lain dengan tepat pada suatu masa tertentu. Membangunkan alat ini menambah kepercayaan kepada pseudosains dan meletakkan reputasi anda dipertaruhkan."

Zoom tidak segera membalas permintaan Lifewire untuk komen.

Menjaga Emosi Anda

Menurut artikel Protokol, sistem pemantauan Zum yang dipanggil Q for Sales akan menyemak nisbah masa bercakap pengguna, selang masa tindak balas dan perubahan pembesar suara yang kerap untuk menjejaki tahap interaksi orang itu. Zoom akan menggunakan data ini untuk menetapkan skor antara sifar dan 100, dengan skor yang lebih tinggi menunjukkan penglibatan atau sentimen yang lebih tinggi.

Kumpulan hak asasi manusia mendakwa perisian itu boleh mendiskriminasi orang kurang upaya atau etnik tertentu dengan menganggap bahawa setiap orang menggunakan ekspresi muka, corak suara dan bahasa badan yang sama untuk berkomunikasi. Kumpulan itu juga mencadangkan perisian itu boleh menjadi risiko keselamatan data.

Image
Image

"Mengumpul data peribadi secara mendalam boleh menjadikan mana-mana entiti yang menggunakan teknologi ini sebagai sasaran untuk mengintip pihak berkuasa kerajaan dan penggodam berniat jahat," menurut surat itu.

Julia Stoyanovich, seorang profesor sains komputer dan kejuruteraan di Universiti New York, memberitahu Lifewire dalam temu bual e-mel bahawa dia ragu-ragu tentang dakwaan di sebalik pengesanan emosi.

"Saya tidak nampak bagaimana teknologi sebegitu boleh bekerja-ekspresi emosi orang adalah sangat individu, sangat bergantung kepada budaya dan sangat khusus konteks," kata Stoyanovich."Tetapi, mungkin lebih penting lagi, saya tidak nampak mengapa kita mahu alat ini berfungsi. Dalam erti kata lain, kita akan menghadapi lebih banyak masalah jika ia berfungsi dengan baik. Tetapi mungkin sebelum memikirkan tentang risiko, kita harus tanya-apakah potensi manfaat teknologi sedemikian?"

Zoom bukan satu-satunya syarikat yang menggunakan perisian pengesan emosi. Theo Wills, pengarah kanan privasi di Kuma LLC, sebuah syarikat perunding privasi dan keselamatan, memberitahu Lifewire melalui e-mel bahawa perisian untuk mengesan emosi digunakan semasa temu bual untuk menilai sama ada pengguna memberi perhatian. Ia juga sedang diuji dalam industri pengangkutan untuk memantau sama ada pemandu kelihatan mengantuk, pada platform video untuk mengukur minat dan menyesuaikan syor, dan dalam tutorial pendidikan untuk menentukan sama ada kaedah pengajaran tertentu menarik.

Wills berpendapat bahawa kontroversi mengenai perisian pemantauan emosi adalah lebih kepada persoalan etika data daripada privasi. Dia berkata ini mengenai sistem yang membuat keputusan dunia sebenar berdasarkan firasat.

"Dengan teknologi ini, anda kini menganggap sebab saya mempunyai ekspresi tertentu di wajah saya, tetapi dorongan di sebalik ekspresi berbeza secara meluas disebabkan oleh perkara seperti didikan sosial atau budaya, tingkah laku keluarga, pengalaman lalu atau kegugupan pada masa ini," tambah Wills. "Mendasarkan algoritma pada andaian sememangnya cacat dan berpotensi mendiskriminasikan. Banyak populasi tidak diwakili dalam populasi yang berdasarkan algoritma dan perwakilan yang sesuai perlu diutamakan sebelum ini harus digunakan."

Pertimbangan Praktikal

Masalah yang dibangkitkan oleh perisian penjejakan emosi mungkin praktikal dan juga teori. Matt Heisie, pengasas bersama Ferret.ai, aplikasi dipacu AI yang menyediakan kecerdasan perhubungan, memberitahu Lifewire dalam e-mel bahawa pengguna perlu bertanya di mana analisis wajah sedang dilakukan dan data apa yang disimpan. Adakah kajian sedang dilakukan pada rakaman panggilan, diproses dalam awan atau pada peranti tempatan?

Selain itu, Heisie bertanya, semasa algoritma mengetahui, apakah data yang dikumpulnya tentang wajah atau pergerakan seseorang yang berpotensi terungkai daripada algoritma dan digunakan untuk mencipta semula biometrik seseorang? Adakah syarikat menyimpan syot kilat untuk mengesahkan atau mengesahkan pembelajaran algoritma dan adakah pengguna dimaklumkan tentang data terbitan baharu ini atau imej yang disimpan berpotensi dikumpulkan daripada panggilan mereka?

"Ini semua adalah masalah yang telah diselesaikan oleh banyak syarikat, tetapi terdapat juga syarikat yang telah digegarkan oleh skandal apabila ternyata mereka tidak melakukan ini dengan betul, " kata Heisie. "Facebook ialah kes paling ketara bagi syarikat yang melancarkan semula platform pengecaman wajahnya atas kebimbangan mengenai privasi pengguna. Syarikat induk Meta kini menarik ciri AR daripada Instagram di beberapa bidang kuasa seperti Illinois dan Texas berhubung undang-undang privasi yang mengelilingi data biometrik."

Disyorkan: