Key Takeaway
- Sebuah syarikat perisian dilaporkan sedang mengumpulkan maklumat media sosial untuk membuat profil yang boleh digunakan untuk mengenal pasti orang yang menimbulkan risiko keselamatan.
- Voyager Labs telah memeterai perjanjian penting dengan agensi kerajaan Jepun.
- Tetapi pakar memberi amaran bahawa perisian ramalan AI boleh ditipu.
Maklumat dalam talian anda boleh digunakan untuk meramalkan sama ada anda mungkin melakukan jenayah.
Voyager Labs dilaporkan mengumpul maklumat media sosial untuk membuat profil yang boleh digunakan untuk mengenal pasti orang yang menimbulkan risiko keselamatan. Ia adalah sebahagian daripada usaha yang semakin meningkat untuk menggunakan kecerdasan buatan (AI) untuk menyiasat penjenayah yang berpotensi. Tetapi sesetengah pakar mengatakan bahawa pergerakan itu penuh dengan masalah yang berpotensi.
"Sangat sukar untuk meramalkan tingkah laku manusia," Matthew Carr, seorang penyelidik keselamatan di Atumcell Group, memberitahu Lifewire dalam temu bual e-mel. "Kami tidak dapat meramalkan tingkah laku kami sendiri, apatah lagi tingkah laku orang lain. Saya fikir ada kemungkinan AI boleh digunakan pada masa hadapan untuk tujuan ini, tetapi kami masih jauh untuk dapat melakukannya pada masa ini."
Membuat Profil
Seperti yang dilaporkan The Guardian baru-baru ini, jabatan polis Los Angeles meneliti menggunakan perisian ramalan jenayah Voyager Lab. Syarikat itu juga mengumumkan bahawa ia telah menandatangani perjanjian penting dengan agensi kerajaan Jepun.
Perjanjian Jepun menyediakan agensi kerajaan dengan platform penyiasatan berasaskan AI yang menganalisis sejumlah besar maklumat daripada mana-mana sumber, termasuk data terbuka dan mendalam.
"Saya gembira kerana kami bekerjasama dalam memerangi keganasan dan jenayah," kata Divya Khangarot, Pengarah Urusan APAC di Voyager Labs, dalam siaran berita. "Dengan menggunakan penyelesaian perisikan termaju Voyager Lab, pelanggan kami memperoleh keupayaan unik untuk mengenal pasti dan mengganggu potensi ancaman secara proaktif. Kami membawa lapisan tambahan cerapan penyiasatan mendalam menggunakan gabungan AI, Pembelajaran Mesin dan OSINT untuk mendedahkan laluan tersembunyi, maklumat yang dilanggar, dan pelakon jahat."
Tidak Sangat Pintar?
Tetapi dalam temu bual e-mel, Matt Heisie, pengasas bersama Ferret.ai, yang juga menggunakan AI untuk meramalkan pesalah, menimbulkan keraguan terhadap beberapa tuntutan Voyager Labs.
"Adakah terdapat kaitan yang jelas antara, katakan, rekod penangkapan dan tingkah laku jenayah masa hadapan, kerana terdapat titik hitam pada ujian dan perkembangan tumor?" katanya. "Fikirkan semua kemungkinan kekeliruan yang berlaku dalam penangkapan itu-dalam kawasan mana orang itu tinggal, kuantiti dan kualiti, malah berat sebelah, polis di kawasan itu. Umur seseorang, jantina mereka, penampilan fizikal mereka, kesemuanya mempunyai kesan bersilang pada kemungkinan orang itu mempunyai rekod penangkapan, sepenuhnya dipisahkan daripada kecenderungan sebenar mereka untuk melakukan jenayah yang kami cuba ramalkan."
Defendan dengan peguam yang lebih baik berkemungkinan besar dapat menyekat rekod daripada menjadi tersedia secara umum, kata Heisie. Sesetengah bidang kuasa mengehadkan pelepasan tangkapan gambar atau rekod tangkapan untuk melindungi tertuduh.
"Komputer akan belajar berdasarkan data yang anda berikan dan menggabungkan semua berat sebelah yang berlaku dalam pengumpulan data itu…"
"Semua ini menambahkan lagi berat sebelah kepada algoritma," tambahnya. "Komputer akan belajar berdasarkan data yang anda berikan dan menggabungkan semua berat sebelah yang masuk ke dalam pengumpulan data itu ke dalam pembelajaran dan tafsiran."
Terdapat beberapa percubaan untuk mencipta jenayah yang meramalkan AI, dan dengan hasil yang sering memalukan, kata Heisie.
COMPAS, algoritma penguatkuasaan undang-undang yang digunakan untuk meramalkan kesalahan semula, sering digunakan dalam menentukan hukuman dan jaminan. Ia telah menghadapi skandal sejak 2016 kerana berat sebelah kaum, meramalkan defendan kulit hitam menimbulkan risiko berulang yang lebih tinggi daripada yang sebenarnya, dan sebaliknya bagi defendan kulit putih.
Lebih 1,000 ahli teknologi dan cendekiawan, termasuk ahli akademik dan pakar AI dari Harvard, MIT, Google dan Microsoft, bersuara pada tahun 2020 menentang kertas yang mendakwa bahawa penyelidik telah membangunkan algoritma yang boleh meramalkan jenayah berdasarkan semata-mata muka seseorang, mengatakan bahawa penerbitan kajian sedemikian mengukuhkan kecenderungan perkauman yang sedia ada dalam sistem keadilan jenayah, kata Heisie.
China ialah pasaran terbesar dan paling pesat berkembang untuk jenis teknologi ini, terutamanya disebabkan akses meluas kepada data peribadi, dengan lebih daripada 200 juta kamera pengawasan dan penyelidikan AI lanjutan memfokuskan pada isu ini selama bertahun-tahun, kata Heisie. Sistem seperti CloudWalk's Police Cloud kini digunakan untuk meramal dan menjejaki penjenayah serta mengenal pasti penguatkuasaan undang-undang.
"Walau bagaimanapun, berat sebelah yang besar dilaporkan di sana juga," kata Heisie.
Heisie menambah bahawa syarikatnya menyusun data yang masuk dengan teliti dan tidak menggunakan tangkapan gambar atau rekod tangkapan, "sebaliknya memfokuskan pada kriteria yang lebih objektif."
"AI kami belajar daripada data yang dipilih susun, tetapi yang lebih penting, ia juga belajar daripada orang, yang sendiri menganalisis, mengatur dan menilai rekod, serta memberitahu kami tentang interaksi mereka dengan orang lain," tambahnya. "Kami juga mengekalkan ketelusan penuh dan akses percuma dan awam kepada aplikasi kami (secepat yang kami boleh membiarkannya menjadi beta), dan mengalu-alukan pandangan tentang proses dan prosedur kami."