Key Takeaway
- Sebuah kertas baharu mendakwa bahawa kecerdasan buatan boleh menentukan projek penyelidikan yang mungkin memerlukan lebih banyak peraturan daripada yang lain.
- Ia adalah sebahagian daripada usaha yang semakin meningkat untuk mengetahui jenis AI yang boleh berbahaya.
-
Seorang pakar berkata bahaya sebenar AI ialah ia boleh menjadikan manusia bisu.
Kecerdasan buatan (AI) menawarkan banyak faedah, tetapi juga beberapa potensi bahaya. Dan kini, penyelidik telah mencadangkan kaedah untuk mengawasi ciptaan berkomputer mereka.
Sebuah pasukan antarabangsa mengatakan dalam kertas baharu bahawa AI boleh menentukan jenis projek penyelidikan yang mungkin memerlukan lebih banyak peraturan daripada yang lain. Para saintis menggunakan model yang menggabungkan konsep daripada biologi dan matematik dan merupakan sebahagian daripada usaha yang semakin meningkat untuk menemui jenis AI yang boleh berbahaya.
"Sudah tentu, walaupun penggunaan AI berbahaya 'sci-fi' mungkin timbul jika kita memutuskan begitu […], perkara yang menjadikan AI berbahaya bukanlah AI itu sendiri, tetapi [cara kita menggunakannya], " Thierry Rayna, pengerusi Teknologi untuk Perubahan, di École Polytechnique di Perancis, memberitahu Lifewire dalam temu bual e-mel. "Melaksanakan AI boleh sama ada meningkatkan kecekapan (contohnya, ia memperkukuh kaitan kemahiran dan pengetahuan manusia/pekerja) atau memusnahkan kecekapan, iaitu, AI menjadikan kemahiran dan pengetahuan sedia ada kurang berguna atau usang."
Menyimpan Tab
Pengarang kertas kerja baru-baru ini menulis dalam catatan bahawa mereka membina model untuk mensimulasikan pertandingan AI hipotesis. Mereka menjalankan simulasi ratusan kali untuk cuba meramalkan cara perlumbaan AI dunia sebenar mungkin berlaku.
"Pembolehubah yang kami dapati sangat penting ialah "panjang" perlumbaan-masa yang diambil oleh perlumbaan simulasi kami untuk mencapai objektif mereka (produk AI berfungsi), " tulis para saintis. "Apabila perlumbaan AI mencapai objektifnya dengan cepat, kami mendapati bahawa pesaing yang kami kodkan untuk sentiasa mengabaikan langkah berjaga-jaga keselamatan sentiasa menang."
Sebaliknya, penyelidik mendapati bahawa projek AI jangka panjang tidak begitu berbahaya kerana pemenangnya bukan selalunya mereka yang mengabaikan keselamatan. "Memandangkan penemuan ini, adalah penting bagi pengawal selia untuk menentukan berapa lama perlumbaan AI yang berbeza berkemungkinan bertahan, menggunakan peraturan yang berbeza berdasarkan jangka masa mereka, " tulis mereka. "Penemuan kami mencadangkan bahawa satu peraturan untuk semua perlumbaan AI-daripada larian pecut hingga maraton-akan membawa kepada beberapa hasil yang jauh dari ideal."
David Zhao, pengarah urusan Coda Strategy, sebuah syarikat yang berunding mengenai AI, berkata dalam temu bual e-mel dengan Lifewire bahawa mengenal pasti AI berbahaya boleh menjadi sukar. Cabarannya terletak pada hakikat bahawa pendekatan moden untuk AI mengambil pendekatan pembelajaran yang mendalam.
"Kami tahu pembelajaran mendalam menghasilkan hasil yang lebih baik dalam banyak kes penggunaan, seperti pengesanan imej atau pengecaman pertuturan," kata Zhao. "Bagaimanapun, adalah mustahil untuk manusia memahami cara algoritma pembelajaran mendalam berfungsi dan bagaimana ia menghasilkan outputnya. Oleh itu, sukar untuk mengetahui sama ada AI yang menghasilkan keputusan yang baik adalah berbahaya kerana mustahil untuk manusia memahami apa yang sedang berlaku."
Perisian boleh menjadi "berbahaya" apabila digunakan dalam sistem kritikal, yang mempunyai kelemahan yang boleh dieksploitasi oleh pelakon jahat atau menghasilkan keputusan yang salah, Matt Shea, pengarah strategi di firma AI MixMode, berkata melalui e-mel. Beliau menambah bahawa AI yang tidak selamat juga boleh mengakibatkan klasifikasi keputusan yang tidak betul, kehilangan data, kesan ekonomi atau kerosakan fizikal.
"Dengan perisian tradisional, pembangun mengekodkan algoritma yang boleh diperiksa oleh seseorang untuk memikirkan cara memasangkan kelemahan atau membetulkan pepijat dengan melihat kod sumber," kata Shea."Dengan AI, bagaimanapun, sebahagian besar logik dicipta daripada data itu sendiri, dikodkan ke dalam struktur data seperti rangkaian saraf dan seumpamanya. Ini menghasilkan sistem yang "kotak hitam" yang tidak boleh diperiksa untuk mencari dan membetulkan kelemahan seperti perisian biasa."
Bahaya Di Hadapan?
Walaupun AI telah digambarkan dalam filem seperti The Terminator sebagai kuasa jahat yang berniat untuk memusnahkan manusia, bahaya sebenar mungkin lebih membosankan, kata pakar. Rayna, sebagai contoh, mencadangkan bahawa AI boleh menjadikan kita bodoh.
“Ia boleh menghalang manusia daripada melatih otak mereka dan mengembangkan kepakaran,” katanya. “Bagaimana anda boleh menjadi pakar dalam modal teroka jika anda tidak menghabiskan sebahagian besar masa anda membaca aplikasi permulaan? Lebih buruk lagi, AI terkenal sebagai 'kotak hitam' dan tidak banyak dapat dijelaskan. Tidak mengetahui mengapa keputusan AI tertentu diambil bermakna terdapat sedikit yang boleh dipelajari daripadanya, sama seperti anda tidak boleh menjadi pelari pakar dengan memandu di sekitar stadium menggunakan Segway.”
Sukar untuk mengetahui sama ada AI yang menghasilkan hasil yang baik adalah berbahaya, kerana mustahil untuk manusia memahami perkara yang sedang berlaku.
Mungkin ancaman paling segera daripada AI ialah kemungkinan ia boleh memberikan keputusan berat sebelah, Lyle Solomon, seorang peguam yang menulis tentang implikasi undang-undang AI, berkata dalam temu bual e-mel.
"AI boleh membantu dalam memperdalam jurang masyarakat. AI pada asasnya dibina daripada data yang dikumpul daripada manusia," tambah Solomon. "[Tetapi] walaupun terdapat data yang luas, ia mengandungi subset yang minimum dan tidak akan merangkumi apa yang difikirkan oleh semua orang. Oleh itu, data yang dikumpul daripada ulasan, mesej awam, ulasan, dll., dengan berat sebelah yang wujud akan menjadikan AI meningkatkan diskriminasi dan kebencian."