Key Takeaway
- Syarikat semakin menggunakan AI yang menerangkan cara ia memperoleh hasil.
- LinkedIn baru-baru ini meningkatkan hasil langganannya selepas menggunakan AI yang meramalkan pelanggan berisiko membatalkan dan menerangkan cara ia mencapai kesimpulannya.
- Suruhanjaya Perdagangan Persekutuan telah mengatakan bahawa AI yang tidak dapat dijelaskan boleh disiasat.
Salah satu trend baharu yang paling hangat dalam perisian ialah kecerdasan buatan (AI) yang menerangkan cara ia mencapai keputusannya.
AI yang boleh dijelaskan membuahkan hasil apabila syarikat perisian cuba menjadikan AI lebih mudah difahami. LinkedIn baru-baru ini meningkatkan hasil langganannya selepas menggunakan AI yang meramalkan pelanggan berisiko membatalkan dan menerangkan cara ia mencapai kesimpulannya.
"AI yang boleh dijelaskan adalah tentang dapat mempercayai output serta memahami cara mesin itu sampai ke sana, " Travis Nixon, Ketua Pegawai Eksekutif SynerAI dan Ketua Sains Data, Perkhidmatan Kewangan di Microsoft, memberitahu Lifewire dalam temu bual e-mel.
"'Bagaimana?' adalah persoalan yang dikemukakan kepada banyak sistem AI, terutamanya apabila keputusan dibuat atau output dihasilkan yang tidak sesuai, " tambah Nixon. "Daripada melayan kaum yang berbeza secara tidak adil kepada menganggap kepala botak sebagai bola sepak, kita perlu tahu mengapa sistem AI menghasilkan keputusannya. Sebaik sahaja kita memahami 'bagaimana,' ia meletakkan syarikat dan individu untuk menjawab 'apa seterusnya?'."
Mengenal AI
AI telah terbukti tepat dan membuat pelbagai jenis ramalan. Tetapi AI selalunya dapat menjelaskan bagaimana ia membuat kesimpulannya.
Dan pengawal selia mengambil perhatian tentang masalah kebolehjelasan AI. Suruhanjaya Perdagangan Persekutuan telah mengatakan bahawa AI yang tidak dapat dijelaskan boleh disiasat. EU sedang mempertimbangkan kelulusan Akta Kepintaran Buatan, yang merangkumi keperluan yang membolehkan pengguna mentafsir ramalan AI.
Linkedin adalah antara syarikat yang berpendapat AI boleh dijelaskan boleh membantu meningkatkan keuntungan. Sebelum ini, jurujual LinkedIn bergantung pada pengetahuan mereka dan menghabiskan banyak masa menyaring data luar talian untuk mengenal pasti akaun mana yang mungkin akan terus menjalankan perniagaan dan produk yang mereka mungkin minati semasa pembaharuan kontrak seterusnya. Untuk menyelesaikan masalah itu, LinkedIn memulakan program yang dipanggil CrystalCandle yang mengesan trend dan membantu jurujual.
Dalam contoh lain, Nixon berkata semasa penciptaan model penetapan kuota untuk tenaga jualan syarikat, syarikatnya dapat menggabungkan AI yang boleh dijelaskan untuk mengenal pasti ciri-ciri yang menunjukkan kejayaan pengambilan jualan baharu.
"Dengan hasil ini, pengurusan syarikat ini dapat mengenali jurujual mana yang perlu diletakkan di 'landasan pantas' dan mana yang memerlukan bimbingan, semuanya sebelum sebarang masalah besar timbul," tambahnya.
Banyak Kegunaan untuk AI Boleh Diterangkan
AI yang boleh dijelaskan pada masa ini digunakan sebagai pemeriksaan usus untuk kebanyakan saintis data, kata Nixon. Para penyelidik menjalankan model mereka melalui kaedah mudah, memastikan tiada apa-apa yang benar-benar rosak, kemudian menghantar model itu.
"Ini sebahagiannya kerana banyak organisasi sains data telah mengoptimumkan sistem mereka sekitar 'time over value' sebagai KPI, yang membawa kepada proses tergesa-gesa dan model yang tidak lengkap," tambah Nixon.
Saya bimbang tindak balas daripada model yang tidak bertanggungjawab boleh mengembalikan industri AI dengan cara yang serius.
Orang ramai sering tidak yakin dengan hasil yang tidak dapat dijelaskan oleh AI. Raj Gupta, Ketua Pegawai Kejuruteraan di Cogito, berkata dalam e-mel bahawa syarikatnya telah meninjau pelanggan dan mendapati bahawa hampir separuh daripada pengguna (43%) akan mempunyai persepsi yang lebih positif terhadap syarikat dan AI jika syarikat lebih jelas tentang penggunaan mereka. daripada teknologi tersebut.
Dan bukan hanya data kewangan yang mendapat bantuan daripada AI yang boleh dijelaskan. Satu bidang yang mendapat manfaat daripada pendekatan baharu ialah data imej, di mana mudah untuk menunjukkan bahagian imej yang difikirkan oleh algoritma penting dan di mana mudah untuk manusia mengetahui sama ada maklumat itu masuk akal, Samantha Kleinberg, seorang profesor bersekutu di Stevens Institut Teknologi dan pakar dalam AI yang boleh dijelaskan, memberitahu Lifewire melalui e-mel.
"Adalah lebih sukar untuk melakukannya dengan EKG atau data monitor glukosa berterusan," tambah Kleinberg.
Nixon meramalkan bahawa AI yang boleh dijelaskan akan menjadi asas bagi setiap sistem AI pada masa hadapan. Dan tanpa AI yang boleh dijelaskan, hasilnya boleh menjadi buruk, katanya.
"Saya harap kita maju di hadapan ini cukup jauh untuk mengambil AI yang boleh dijelaskan secara mudah pada tahun-tahun akan datang dan kita melihat kembali pada masa itu hari ini terkejut bahawa sesiapa sahaja akan cukup gila untuk menggunakan model yang mereka tidak faham, " dia menambah."Sekiranya kita tidak menemui masa depan dengan cara ini, saya bimbang tindak balas daripada model yang tidak bertanggungjawab boleh menyebabkan industri AI kembali dengan cara yang serius."