Key Takeaway
- Model pembelajaran mesin baharu mengkhayalkan imej penampilan ayat dalam bahasa untuk membantu terjemahan.
- Sistem AI, yang dipanggil VALHALLA, direka bentuk untuk meniru cara manusia memahami bahasa.
- Sistem baharu adalah sebahagian daripada pergerakan yang semakin berkembang untuk menggunakan AI untuk memahami bahasa.
Kaedah manusia untuk menggambarkan gambar semasa menterjemah perkataan boleh membantu kecerdasan buatan (AI) memahami anda dengan lebih baik.
Model pembelajaran mesin baharu mengkhayalkan imej tentang rupa ayat dalam bahasa. Menurut kertas penyelidikan baru-baru ini, teknik itu kemudian menggunakan visualisasi dan petunjuk lain untuk membantu terjemahan. Ini sebahagian daripada pergerakan yang semakin berkembang untuk menggunakan AI untuk memahami bahasa.
"Cara orang bercakap dan menulis adalah unik kerana kita semua mempunyai nada dan gaya yang sedikit berbeza," Beth Cudney, seorang profesor analisis data di Maryville University, yang tidak terlibat dalam penyelidikan, memberitahu Lifewire dalam temu bual e-mel. "Memahami konteks adalah sukar kerana ia seperti berurusan dengan data tidak berstruktur. Di sinilah pemprosesan bahasa semula jadi (NLP) berguna. NLP ialah cabang AI yang menangani perbezaan dalam cara kita berkomunikasi menggunakan pemahaman bacaan mesin. Perbezaan utama dalam NLP, sebagai cabang AI, tidak hanya menumpukan pada makna literal perkataan yang kita tuturkan atau tulis. Ia melihat pada maknanya."
Pergi Tanya Alice
Sistem AI baharu, yang dipanggil VALHALLA, yang dicipta oleh penyelidik dari MIT, IBM, dan University of California di San Diego, direka bentuk untuk meniru cara manusia memahami bahasa. Menurut saintis, menggunakan maklumat deria, seperti multimedia, dipasangkan dengan perkataan baharu dan tidak dikenali, seperti kad imbas dengan imej, meningkatkan pemerolehan dan pengekalan bahasa.
Sistem ini meningkatkan kuasa bot sembang yang pada masa ini hanya terlatih dan mampu melakukan perbualan tertentu…
Pasukan mendakwa kaedah mereka meningkatkan ketepatan terjemahan mesin berbanding terjemahan teks sahaja. Para saintis menggunakan seni bina penyahkod pengekod dengan dua transformer, sejenis model rangkaian saraf yang sesuai untuk data yang bergantung pada urutan, seperti bahasa, yang boleh memberi perhatian kepada kata kunci dan semantik ayat. Satu transformer menjana halusinasi visual, dan satu lagi melakukan terjemahan multimodal menggunakan output daripada transformer pertama.
"Dalam senario dunia sebenar, anda mungkin tidak mempunyai imej berkenaan dengan ayat sumber, " Rameswar Panda, salah seorang ahli pasukan penyelidik, berkata dalam satu kenyataan berita. "Jadi, motivasi kami pada asasnya: Daripada menggunakan imej luaran semasa inferens sebagai input, bolehkah kami menggunakan halusinasi visual-keupayaan untuk membayangkan adegan visual-untuk menambah baik sistem terjemahan mesin?"
Pemahaman AI
Penyelidikan yang banyak tertumpu pada memajukan NLP, kata Cudney. Sebagai contoh, Elon Musk mengasaskan bersama Open AI, yang mengusahakan GPT-3, model yang boleh bercakap dengan manusia dan cukup arif untuk menjana kod perisian dalam Python dan Java.
Google dan Meta juga sedang berusaha untuk membangunkan AI perbualan dengan sistem mereka yang dipanggil LAMDA. "Sistem ini meningkatkan kuasa chatbots yang pada masa ini hanya terlatih dan mampu melakukan perbualan tertentu, yang mungkin akan mengubah wajah sokongan pelanggan dan meja bantuan, " kata Cudney.
Aaron Sloman, pengasas bersama CLIPr, sebuah syarikat teknologi AI, berkata dalam e-mel bahawa model bahasa besar seperti GPT-3 boleh belajar daripada sangat sedikit contoh latihan untuk menambah baik ringkasan teks berdasarkan maklum balas manusia. Sebagai contoh, katanya, anda boleh memberikan model bahasa yang besar masalah matematik dan meminta AI berfikir langkah demi langkah.
"Kami boleh menjangkakan cerapan dan penaakulan yang lebih besar akan diekstrak daripada model bahasa yang besar sambil kami mengetahui lebih lanjut tentang kebolehan dan batasan mereka," tambah Sloman. "Saya juga menjangkakan model bahasa ini akan mencipta lebih banyak proses seperti manusia apabila pemodel membangunkan cara yang lebih baik untuk memperhalusi model untuk tugas tertentu yang diminati."
Profesor pengkomputeran Georgia Tech Diyi Yang meramalkan dalam temu bual e-mel bahawa kita akan melihat lebih banyak penggunaan sistem pemprosesan bahasa semula jadi (NLP) dalam kehidupan seharian kita, daripada pembantu peribadi berasaskan NLP untuk membantu dengan e-mel dan panggilan telefon, kepada sistem dialog yang berpengetahuan untuk mencari maklumat dalam perjalanan atau penjagaan kesihatan."Serta sistem AI yang adil yang boleh melaksanakan tugas dan membantu manusia dengan cara yang bertanggungjawab dan bebas berat sebelah," tambah Yang.
Model AI besar yang menggunakan trilion parameter seperti GPT-3 dan DeepText akan terus berusaha ke arah satu model untuk semua aplikasi bahasa, ramalan Stephen Hage, seorang jurutera pembelajaran mesin di Dialexa, dalam temu bual e-mel. Beliau berkata bahawa terdapat juga jenis model baharu yang dicipta untuk kegunaan tertentu, seperti membeli-belah dalam talian arahan suara.
"Contohnya mungkin pembeli yang berkata 'Tunjukkan saya pembayang mata ini dalam warna biru tengah malam dengan lebih banyak lingkaran cahaya,' untuk menunjukkan bayangan itu pada mata orang itu dengan sedikit kawalan ke atas cara ia digunakan," tambah Hage.