Cara ToxMod Merancang untuk Membetulkan Sembang Permainan Toksik

Isi kandungan:

Cara ToxMod Merancang untuk Membetulkan Sembang Permainan Toksik
Cara ToxMod Merancang untuk Membetulkan Sembang Permainan Toksik
Anonim

Key Takeaway

  • ToxMod, oleh syarikat Modulate yang berpangkalan di Boston, mendakwa dapat mengesan dan bertindak terhadap pertuturan yang mengganggu secara automatik, dalam masa nyata.
  • Daripada dihadkan oleh bahasa mudah, ToxMod menggunakan pembelajaran mesin untuk mengetahui perkara tidak ketara seperti emosi, kelantangan dan irama.
  • ToxMod pada masa ini direka untuk digunakan dengan bilik sembang dalam permainan, tetapi tiada sebab ia tidak boleh datang ke saluran Twitch anda.
Image
Image

Syarikat yang berpangkalan di Boston menggunakan pembelajaran mesin untuk mencipta perkara yang dibilkan sebagai perkhidmatan penyederhanaan asli suara pertama di dunia, yang boleh membezakan antara perkara yang diperkatakan dan maksudnya.

ToxMod ialah percubaan untuk menyelesaikan paradoks menyederhanakan mana-mana ruang terbuka di Internet; tidak cukup manusia untuk mengikuti permintaan, tetapi algoritma, penapis dan sistem laporan tidak memahami nuansa.

Dengan pangkalan data ToxMod, ia boleh menjejaki faktor dalam pertuturan pemain seperti emosi dan kelantangan, yang membantu ia membezakan antara selang seketika dan corak tingkah laku. Ia baru-baru ini diumumkan sebagai tambahan kepada permainan bola sepak Amerika 7v7 Gridiron, kini dalam Steam Early Access.

"Semua orang tahu bahawa gangguan, pertuturan kebencian dan ketoksikan dalam sembang suara dan permainan adalah masalah besar. Itu biasa difahami," kata Carter Huffman, ketua pegawai teknologi dan pengasas bersama Modulate, dalam Mesyuarat Google dengan Lifewire. "Kami boleh mengambil ciri yang kami ekstrak melalui pelbagai sistem pembelajaran mesin ini dan menggabungkannya menjadi sistem yang mengambil kira semua pengetahuan pakar yang kami pelajari daripada komuniti ini."

All Salam Penyederhana Robot Baharu Kami

Modulate telah mengusahakan ToxMod sejak musim gugur lalu, dan telah menggabungkannya sebagai salah satu daripada tiga perkhidmatan teras syarikat. Ia juga menawarkan VoiceWear, penyamaran suara yang dikuasakan oleh pembelajaran mesin dan VoiceVibe, perkhidmatan agregator yang membolehkan pengguna mengetahui perkara yang dibincangkan oleh orang dalam komuniti mereka.

Apabila ToxMod berjalan dalam sembang, ia boleh diprogramkan melalui panel pentadbir Modulate untuk mengambil pelbagai tindakan automatik, seperti mengeluarkan amaran, meredamkan pemain atau melaraskan volum secara individu.

Ia menggunakan sistem triage di mana tika tempatannya adalah yang pertama mengambil tindakan, sebelum menyemak dengan pelayan Modulate untuk pengesahan. Kemudian ia akhirnya meningkat ke tahap di mana ia mungkin memerlukan campur tangan manusia. Dengan menjalankan setiap semakan secara bergilir-gilir, yang disebut Modulate sebagai "gerbang triage," ideanya ialah ToxMod memberikan satu pasukan kecil penyederhana alat yang digunakan untuk menyederhanakan komuniti yang lebih besar dengan berkesan.

"Kebenaran yang menyedihkan ialah setiap orang pernah mengalami pengalaman itu, cuba menggunakan sembang suara pada platform apa pun yang anda gunakan, dan mendapati bahawa, budak lelaki, itu adalah idea yang tidak baik, " kata Ketua Pegawai Eksekutif Modulate Mike Pappas dalam panggilan video dengan Lifewire. "Boleh masuk dan berkata, 'Ini bukan Wild West. Ada peraturan.' Saya rasa itu sangat penting."

Memecahkan Sistem

Sememangnya, soalan kedua atau ketiga untuk ditanya tentang ToxMod ialah cara memecahkannya.

Dengan banyak sistem penyederhanaan automatik, seperti algoritma yang mengawal Twitter, mudah untuk mempermainkannya dengan orang yang tidak anda sukai. Hanya laporkan secara besar-besaran sasaran anda dengan beberapa akaun boneka stokin dan mereka pasti akan makan larangan.

"Pada tahap garis dasar, ToxMod tidak perlu bergantung pada laporan pemain tambahan tersebut," kata Pappas. "Ia masih mampu menghasilkan anggaran kukuh tentang kesalahan yang perlu kami [beri perhatian]. Anda tidak perlu risau tentang pemain yang cuba memainkan sistem, kerana tidak ada apa-apa untuk dimainkan.

Semua orang tahu bahawa gangguan, ucapan kebencian dan ketoksikan dalam sembang suara dan permainan adalah masalah besar.

"Apa yang anda ada kawalan sebagai pemain adalah audio anda sendiri," sambung Pappas. "Perkara terburuk yang boleh anda lakukan ialah kurangkan sikap buruk terhadap seseorang supaya kami tidak membenderakan anda sebagai pelakon yang tidak baik, yang saya katakan adalah sesuatu yang hampir dengan kejayaan misi."

Secara amnya, idea di sebalik ToxMod ialah percubaan penambakan aktif. Ramai pemain pada ketika ini telah mengalami beberapa bentuk gangguan daripada orang yang tidak dikenali secara rawak dalam saluran suara terbuka, daripada penghinaan rawak kepada ancaman aktif. Akibatnya, pemain cenderung untuk menjauhkan diri daripada sembang suara secara umum, lebih suka melepaskan kemudahannya sebagai pertukaran untuk ketenangan fikiran mereka sendiri.

"Apa yang kami jangkakan untuk melihat [adalah pelakon jahat menghabiskan] lebih sedikit masa dalam sembang suara sebelum ditemui dan dialih keluar," kata Pappas."Itu mempunyai lebih daripada sekadar impak linear. Apabila semua orang melihat sembang suara sebagai tempat yang lebih selamat, lebih ramai pelakon yang baik bersedia untuk kembali ke sembang suara dan mencubanya. Saya rasa semuanya boleh berputar ke arah yang positif."

Disyorkan: