Keupayaan Alexa untuk Meniru Saudara Yang Mati Mungkin Perkara Paling Mengerikan Pernah

Isi kandungan:

Keupayaan Alexa untuk Meniru Saudara Yang Mati Mungkin Perkara Paling Mengerikan Pernah
Keupayaan Alexa untuk Meniru Saudara Yang Mati Mungkin Perkara Paling Mengerikan Pernah
Anonim

Key Takeaway

  • Pembantu suara Alexa Amazon boleh menyalin suara dengan hanya satu minit audio.
  • Anda boleh meminta Alexa membacakan cerita dengan suara ibu bapa yang telah meninggal dunia.
  • Ia adalah idea yang sama seperti palsu, hanya digunakan untuk kebaikan.
Image
Image

Gimik terbaharu Amazon Alexa ialah belajar meniru suara orang tersayang yang sudah mati, supaya mereka boleh bercakap dengan anda dari seberang kubur.

Alexa memerlukan hanya seminit audio yang dituturkan untuk meniru suara dengan meyakinkan. Amazon menagihnya sebagai ciri yang menghiburkan yang boleh membuat anda berhubung dengan orang tersayang, tetapi ia juga boleh menjadi pengalaman yang cukup menyeramkan. Dan ini menunjukkan betapa mudahnya untuk membuat audio palsu yang mendalam yang cukup baik untuk memperdayakan kita, walaupun suara itu adalah yang kita kenali dengan baik.

"Amazon sudah pasti memasuki wilayah yang agak unik dan pelik dengan pengumuman bahawa Alexa tidak lama lagi akan dapat belajar dan kemudian menggunakan suara saudara yang mati tidak lama lagi," kata Bill Mann, pakar privasi di Restore Privacy, Lifewire melalui e-mel. "Bagi sesetengah orang, ia tidak menyeramkan sama sekali. Malah, ia boleh menjadi agak menyentuh perasaan."

Hantu dalam Mesin

Sebagai sebahagian daripada persidangan tahunan re:MARS, Amazon menunjukkan ciri tersebut dalam video pendek. Di dalamnya, seorang kanak-kanak bertanya kepada Alexa sama ada nenek boleh terus membacanya "The Wizard of Oz, " kerja domain awam mesra utama kegemaran setiap kanak-kanak. Dan ia adalah detik yang cukup mengharukan. Sukar untuk tidak merasakan emosi manusia apabila nenek mula membaca.

"Manusia bergelut dengan kematian, terutamanya dalam budaya Barat. Selama berabad-abad kami telah cuba mencari cara untuk memperingati si mati, daripada topeng kematian, rambut yang terputus-putus, gambar lama, menonton filem lama, " Andrew Selepak, seorang profesor media sosial di Universiti Florida, memberitahu Lifewire melalui e-mel. "Deepfakes menggunakan teknologi terkini untuk mencipta topeng kematian baharu orang tersayang yang telah meninggal dunia. Tetapi, bergantung pada perspektif seseorang, adakah ia menyeramkan atau cara untuk mengingati dan berpegang kepada seseorang yang anda sayangi selepas mereka meninggal dunia?"

Tetapi memento mori boleh menghiburkan dan menyeramkan. Rakan ahli keluarga telah meninggal dunia, namun anda masih boleh mendengar mereka bercakap. Ia tidak membantu bahawa Alexa mempunyai sejarah tingkah laku yang ganjil, dan kadangkala menakutkan. Pada tahun 2018, ketika kolumnis pendapat NYT Farhad Manjoo sedang naik ke katil, Amazon Echo miliknya "mula meraung, seperti kanak-kanak yang menjerit dalam mimpi filem seram."

Tidak lama selepas itu, Amazon mengakui bahawa Alexa kadangkala ketawa terbahak-bahak, yang, bersama-sama remaja dan bilik bawah tanah, ialah filem seram 101.

Seseorang hanya boleh tertanya-tanya bagaimana perasaan anda jika Alexa melakukan helah yang sama dalam suara nenek.

Deep Fake

Kemudahan yang jelas dengan Alexa belajar meniru suara membawa kita kepada penggunaan pengklonan suara yang lebih jahat: palsu yang mendalam.

Image
Image

"Audio Deepfake bukanlah baharu, walaupun ia kurang difahami dan kurang diketahui. Teknologi ini telah tersedia selama bertahun-tahun untuk mencipta semula suara individu dengan kecerdasan buatan dan pembelajaran mendalam menggunakan audio sebenar yang agak sedikit daripada orang itu, " kata Selepak. "Teknologi sebegini juga boleh berbahaya dan merosakkan. Individu yang terganggu boleh mencipta semula suara bekas teman lelaki atau teman wanita yang telah mati dan menggunakan audio baharu untuk mengatakan perkara yang membenci dan menyakitkan hati."

Itu hanya dalam konteks Alexa. Audio palsu yang mendalam boleh melampaui itu, meyakinkan orang ramai bahawa ahli politik terkemuka mempercayai perkara yang mereka tidak percayai, contohnya. Tetapi sebaliknya, semakin kita terbiasa dengan pemalsuan yang mendalam ini-mungkin dalam bentuk suara Alexa ini-semakin kita akan ragu-ragu terhadap pemalsuan yang lebih jahat. Sekali lagi, memandangkan betapa mudahnya menyebarkan pembohongan di Facebook, mungkin tidak.

Amazon tidak menyatakan sama ada ciri ini akan datang kepada Alexa atau jika ia hanya demo teknologi. Saya agak berharap ia berlaku. Teknologi adalah pada tahap terbaik apabila ia digunakan dengan cara kemanusiaan seperti ini, dan walaupun reaksi mudah adalah untuk memanggilnya menyeramkan, seperti yang dikatakan Selepak, ia benar-benar tidak jauh berbeza daripada menonton video lama atau mendengar mel suara yang disimpan, seperti watak dalam rancangan TV yang ditulis dengan malas.

Dan jika teknologi untuk pemalsuan mendalam tersedia, mengapa tidak menggunakannya untuk menghiburkan diri kita?

Disyorkan: