
Deepfake: Firma British Arup menjadi mangsa penipuan $25-J, bagaimana anda boleh melindungi diri anda?
- Penipuan canggih ini mengakibatkan salah seorang pekerja Hong Kongnya memindahkan $25 juta kepada penipu.
- Arup memberitahu polis Hong Kong pada bulan Januari tentang kejadian itu, mengesahkan bahawa suara & imej palsu telah digunakan.
- Teknologi Deepfake memberikan risiko ketara yang memerlukan kewaspadaan dan langkah proaktif untuk mengurangkan.
Syarikat reka bentuk dan kejuruteraan multinasional Britain Arup, yang terkenal dengan bangunan ikonik seperti Sydney Opera House, mengesahkan ia disasarkan oleh penipuan palsu.
Penipuan canggih ini mengakibatkan salah seorang pekerja Hong Kongnya memindahkan $25 juta kepada penipu.
Apakah penipuan itu?
Copy link to sectionArup memberitahu polis Hong Kong pada Januari tentang kejadian itu, mengesahkan bahawa suara dan imej palsu telah digunakan.
Penipuan itu melibatkan seorang pekerja kewangan yang diperdaya untuk menghadiri panggilan video dengan orang yang dipercayainya ketua pegawai kewangan dan kakitangan lain, yang kesemuanya adalah rekreasi palsu.
Walaupun terdapat syak wasangka awal terhadap e-mel pancingan data, penampilan realistik dan suara rakan sekerjanya yang sepatutnya menyebabkan pekerja itu meneruskan transaksi, berjumlah 200 juta dolar Hong Kong ($25.6 juta) dalam 15 pemindahan.
Ancaman teknologi palsu yang semakin meningkat
Copy link to sectionInsiden itu menggariskan peningkatan kecanggihan teknologi deepfake.
Rob Greig, ketua pegawai maklumat global Arup, Arup, berkata:
Copy link to section“Seperti kebanyakan perniagaan lain di seluruh dunia, operasi kami tertakluk kepada serangan biasa, termasuk penipuan invois, penipuan pancingan data, penipuan suara WhatsApp dan deepfakes.”
Bilangan dan kecanggihan serangan sedemikian telah meningkat dengan mendadak, menimbulkan cabaran besar bagi syarikat di seluruh dunia.
Kebimbangan global dan tindak balas dalaman
Copy link to sectionPihak berkuasa di seluruh dunia semakin bimbang tentang penggunaan berniat jahat teknologi deepfake.
Dalam memo dalaman, pengerusi serantau Asia Timur Arup, Michael Kwok, menekankan peningkatan kekerapan dan kecanggihan serangan ini, menggesa pekerja untuk kekal bermaklumat dan berwaspada untuk mengesan teknik penipuan yang berbeza.
Ketahanan operasi dan siasatan berterusan
Copy link to sectionWalaupun mengalami kerugian kewangan yang ketara, Arup memberi jaminan bahawa kestabilan kewangan dan operasi perniagaannya tidak terjejas, dan tiada sistem dalamannya terjejas. Syarikat itu terus bekerjasama dengan pihak berkuasa, dan siasatan sedang dijalankan.
Insiden berprofil tinggi ini menyerlahkan keperluan mendesak untuk perniagaan mempertingkatkan langkah keselamatan siber mereka untuk memerangi ancaman teknologi deepfake yang semakin meningkat dan penipuan canggih lain.
Apa itu deepfake?
Copy link to sectionDeepfake ialah kandungan yang dijana menggunakan teknik pembelajaran mendalam yang kelihatan nyata tetapi direka-reka. Kecerdasan buatan ( AI ) yang digunakan untuk mencipta deepfakes biasanya menggunakan model generatif, seperti Generative Adversarial Networks (GAN) atau pengekod automatik.
Deepfakes boleh berupa video, rakaman audio atau imej yang menggambarkan individu atau kumpulan melakukan atau mengatakan perkara yang tidak pernah mereka lakukan.
Untuk menghasilkan kandungan yang meyakinkan, AI mesti melatih set data yang besar untuk mengenali dan meniru corak semula jadi.
Teknologi Deepfake, walaupun inovatif, membuka peluang berbahaya untuk penggunaan haram, termasuk kecurian identiti, pemalsuan bukti, salah maklumat, fitnah dan pintasan keselamatan biometrik.
Penipu sering memanfaatkan kuasa atau hubungan peribadi orang yang digambarkan kepada sasaran mereka.
Jenis deepfakes
Copy link to sectionDeepfakes boleh menghasilkan kandungan video, audio atau imej, digunakan sebagai media rakaman atau dalam strim masa nyata. Format ini boleh ditemui dalam pelbagai senario, daripada siaran media sosial kepada panggilan telefon dan persidangan video.
Pertukaran muka: Aplikasi ini menggantikan ciri muka orang sasaran dengan ciri palsu, selalunya orang lain.
Teknik seperti pengesanan dan manipulasi mercu tanda muka menjadikan pengadunan lancar dan sukar dikesan apabila ditangkap tanpa disedari.
Pengklonan suara: Teknik ini mereplikasi suara individu. Data audio berkualiti tinggi daripada rakaman orang sasaran yang bercakap dalam pelbagai konteks diperlukan untuk melatih model pengklonan suara.
Video dalam masa nyata palsu
Copy link to sectionDeepfakes video masa nyata menjana kandungan video yang dimanipulasi serta-merta semasa strim langsung dan panggilan video.
Pengklonan suara dan pertukaran muka kerap digunakan untuk mencipta persekitaran palsu yang meyakinkan. Perisian penjanaan Deepfake boleh disepadukan dengan platform penstriman dan alat persidangan video dalam beberapa cara:
Aplikasi berasingan menangkap, memproses dan menghantar suapan video yang dimanipulasi kepada perisian persidangan.
Penyepaduan terus ke dalam perisian persidangan video sebagai ciri atau pemalam pilihan.
Menggunakan kamera maya untuk memintas suapan video daripada kamera fizikal dan mengeluarkan suapan yang dimanipulasi.
Bagaimana untuk melindungi diri anda daripada deepfakes?
Copy link to sectionApabila teknologi deepfake semakin maju, adalah penting untuk melindungi diri anda dan organisasi anda daripada penipuan. Berikut ialah beberapa cara untuk melindungi daripada deepfakes:
Berhati-hati dengan bendera merah: Cari ekspresi muka atau pergerakan yang tidak realistik, ketidakkonsistenan dalam pencahayaan dan bayang-bayang, pergerakan kepala atau badan yang tidak semula jadi dan kualiti audio dan video yang tidak sepadan.
Bersikap proaktif jika mencurigakan: Libatkan diri dalam perbualan santai untuk menangkap pembohong. Minta orang itu berkongsi skrin mereka atau mengesahkan identiti mereka dengan memberikan maklumat eksklusif atau menghantar mesej pengesahan melalui saluran lain.
Sediakan frasa laluan: Wujudkan kata laluan atau frasa laluan untuk topik sensitif dengan rakan sekerja dan ahli keluarga. Kaedah ini berkesan dalam komunikasi suara, video dan teks.
Teknologi Deepfake memberikan risiko ketara yang memerlukan kewaspadaan dan langkah proaktif untuk mengurangkan.
Dengan memahami jenis deepfakes dan melaksanakan strategi untuk mengenal pasti dan mengatasinya, individu dan organisasi boleh melindungi diri mereka daripada potensi penipuan dengan lebih baik.
Memandangkan AI generatif terus berkembang, sentiasa bermaklumat dan bersedia adalah penting dalam melindungi daripada ancaman palsu yang semakin meningkat.
Artikel ini telah diterjemahkan daripada bahasa Inggeris dengan bantuan alatan AI, dan kemudian baca pruf dan diedit oleh penterjemah tempatan.